JP6859611B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6859611B2
JP6859611B2 JP2016115100A JP2016115100A JP6859611B2 JP 6859611 B2 JP6859611 B2 JP 6859611B2 JP 2016115100 A JP2016115100 A JP 2016115100A JP 2016115100 A JP2016115100 A JP 2016115100A JP 6859611 B2 JP6859611 B2 JP 6859611B2
Authority
JP
Japan
Prior art keywords
skin
beautifying
image
treatment
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016115100A
Other languages
Japanese (ja)
Other versions
JP2017220078A (en
Inventor
剛 松永
剛 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016115100A priority Critical patent/JP6859611B2/en
Publication of JP2017220078A publication Critical patent/JP2017220078A/en
Application granted granted Critical
Publication of JP6859611B2 publication Critical patent/JP6859611B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.

従来、撮影画像内のヒトの顔を検出し、この顔領域に対して肌を滑らかにしたり色を白くしたりするといった美肌化処理を施す技術が知られている。例えば、ヒトの年齢や性別を推論して美肌化処理を制御するものがある(例えば、特許文献1参照)。 Conventionally, there is known a technique of detecting a human face in a captured image and performing a skin beautifying process such as smoothing the skin or whitening the color of the face region. For example, there is one that infers the age and sex of a human and controls the skin beautification process (see, for example, Patent Document 1).

特開2007−280291号公報JP-A-2007-280291

しかしながら、上記特許文献1では、化粧や体調などによる顔の中での肌状態の変化を考慮していないため、化粧や体調などの影響によって美肌化処理を適正に行うことができない虞がある。 However, in Patent Document 1, since changes in the skin condition in the face due to makeup and physical condition are not taken into consideration, there is a possibility that the skin beautifying treatment cannot be properly performed due to the influence of makeup and physical condition.

そこで、本発明の課題は、顔の美肌化処理を適正に行うことができる画像処理装置、画像処理方法及びプログラムを提供することである。 Therefore, an object of the present invention is to provide an image processing device, an image processing method, and a program capable of appropriately performing facial skin beautification processing.

上記課題を解決するため、本発明に係る画像処理装置は、
被写体としてヒトが含まれる画像内より前記ヒトの顔領域及び前記ヒトの顔領域内の顔器官の位置を検出する検出手段と、
前記検出手段により検出されたヒトの顔領域内の顔器官の位置を基準とした所定の範囲を肌計測領域として設定する設定手段と、
前記設定手段によって設定された肌計測領域に対して二次元フーリエ変換を行って得られたノイズの周波数毎のレベルから肌状態指数を算出する算出手段と、
前記算出手段により算出された肌状態指数を美肌化処理の処理強度に変換する変換手段と、
前記検出手段により検出されたヒトの顔領域に対して、前記変換手段によって変換された処理強度で平滑化フィルタ処理を施す美肌化処理手段と、
を備え、
前記美肌化処理における前記平滑化フィルタ処理のフィルタサイズは複数の美肌モードに応じて複数種用意されており、
前記設定手段は、前記顔領域内で設定可能に規定されている複数の計測候補領域の中から、前記複数の美肌モードの中から選択された美肌モードに対応する計測領域を設定することを特徴としている。
In order to solve the above problems, the image processing apparatus according to the present invention is
A detection means for detecting the position of the human face region and the facial organs in the human face region from an image including a human as a subject.
A setting means for setting a predetermined range as a skin measurement area based on the position of a facial organ in a human face area detected by the detection means, and a setting means.
A calculation means for calculating the skin condition index from the level of noise obtained by performing a two-dimensional Fourier transform on the skin measurement region set by the setting means for each frequency.
A conversion means for converting the skin condition index calculated by the calculation means into the processing intensity of the skin beautification treatment, and
A skin-beautifying treatment means that applies a smoothing filter treatment to a human face region detected by the detection means with a treatment intensity converted by the conversion means.
With
A plurality of types of filter sizes for the smoothing filter processing in the skin-beautifying treatment are prepared according to a plurality of skin-beautifying modes.
The setting means is characterized in that a measurement area corresponding to a skin-beautifying mode selected from the plurality of skin-beautifying modes is set from a plurality of measurement candidate areas defined to be configurable in the face area. It is supposed to be.

本発明によれば、顔の美肌化処理を適正に行うことができる。 According to the present invention, it is possible to properly perform the skin-beautifying treatment of the face.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the image pickup apparatus of one Embodiment to which this invention is applied. 図1の撮像装置に記憶されている処理内容テーブルの一例を示す図である。It is a figure which shows an example of the processing content table stored in the image pickup apparatus of FIG. 図2の処理内容テーブルにおける処理強度情報の一例を示す図である。It is a figure which shows an example of the processing strength information in the processing content table of FIG. 図1の撮像装置による画像生成処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation which concerns on the image generation processing by the image pickup apparatus of FIG. 図4の画像生成処理における美肌化処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation which concerns on the skin beautification process in the image generation process of FIG. 図4の画像生成処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image generation processing of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, a specific aspect of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、具体的には、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、テーブル記憶部5と、画像処理部6と、記憶媒体制御部7と、表示部8と、操作入力部9とを備えている。
また、中央制御部1、メモリ2、撮像部3、撮像制御部4、テーブル記憶部5と、画像処理部6、記憶媒体制御部7及び表示部8は、バスライン10を介して接続されている。
FIG. 1 is a block diagram showing a schematic configuration of an image pickup apparatus 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, specifically, the image pickup apparatus 100 of the present embodiment includes a central control unit 1, a memory 2, an image pickup unit 3, an image pickup control unit 4, a table storage unit 5, and image processing. A unit 6, a storage medium control unit 7, a display unit 8, and an operation input unit 9 are provided.
Further, the central control unit 1, the memory 2, the imaging unit 3, the imaging control unit 4, the table storage unit 5, the image processing unit 6, the storage medium control unit 7, and the display unit 8 are connected via the bus line 10. There is.

中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。 The central control unit 1 controls each unit of the image pickup apparatus 100. Specifically, although not shown, the central control unit 1 includes a CPU (Central Processing Unit) and the like, and performs various control operations according to various processing programs (not shown) for the image pickup apparatus 100.

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1、撮像部3、画像処理部6等によって処理されるデータ等を一時的に格納する。 The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data or the like processed by the central control unit 1, the imaging unit 3, the image processing unit 6, or the like.

撮像部3は、所定の被写体(例えば、ヒト等)を撮像してフレーム画像を生成する。
具体的には、撮像部3は、レンズ部3aと、電子撮像部3b等を備えている。
The imaging unit 3 captures a predetermined subject (for example, a human being) to generate a frame image.
Specifically, the imaging unit 3 includes a lens unit 3a, an electronic imaging unit 3b, and the like.

レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(撮像素子)から構成されている。そして、電子撮像部3bは、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、撮像部3は、レンズ部3a及び電子撮像部3bに加えて、レンズ部3aを通過する光の量を調整する絞り(図示略)を備えても良い。
The lens unit 3a is composed of a plurality of lenses such as a zoom lens and a focus lens, for example.
The electronic image pickup unit 3b is composed of, for example, an image sensor (imaging element) such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor). Then, the electronic imaging unit 3b converts the optical image that has passed through the various lenses of the lens unit 3a into a two-dimensional image signal.
In addition to the lens unit 3a and the electronic imaging unit 3b, the imaging unit 3 may include a diaphragm (not shown) for adjusting the amount of light passing through the lens unit 3a.

撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、レンズ部3aを通過した光学像を電子撮像部3bにより所定周期毎に二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像処理部6に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行っても良い。
The image pickup control unit 4 controls the image pickup of the subject by the image pickup unit 3. That is, the image pickup control unit 4 includes a timing generator, a driver, and the like, although not shown. Then, the image pickup control unit 4 scans and drives the electronic image pickup unit 3b by the timing generator and the driver, and the electronic image pickup unit 3b converts the optical image that has passed through the lens unit 3a into a two-dimensional image signal at predetermined intervals. , The frame image for each screen is read out from the imaging region of the electronic imaging unit 3b and output to the image processing unit 6.
Further, the image pickup control unit 4 may perform adjustment control of conditions for photographing a subject such as AF (automatic focusing process), AE (automatic exposure process), and AWB (automatic white balance).

テーブル記憶部5は、画像生成処理(後述)にて用いられる処理内容テーブルT(図2参照)を記憶している。
処理内容テーブルTは、図2に示すように、複数の美肌モード毎に、肌状態計測部6d(後述)による肌状態の計測処理の処理内容を表す「肌状態計測手法」と、美肌処理部6f(後述)による美肌化処理の処理内容を表す「美肌化手法」と、全体処理強度制御部6e(後述)による肌状態に応じて変化する全体処理強度(全体パラメータ値)の変換情報を表す「処理強度情報」とが対応付けられている。
The table storage unit 5 stores the processing content table T (see FIG. 2) used in the image generation processing (described later).
As shown in FIG. 2, the processing content table T includes a "skin condition measurement method" representing the processing content of the skin condition measurement processing by the skin condition measurement unit 6d (described later) for each of the plurality of skin-beautifying modes, and the skin-beautifying unit. It represents the conversion information of the "skin-beautifying method" that represents the processing content of the skin-beautifying treatment by 6f (described later) and the overall processing strength (overall parameter value) that changes according to the skin condition by the overall processing strength control unit 6e (described later). It is associated with "processing strength information".

美肌モードとしては、例えば、デフォルトとして設定されている「美肌モード(デフォルト)」、化粧の影響を軽減させて美肌化処理を施すための「化粧優先美肌モード」、体調の影響を軽減させて美肌化処理を施すための「体調優先美肌モード」等が挙げられる。
ここで、化粧の影響を軽減させるとは、例えば、顔の中で目立たせたくない箇所(例えば、しわ、しみ、そばかす等)の印象が弱くなるように化粧が施される場合に、化粧が濃い(厚化粧)と、肌本来の肌状態や色とは乖離した状態となる。また、相対的に大きなしわやしみ等は、化粧で目立たせないようにすることが困難な場合もある。このため、より自然な美肌化処理を行う上では、化粧の影響がより少ない肌本来の肌状態や色を特定する必要がある。さらに、相対的に大きなしわやしみ等についても目立たせないようにすることが好ましい。
また、体調の影響を軽減させるとは、例えば、目のクマが表されている顔のように体調が悪い場合、同様に、肌本来の肌状態や色とは乖離した状態となる。このため、より自然な美肌化処理を行う上では、体調の影響がより少ない肌本来の肌状態や色を特定する必要がある。また、目のクマを上記した化粧で目立たせないようにすることが困難な場合もあるため、この場合には、目のクマについても目立たせないようにすることが好ましい。
一方、デフォルトとして設定されている「美肌モード(デフォルト)」では、化粧や体調の影響が軽減されないが、例えば、化粧が薄い(薄化粧)場合や体調が悪くない(体調の悪さが顔に表れていない)場合等には、美肌化処理を施しても化粧や体調の影響が相対的に少なく許容可能であると考えられる。
As the skin-beautifying mode, for example, "skin-beautifying mode (default)" set as the default, "makeup-priority skin-beautifying mode" for reducing the influence of makeup and applying skin-beautifying treatment, and skin-beautifying mode for reducing the influence of physical condition. Examples include a "physical condition priority skin-beautifying mode" for applying a make-up treatment.
Here, reducing the influence of makeup means that, for example, when makeup is applied so as to weaken the impression of parts of the face that are not desired to stand out (for example, wrinkles, blemishes, freckles, etc.), makeup is applied. Dark (thick makeup) is different from the original skin condition and color of the skin. In addition, it may be difficult to make relatively large wrinkles and spots inconspicuous with makeup. Therefore, in order to perform a more natural skin-beautifying treatment, it is necessary to specify the original skin condition and color of the skin, which is less affected by makeup. Further, it is preferable to make relatively large wrinkles and stains inconspicuous.
In addition, reducing the influence of physical condition means that, for example, when the physical condition is poor, such as the face on which the dark circles of the eyes are represented, the skin condition and color are different from the original skin condition. Therefore, in order to perform a more natural skin-beautifying treatment, it is necessary to specify the original skin condition and color of the skin, which is less affected by the physical condition. Further, it may be difficult to make the dark circles of the eyes inconspicuous with the above-mentioned makeup. In this case, it is preferable to make the dark circles of the eyes inconspicuous.
On the other hand, in the "Beautiful skin mode (default)" set as the default, the influence of makeup and physical condition is not reduced, but for example, when the makeup is light (light makeup) or the physical condition is not bad (bad physical condition appears on the face). In such cases, it is considered acceptable to apply the skin-beautifying treatment with relatively little effect on makeup and physical condition.

「肌状態計測手法」としては、例えば、肌状態の計測領域A1(図6参照)を表す「肌状態計測エリア」や、美肌モードに応じて規定された処理したい対象(例えば、しわ、しみ、そばかす、ほくろ、目のクマ等)に対応する二次元フーリエ変換画像の周波数を表す「対象周波数」等が規定されている。
「肌状態計測エリア」としては、例えば、肌状態の計測領域A1を顔領域F全体とする「肌状態計測エリア:全体」、顔領域F内の特定部分とする「肌状態計測エリア:1」や「肌状態計測エリア:2」等が挙げられる。なお、肌状態の計測領域A1の具体的な設定方法については、後述する。
Examples of the "skin condition measurement method" include a "skin condition measurement area" representing the skin condition measurement area A1 (see FIG. 6), and an object to be processed (for example, wrinkles, spots, etc.) defined according to the skin-beautifying mode. The "target frequency" that represents the frequency of the two-dimensional Fourier transformed image corresponding to freckles, moles, dark circles, etc.) is defined.
The "skin condition measurement area" includes, for example, "skin condition measurement area: whole" in which the skin condition measurement area A1 is the entire face area F, and "skin condition measurement area: 1" in which the specific part in the face area F is defined. , "Skin condition measurement area: 2" and the like. The specific setting method of the skin condition measurement area A1 will be described later.

「美肌化手法」としては、例えば、肌色の計測領域A2(図6参照)を表す「肌色態計測エリア」や、美肌モードに応じて規定された処理したい対象(例えば、しわ、しみ、そばかす、ほくろ、目のクマ等)に対応するフィルタ処理に用いられる画像処理フィルタ(例えば、平滑化フィルタ等)の大きさを表す「フィルタサイズ」等が規定されている。
「肌色計測エリア」としては、例えば、肌色の計測領域A2を顔領域F全体とする「肌色計測エリア:全体」、顔領域F内の特定部分とする「肌色計測エリア:1」や「肌色計測エリア:2」等が挙げられる。なお、肌色の計測領域A2の具体的な設定方法については、後述する。
Examples of the "skin-beautifying method" include a "skin color measurement area" representing the skin color measurement area A2 (see FIG. 6), and an object to be processed (for example, wrinkles, spots, freckles, etc.) defined according to the skin-beautifying mode. A "filter size" or the like indicating the size of an image processing filter (for example, a smoothing filter or the like) used for filter processing corresponding to moles, dark circles, etc. is defined.
Examples of the "skin color measurement area" include "skin color measurement area: whole" in which the skin color measurement area A2 is the entire face area F, "skin color measurement area: 1" and "skin color measurement" in which the specific part in the face area F is defined. Area: 2 ”and the like. The specific setting method of the skin color measurement area A2 will be described later.

「処理強度情報」は、肌状態指数と、美肌化処理の全体処理強度(全体パラメータ値)との対応関係が規定されている(図3参照)。
図3には、肌状態指数と、美肌化処理の全体処理強度との対応関係の一例を模式的に示している。
肌状態指数は、肌状態計測部6d(後述)による肌状態の計測処理にて特定される肌状態を表すものであり、例えば、肌荒れが大きくなる(ひどくなる)ほど高くなるようになっている。
「処理強度情報」としては、肌状態指数と、美肌化処理の全体処理強度との対応関係を異ならせた複数の処理強度変換データ(例えば、「処理強度変換データ:1」、「処理強度変換データ:2」、「処理強度変換データ:3」等)が挙げられる。また、これらの処理強度変換データは、複数の美肌モード毎、すなわち、肌状態計測部6dによる肌状態の計測手法と美肌処理部6fによる美肌化手法との組み合わせに応じて異なっている。つまり、テーブル記憶部5には、肌状態計測部6dによる「肌状態計測手法」と美肌処理部6fによる「美肌化手法」との複数の組み合わせの各々に対応させて、全体処理強度制御部6e(後述)による肌状態に応じて変化する全体処理強度の変換情報を表す「処理強度情報」が複数記憶されている。
The "treatment strength information" defines the correspondence between the skin condition index and the total treatment strength (overall parameter value) of the skin beautification treatment (see FIG. 3).
FIG. 3 schematically shows an example of the correspondence between the skin condition index and the overall treatment intensity of the skin beautification treatment.
The skin condition index represents the skin condition specified by the skin condition measurement process by the skin condition measuring unit 6d (described later). For example, the skin condition becomes higher as the rough skin becomes larger (severe). ..
As the "processing intensity information", a plurality of processing intensity conversion data (for example, "processing intensity conversion data: 1", "processing intensity conversion") having different correspondences between the skin condition index and the total processing intensity of the skin beautification treatment are used. Data: 2 ”,“ Processing intensity conversion data: 3 ”, etc.). Further, these processing intensity conversion data are different for each of the plurality of skin-beautifying modes, that is, depending on the combination of the skin condition measuring method by the skin condition measuring unit 6d and the skin-beautifying method by the skin-beautifying unit 6f. That is, the table storage unit 5 corresponds to each of a plurality of combinations of the "skin condition measurement method" by the skin condition measurement unit 6d and the "skin beautification method" by the skin beautification processing unit 6f, and the overall processing strength control unit 6e A plurality of "processing intensity information" representing conversion information of the total processing intensity that changes according to the skin condition according to (described later) is stored.

なお、上記した「処理強度情報」のように、肌状態指数と、美肌化処理の全体処理強度との対応関係を異ならせて複数の処理強度変換データを記憶しなくとも、例えば、肌状態指数及び全体処理強度をそれぞれ正規化して対応付けたデータを1つだけ記憶するようにしても良い。また、例えば、肌状態指数と、美肌化処理の全体処理強度との対応関係が線形の場合には、変換比率データだけを記憶するようにしても良い。 It should be noted that, as in the above-mentioned "processing intensity information", for example, the skin condition index does not need to store a plurality of processing intensity conversion data by differently relating the skin condition index and the overall processing intensity of the skin beautification treatment. And the overall processing strength may be normalized and only one associated data may be stored. Further, for example, when the correspondence relationship between the skin condition index and the overall treatment intensity of the skin beautification treatment is linear, only the conversion ratio data may be stored.

また、上記した美肌モードは、一例であってこれらに限られるものではなく、例えば、しわ、しみ、そばかす等をそれぞれ優先して除去するような個別の美肌モードなど適宜任意に変更可能である。
さらに、各美肌モード毎に対応付けられている「肌状態計測手法」、「美肌化手法」、「処理強度情報」の内容も、一例であってこれらに限られるものではなく、適宜任意に変更可能である。
Further, the above-mentioned skin-beautifying mode is an example and is not limited to these, and can be arbitrarily changed, for example, an individual skin-beautifying mode in which wrinkles, blemishes, freckles and the like are preferentially removed.
Furthermore, the contents of the "skin condition measurement method", "skin-beautifying method", and "processing intensity information" associated with each skin-beautifying mode are also examples and are not limited to these, and can be arbitrarily changed as appropriate. It is possible.

このように、テーブル記憶部5は、記憶手段として、肌状態計測部6dによる肌状態の計測手法と、美肌処理部6fによる美肌化手法と、全体処理強度制御部6eによる肌状態に応じたパラメータ値の変換情報とを対応付けて記憶している。 As described above, as the storage means, the table storage unit 5 has a skin condition measurement method by the skin condition measurement unit 6d, a skin beautification method by the skin beautification processing unit 6f, and parameters according to the skin condition by the overall processing intensity control unit 6e. It is stored in association with the value conversion information.

画像処理部6は、電子撮像部3bから転送されたフレーム画像のアナログデータをデジタルデータに変換する処理、ホワイトバランスを調整する処理、カラープロセス処理等を行って、デジタル値の輝度信号Y及び色差信号Cb,Crを生成する。具体的には、画像処理部6は、画像取得部6aと、顔検出部6bと、計測領域設定部6cと、肌状態計測部6dと、全体処理強度制御部6eと、美肌処理部6fと、肌色特定部6gと、部分処理強度制御部6hと、合成画像生成部6iとを具備している。
なお、画像処理部6の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The image processing unit 6 performs a process of converting the analog data of the frame image transferred from the electronic imaging unit 3b into digital data, a process of adjusting the white balance, a color process process, and the like, and performs the brightness signal Y of the digital value and the color difference. Signals Cb and Cr are generated. Specifically, the image processing unit 6 includes an image acquisition unit 6a, a face detection unit 6b, a measurement area setting unit 6c, a skin condition measurement unit 6d, an overall processing intensity control unit 6e, and a skin beautification unit 6f. A skin color specifying unit 6g, a partial processing intensity control unit 6h, and a composite image generation unit 6i are provided.
Each part of the image processing unit 6 is composed of, for example, a predetermined logic circuit, but the configuration is an example and is not limited to this.

画像取得部6aは、画像生成処理(後述)の処理対象となる画像を取得する。
すなわち、画像取得部(取得手段)6aは、撮像部3により撮像された画像を画像生成処理の処理対象として取得する。具体的には、画像取得部6aは、例えば、電子撮像部3bから出力されて入力された画像(元画像I)の所定のカラーフィルタの配列(例えば、ベイヤー配列)に従った画像データ(RGBデータ)を取得する。また、画像取得部6aは、元画像IのRGBデータの複製を生成し、例えば、ホワイトバランス調整処理やカラープロセス処理等を行って、元画像IのYUVデータを生成して取得する。
ここで、後述する合成画像生成部6iにより合成美肌処理画像を生成しない場合には、画像取得部6aは、必ずしも元画像Iの画像データを複製する必要はない。
なお、画像取得部6aは、記憶媒体Mに記憶されている画像を処理対象として、その画像データを取得しても良い。
The image acquisition unit 6a acquires an image to be processed in the image generation process (described later).
That is, the image acquisition unit (acquisition means) 6a acquires the image captured by the image pickup unit 3 as a processing target of the image generation process. Specifically, the image acquisition unit 6a is, for example, an image data (RGB) according to a predetermined color filter array (for example, a Bayer array) of an image (original image I) output and input from the electronic imaging unit 3b. Data) is acquired. Further, the image acquisition unit 6a generates a duplicate of the RGB data of the original image I, and performs, for example, white balance adjustment processing, color process processing, and the like to generate and acquire YUV data of the original image I.
Here, when the composite image generation unit 6i, which will be described later, does not generate the composite skin-beautifying image, the image acquisition unit 6a does not necessarily have to duplicate the image data of the original image I.
The image acquisition unit 6a may acquire the image data of the image stored in the storage medium M as a processing target.

顔検出部6bは、顔検出処理を行う。
すなわち、顔検出部(検出手段)6bは、画像取得部6aにより取得された元画像Iの画像データに対して所定の顔検出処理を行って、当該元画像I内からヒトの顔が含まれる顔領域F(図6参照)を検出する。そして、顔検出部6bは、例えば、AAM(Active Appearance Model)を用いた処理により、目、鼻、口、眉、顔輪郭等の主要な顔器官の位置を検出する。なお、以下の説明では、顔領域Fとは、顔輪郭と髪の毛により囲まれた、主として肌色の領域のことを言う。
また、上記した顔検出処理やAAMは、公知の技術であるので、ここでは詳細な説明を省略する。また、AAMを用いて顔器官の検出を行うようにしたが、一例であってこれに限られるものではなく、例えば、エッジ抽出処理、非等方拡散処理、テンプレートマッチング等適宜任意に変更可能である。
The face detection unit 6b performs face detection processing.
That is, the face detection unit (detection means) 6b performs a predetermined face detection process on the image data of the original image I acquired by the image acquisition unit 6a, and includes a human face from within the original image I. The face area F (see FIG. 6) is detected. Then, the face detection unit 6b detects the positions of major facial organs such as eyes, nose, mouth, eyebrows, and facial contours by processing using, for example, AAM (Active Appearance Model). In the following description, the face region F refers to a region mainly flesh-colored surrounded by the facial contour and the hair.
Further, since the above-mentioned face detection process and AAM are known techniques, detailed description thereof will be omitted here. In addition, the facial organs are detected using AAM, but this is only an example and is not limited to this. For example, edge extraction processing, anisotropic diffusion processing, template matching, etc. can be arbitrarily changed. is there.

計測領域設定部6cは、肌状態の計測領域A1(図6参照)を設定する。
すなわち、計測領域設定部(設定手段)6cは、顔検出部6bにより検出されたヒトの顔領域F内で顔器官の位置を基準とする特定部分に、肌状態計測部6dによる肌状態の計測領域A1を設定する。具体的には、処理内容テーブルTに規定されている複数の美肌モードの中で、何れか一の美肌モードがユーザによる操作入力部9の所定操作に基づいて、或いは、デフォルトとして自動的に指定されると、計測領域設定部6cは、指定されている美肌モードに対応する「肌状態計測手法」の欄の「肌状態計測エリア」を参照し、顔検出部6bにより検出されたヒトの顔領域F全体や、顔領域F内での顔器官の位置を基準とする特定部分を肌状態の計測領域A1として設定する。つまり、複数の美肌モードの各々に対応する肌状態計測部6dによる肌状態の計測手法と美肌処理部6fによる美肌化手法との組み合わせ毎に、顔領域F内で設定可能な肌状態の計測候補領域が規定されており、計測領域設定部6cは、これらの計測候補領域の中から、指定されている美肌モードに対応する肌状態の計測領域(肌状態の計測手法及び美肌化手法に対応する顔領域F内の領域)A1を設定する。
ここで、例えば、図6に示すように、顔領域Fの略中央の部分を肌状態の計測領域A1とする場合、計測領域設定部6cは、顔領域F内で顔器官としての鼻の位置を基準とする所定範囲を特定部分として、肌状態の計測領域A1を設定する。また、図示は省略するが、顔領域Fの額の部分を肌状態の計測領域A1とする場合には、左右の目の位置を基準とし、同様に、顔領域Fの顎の部分を肌状態の計測領域A1とする場合には、口の位置を基準とし、同様に、顔領域Fの頬の部分を肌状態の計測領域A1とする場合には、目、鼻、口等の複数の顔器官の位置を基準とする所定範囲(特定部分)が肌状態の計測領域A1となる。
The measurement area setting unit 6c sets the skin condition measurement area A1 (see FIG. 6).
That is, the measurement area setting unit (setting means) 6c measures the skin condition by the skin condition measurement unit 6d at a specific portion in the human face region F detected by the face detection unit 6b with reference to the position of the facial organ. Area A1 is set. Specifically, among the plurality of skin-beautifying modes defined in the processing content table T, any one of the skin-beautifying modes is automatically specified based on a predetermined operation of the operation input unit 9 by the user or as a default. Then, the measurement area setting unit 6c refers to the "skin condition measurement area" in the column of the "skin condition measurement method" corresponding to the designated skin-beautifying mode, and the human face detected by the face detection unit 6b. The entire area F or a specific part based on the position of the facial organ in the face area F is set as the skin condition measurement area A1. That is, a skin condition measurement candidate that can be set in the face area F for each combination of the skin condition measurement method by the skin condition measurement unit 6d corresponding to each of the plurality of skin beautification modes and the skin beautification method by the skin beautification processing unit 6f. The area is defined, and the measurement area setting unit 6c corresponds to the skin condition measurement area (skin condition measurement method and skin beautification method) corresponding to the designated skin-beautifying mode from among these measurement candidate areas. Area in face area F) A1 is set.
Here, for example, as shown in FIG. 6, when the substantially central portion of the face area F is the skin state measurement area A1, the measurement area setting unit 6c is the position of the nose as a facial organ in the face area F. The skin condition measurement area A1 is set with a predetermined range based on the above as a specific part. Although not shown, when the forehead portion of the face region F is the skin condition measurement region A1, the left and right eye positions are used as a reference, and similarly, the cheek portion of the face region F is the skin condition. When the measurement area A1 of the above is used, the position of the mouth is used as a reference, and similarly, when the cheek portion of the face area F is used as the measurement area A1 of the skin condition, a plurality of faces such as eyes, nose, and mouth are used. A predetermined range (specific part) based on the position of the organ is the measurement area A1 of the skin condition.

なお、計測領域設定部6cは、指定されている美肌モードに応じて、「肌状態計測手法」の欄の「肌状態計測エリア」を参照して、肌状態の計測領域A1を設定するようにしたが、一例であってこれに限られるものではなく、例えば、肌状態計測部6dによる肌状態の計測手法或いは美肌処理部6fによる美肌化手法に応じて、顔領域F内での顔器官の位置を基準とする特定部分を肌状態の計測領域A1として設定しても良い。すなわち、肌状態の計測領域A1は、肌状態の計測手法及び美肌化手法のうち、少なくとも一方に基づいて決められたものであれば良い。 The measurement area setting unit 6c sets the skin condition measurement area A1 by referring to the "skin condition measurement area" in the "skin condition measurement method" column according to the designated skin-beautifying mode. However, this is only an example, and the present invention is not limited to this. For example, depending on the skin condition measurement method by the skin condition measurement unit 6d or the skin beautification method by the skin beautification unit 6f, the facial organs in the face region F A specific portion based on the position may be set as the skin condition measurement area A1. That is, the skin condition measurement region A1 may be determined based on at least one of the skin condition measurement method and the skin beautification method.

また、計測領域設定部6cは、肌色の計測領域A2(図6参照)を設定する。
すなわち、処理内容テーブルTに規定されている複数の美肌モードの中で、何れか一の美肌モードが指定されている場合、計測領域設定部6cは、指定されている美肌モードに対応する「肌色計測手法」の欄の「肌色計測エリア」を参照し、顔検出部6bにより検出されたヒトの顔領域F全体や、顔領域F内での顔器官の位置を基準とする特定部分を肌色の計測領域A2として設定する。
なお、顔領域F内で肌色の計測領域A2を設定する方法は、上記した肌状態の計測領域A1を設定する方法とほぼ同様であり、詳細な説明は省略する。
Further, the measurement area setting unit 6c sets the skin color measurement area A2 (see FIG. 6).
That is, when any one of the skin-beautifying modes specified in the processing content table T is specified, the measurement area setting unit 6c sets the "skin color" corresponding to the designated skin-beautifying mode. Refer to the "skin color measurement area" in the "Measurement method" column, and set the entire human face area F detected by the face detection unit 6b or a specific part based on the position of the facial organ in the face area F as the skin color. Set as the measurement area A2.
The method of setting the skin color measurement area A2 in the face area F is almost the same as the method of setting the skin condition measurement area A1 described above, and detailed description thereof will be omitted.

また、計測領域設定部6cは、指定されている美肌モードに応じて、「肌色計測手法」の欄の「肌色計測エリア」を参照して、肌色の計測領域A2を設定するようにしたが、一例であってこれに限られるものではなく、例えば、肌状態計測部6dによる肌状態の計測手法或いは美肌処理部6fによる美肌化手法に応じて、顔領域F内での顔器官の位置を基準とする特定部分を肌色の計測領域A2として設定しても良い。
すなわち、計測領域設定部(設定手段)6cは、肌状態計測部6dによる肌状態の計測手法及び美肌処理部6fによる美肌化手法のうち、少なくとも一方に基づいて、顔検出部6bにより検出されたヒトの顔領域F内で顔器官の位置を基準とする特定部分に、肌色の計測領域A2を設定する。
Further, the measurement area setting unit 6c sets the skin color measurement area A2 by referring to the "skin color measurement area" in the "skin color measurement method" column according to the designated skin-beautifying mode. This is an example and is not limited to this. For example, the position of the facial organ in the face region F is used as a reference according to the skin condition measurement method by the skin condition measurement unit 6d or the skin beautification method by the skin beautification unit 6f. The specific portion to be designated may be set as the skin color measurement area A2.
That is, the measurement area setting unit (setting means) 6c was detected by the face detection unit 6b based on at least one of the skin condition measurement method by the skin condition measurement unit 6d and the skin beautification method by the skin beautification processing unit 6f. The skin color measurement region A2 is set in a specific portion of the human face region F with reference to the position of the facial organ.

なお、図6には、肌状態の計測領域A1と肌色の計測領域A2として同じ位置に配設されたものを例示したが、一例であってこれに限られるものではなく、互いに異なる位置であっても良い。 In addition, although FIG. 6 exemplifies an example in which the skin condition measurement area A1 and the skin color measurement area A2 are arranged at the same position, the present invention is not limited to this, and the positions are different from each other. You may.

肌状態計測部6dは、ヒトの顔領域Fの肌状態を計測する。
すなわち、肌状態計測部(計測手段)6dは、顔検出部6bにより検出されたヒトの顔領域Fの肌状態を所定の計測手法により計測する。例えば、肌状態計測部6dは、顔検出部6bにより検出された元画像Iの顔領域Fに対して二次元フーリエ変換を行い、ノイズの周波数毎にそのレベルを算出する。そして、肌状態計測部6dは、算出されたノイズの周波数のレベルに応じて、予め決められた重みを乗算して(重み付けして)積分することにより、肌状態指数を算出する。
具体的には、肌状態計測部6dは、計測領域設定部6cにより設定された顔領域F内の肌状態の計測領域A1について、上記した肌状態指数の算出を行う。さらに、肌状態計測部6dは、処理内容テーブルTに規定されている複数の美肌モードの中で指定されている何れか一の美肌モードに対応する「肌状態計測手法」の欄の「対象周波数」を参照し、処理したい対象(例えば、しわ、しみ、そばかす、ほくろ、目のクマ等)に対応する二次元フーリエ変換画像の周波数を特定する。そして、肌状態計測部6dは、特定された周波数のノイズについては、重み付けの際の重み値を相対的に大きくして、肌状態指数を算出する。
このように、肌状態計測部6dによる肌状態の計測手法には、肌状態の計測方法を異ならせた複数の計測手法がある。
The skin condition measuring unit 6d measures the skin condition of the human face region F.
That is, the skin condition measuring unit (measuring means) 6d measures the skin condition of the human face region F detected by the face detecting unit 6b by a predetermined measuring method. For example, the skin condition measuring unit 6d performs a two-dimensional Fourier transform on the face region F of the original image I detected by the face detecting unit 6b, and calculates the level for each noise frequency. Then, the skin condition measuring unit 6d calculates the skin condition index by multiplying (weighting) and integrating a predetermined weight according to the calculated frequency level of the noise.
Specifically, the skin condition measurement unit 6d calculates the above-mentioned skin condition index for the skin condition measurement area A1 in the face area F set by the measurement area setting unit 6c. Further, the skin condition measuring unit 6d has a "target frequency" in the "skin condition measuring method" column corresponding to any one of the plurality of skin-beautifying modes specified in the processing content table T. , And specify the frequency of the two-dimensional Fourier transformed image corresponding to the object to be processed (for example, wrinkles, spots, freckles, moles, dark circles, etc.). Then, the skin condition measuring unit 6d calculates the skin condition index by relatively increasing the weighting value at the time of weighting for the noise of the specified frequency.
As described above, the skin condition measuring method by the skin condition measuring unit 6d includes a plurality of measuring methods having different skin condition measuring methods.

なお、上記した肌状態の計測手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。すなわち、肌状態計測部6dは、例えば、公知の画像ノイズ計測処理を利用して肌状態の計測を行っても良い。 The above-mentioned skin condition measurement method is an example and is not limited to this, and can be arbitrarily changed as appropriate. That is, the skin condition measurement unit 6d may measure the skin condition by using, for example, a known image noise measurement process.

全体処理強度制御部6eは、美肌処理部6fによる画像処理の全体処理強度を制御する。
すなわち、全体処理強度制御部(制御手段)6eは、肌状態計測部6dにより計測された肌状態に応じて、美肌処理部6fによる画像処理の全体処理強度(全体パラメータ値)を制御する。
具体的には、処理内容テーブルTに規定されている複数の美肌モードの中で、何れか一の美肌モードが指定されている場合、全体処理強度制御部6eは、指定されている美肌モードに対応する「処理強度情報」の欄の「処理強度変換データ」(例えば、「処理強度変換データ:1」等)を参照して、肌状態計測部6dにより算出された肌状態指数を美肌処理部6fによる画像処理の処理強度に変換し、ヒトの顔領域F全体に対応する美肌処理部6fによる画像処理の全体処理強度として決定する。
ここで、画像処理の全体処理強度としては、例えば、美肌処理部6fによる画像処理に用いられるフィルタ(例えば、平滑化フィルタ等)の重みを表すフィルタ係数等が挙げられる。
The overall processing intensity control unit 6e controls the overall processing intensity of the image processing by the skin beautifying unit 6f.
That is, the overall processing intensity control unit (control means) 6e controls the overall processing intensity (overall parameter value) of the image processing by the skin beautifying unit 6f according to the skin condition measured by the skin condition measuring unit 6d.
Specifically, when any one of the skin-beautifying modes specified in the processing content table T is specified, the overall processing intensity control unit 6e is set to the designated skin-beautifying mode. With reference to the "processing intensity conversion data" (for example, "processing intensity conversion data: 1", etc.) in the corresponding "processing intensity information" column, the skin condition index calculated by the skin condition measuring unit 6d is used as the skin condition index. It is converted into the processing intensity of the image processing by 6f, and is determined as the overall processing intensity of the image processing by the skin-beautifying processing unit 6f corresponding to the entire human face region F.
Here, examples of the overall processing intensity of the image processing include a filter coefficient representing the weight of a filter (for example, a smoothing filter) used for image processing by the skin-beautifying unit 6f.

美肌処理部6fは、ヒトの顔領域Fに対して美肌化処理を施す。
すなわち、美肌処理部(美肌処理手段)6fは、顔検出部6bにより検出されたヒトの顔領域Fに対して所定の美肌化手法に対応する画像処理を施す。例えば、美肌処理部6fは、顔検出部6bにより検出された元画像Iの顔領域Fに対してフィルタ処理(例えば、平滑化処理等)を施すことで、顔領域Fのノイズを除去する。
具体的には、美肌処理部6fは、処理内容テーブルTに規定されている複数の美肌モードの中で指定されている何れか一の美肌モードに対応する「美肌化手法」の欄の「フィルタサイズ」を参照して、処理したい対象(例えば、しわ、しみ、そばかす、ほくろ、目のクマ等)に対応する画像処理フィルタ(例えば、平滑化フィルタ等)の大きさを特定する。続けて、美肌処理部6fは、特定された大きさの画像処理フィルタを用いて、全体処理強度制御部6eにより決定された全体処理強度(例えば、フィルタ係数等)で元画像Iの顔領域Fに対してフィルタ処理(例えば、平滑化処理等)を施すことで、顔領域F全体のノイズを除去する。そして、美肌処理部6fは、例えば、ホワイトバランス調整処理やカラープロセス処理等を行って、全体美肌処理画像のYUVデータを生成する。
このように、美肌処理部6fによる美肌化手法には、美肌化に係る画像処理を異ならせた複数の美肌化手法がある。
The skin-beautifying unit 6f performs skin-beautifying treatment on the human face region F.
That is, the skin-beautifying unit (skin-beautifying means) 6f performs image processing corresponding to a predetermined skin-beautifying method on the human face region F detected by the face detecting unit 6b. For example, the skin-beautifying unit 6f removes noise in the face area F by performing a filter process (for example, smoothing process) on the face area F of the original image I detected by the face detection unit 6b.
Specifically, the skin-beautifying unit 6f has a "filter" in the "skin-beautifying method" column corresponding to any one of the skin-beautifying modes specified in the processing content table T. With reference to "size", the size of the image processing filter (for example, smoothing filter, etc.) corresponding to the object to be processed (for example, wrinkles, spots, freckles, moles, dark circles, etc.) is specified. Subsequently, the skin-beautifying unit 6f uses an image processing filter of a specified size, and uses an image processing filter of a specified size to obtain an overall processing intensity (for example, a filter coefficient or the like) determined by the overall processing intensity control unit 6e, and the face region F of the original image I. By performing a filter process (for example, a smoothing process, etc.) on the face region F, noise in the entire face region F is removed. Then, the skin-beautifying unit 6f performs, for example, white balance adjustment processing, color process processing, and the like to generate YUV data of the entire skin-beautifying processing image.
As described above, the skin-beautifying method by the skin-beautifying unit 6f includes a plurality of skin-beautifying methods in which the image processing related to the skin-beautifying is different.

なお、上記した美肌化手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。すなわち、美肌処理部6fは、例えば、公知の画像ノイズ除去処理を利用して美肌化処理を行っても良い。 The above-mentioned skin-beautifying method is an example and is not limited to this, and can be arbitrarily changed as appropriate. That is, the skin-beautifying unit 6f may perform the skin-beautifying treatment by using, for example, a known image noise removing process.

肌色特定部6gは、ヒトの顔領域Fに対応する肌の色を特定する。
すなわち、肌色特定部(特定手段)6gは、顔検出部6bにより検出された元画像I内のヒトの顔領域Fに対応する肌の色を特定する。具体的には、処理内容テーブルTに規定されている複数の美肌モードの中で、何れか一の美肌モードが指定されている場合、肌色特定部6gは、計測領域設定部6cにより設定されたヒトの顔領域Fにおける肌色の計測領域A2内の各画素の画素値に基づいて、肌の基本色(例えば、色相Hの平均値や中央値等)を特定する。
なお、肌の色の特定は、公知の技術であるのでここでは詳細な説明は省略するが、例えば、元画像Iの画像データをHSV色空間に変換したHSVデータに対して行われても良いし、YUV色空間に変換したYUVデータに対して行われても良い。
The skin color specifying portion 6g specifies the skin color corresponding to the human face region F.
That is, the skin color specifying unit (specific means) 6g specifies the skin color corresponding to the human face region F in the original image I detected by the face detecting unit 6b. Specifically, when any one of the skin-beautifying modes specified in the processing content table T is specified, the skin color specifying unit 6g is set by the measurement area setting unit 6c. The basic color of the skin (for example, the average value or the median value of the hue H) is specified based on the pixel value of each pixel in the skin color measurement area A2 in the human face region F.
Since the identification of the skin color is a known technique, detailed description thereof will be omitted here, but for example, the HSV data obtained by converting the image data of the original image I into the HSV color space may be used. However, it may be performed on the YUV data converted into the YUV color space.

部分処理強度制御部6hは、美肌処理部6fによる画像処理の部分処理強度を制御する。
すなわち、部分処理強度制御部(制御手段)6hは、肌色特定部6gにより特定された肌の色に応じて、顔検出部6bにより検出されたヒトの顔領域Fの所定部分毎(例えば、画素毎等)に美肌処理部6fによる画像処理の部分処理強度(部分パラメータ値)を決定する。
具体的には、部分処理強度制御部6hは、元画像Iのヒトの顔領域Fの各画素について、肌色特定部6gにより特定された肌色の計測領域A2内の各画素の基本色を基準とする所定の色範囲を所定の階調(例えば、8bit[0〜255]等)で表した顔マップを生成する。この顔マップの階調値が、後述する合成画像生成部6iによる全体美肌処理画像と元画像Iとの合成の比率、すなわち、全体美肌処理画像の各画素について、元画像Iに対してアルファブレンディングする際の重みを表している。例えば、顔マップの階調値が「255」に対応する全体美肌処理画像の画素は、元画像Iに対する透過率が0%となり、顔マップの階調値が「0」に対応する全体美肌処理画像の画素は、元画像Iに対する透過率が100%となる。
つまり、顔マップの階調値により全体美肌処理画像と元画像Iとの肌に相当する部分の合成の比率が変化し、これにより、ヒトの顔領域Fの各画素毎に美肌処理部6fによる画像処理の部分処理強度(部分パラメータ値)が変化することとなる。
The partial processing intensity control unit 6h controls the partial processing intensity of image processing by the skin-beautifying processing unit 6f.
That is, the partial processing intensity control unit (control means) 6h is used for each predetermined portion (for example, a pixel) of the human face region F detected by the face detection unit 6b according to the skin color specified by the skin color identification unit 6g. Every etc.), the partial processing intensity (partial parameter value) of the image processing by the skin-beautifying unit 6f is determined.
Specifically, the partial processing intensity control unit 6h uses the basic color of each pixel in the skin color measurement region A2 specified by the skin color identification unit 6g as a reference for each pixel of the human face region F of the original image I. A face map is generated in which a predetermined color range is represented by a predetermined gradation (for example, 8 bits [0 to 255], etc.). The gradation value of this face map is the ratio of the composition of the entire skin-beautifying image and the original image I by the composite image generation unit 6i described later, that is, alpha blending with respect to the original image I for each pixel of the overall skin-beautifying image. It represents the weight when doing. For example, the pixels of the overall skin-beautifying image corresponding to the gradation value of the face map of "255" have a transmittance of 0% with respect to the original image I, and the overall skin-beautifying process corresponding to the gradation value of the face map of "0". The image pixels have a transmittance of 100% with respect to the original image I.
That is, the ratio of the composition of the entire skin-beautifying image and the original image I corresponding to the skin changes depending on the gradation value of the face map, and as a result, the skin-beautifying unit 6f determines each pixel of the human face region F. The partial processing intensity (partial parameter value) of the image processing will change.

合成画像生成部6iは、全体美肌処理画像と元画像Iとを合成して合成美肌処理画像を生成する。
すなわち、合成画像生成部6iは、美肌処理部6fにより生成された全体美肌処理画像と画像取得部6aにより取得された元画像Iとを、部分処理強度制御部6hにより生成され、顔領域Fの透過率が設定されている顔マップを用いて合成して、合成美肌処理画像の画像データを生成する。例えば、合成画像生成部6iは、全体美肌処理画像の各画素について、顔マップに設定されている階調値(透過率)が「0」の画素は元画像Iに対して透過させ、階調値が「255」の画素は当該全体美肌処理画像の対応する画素の画素値で元画像Iの画素を上書きし、さらに、階調値が「1〜254」の画素は当該透過率に応じて全体美肌処理画像の画素の画素値と元画像Iの対応する画素の画素値とでブレンドする(アルファブレンディング)。
なお、上記したアルファブレンディングは、公知の技術であるので、ここでは詳細な説明を省略する。
The composite image generation unit 6i generates a composite skin-beautifying image by synthesizing the entire skin-beautifying image and the original image I.
That is, the composite image generation unit 6i generates the entire skin-beautifying image generated by the skin-beautifying unit 6f and the original image I acquired by the image acquisition unit 6a by the partial processing intensity control unit 6h, and the face region F The image data of the composite skin-beautifying image is generated by synthesizing using the face map in which the transmittance is set. For example, the composite image generation unit 6i transmits the pixels having the gradation value (transparency) of "0" set in the face map to the original image I for each pixel of the entire skin-beautifying processed image, and the gradation. Pixels with a value of "255" overwrite the pixels of the original image I with the pixel values of the corresponding pixels of the overall skin-beautifying image, and pixels with a gradation value of "1-254" correspond to the transmission rate. The pixel value of the pixel of the entire skin-beautifying image and the pixel value of the corresponding pixel of the original image I are blended (alpha blending).
Since the above-mentioned alpha blending is a known technique, detailed description thereof will be omitted here.

記憶媒体制御部7は、記憶媒体Mが着脱自在に構成され、装着された記憶媒体Mからのデータの読み出しや記憶媒体Mに対するデータの書き込みを制御する。
なお、記憶媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The storage medium control unit 7 is configured so that the storage medium M can be attached and detached, and controls reading of data from the attached storage medium M and writing of data to the storage medium M.
The storage medium M is composed of, for example, a non-volatile memory (flash memory) or the like, but the storage medium M is not limited to this as an example, and can be arbitrarily changed as appropriate.

表示部8は、表示パネル8aと、表示制御部8bとを具備している。
表示パネル8aは、表示画面内に画像を表示する。なお、表示パネル8aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The display unit 8 includes a display panel 8a and a display control unit 8b.
The display panel 8a displays an image in the display screen. Examples of the display panel 8a include, but are not limited to, a liquid crystal display panel and an organic EL display panel.

表示制御部8bは、メモリ2に一時的に格納されている表示用の画像データを読み出して、画像処理部6により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル8aの表示画面に表示させる制御を行う。具体的には、表示制御部8bは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなど(何れも図示略)を備えている。そして、デジタルビデオエンコーダは、画像処理部6により復号されてVRAMに記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示パネル8aに出力する。 The display control unit 8b reads out the image data for display temporarily stored in the memory 2, and displays a predetermined image on the display panel 8a based on the image data of a predetermined size decoded by the image processing unit 6. Controls the display on the display screen. Specifically, the display control unit 8b includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like (all of which are not shown). Then, the digital video encoder transmits the luminance signal Y and the color difference signals Cb and Cr decoded by the image processing unit 6 and stored in the VRAM from the VRAM via the VRAM controller at a predetermined reproduction frame rate (for example, 30 fps). It is read out, a video signal is generated based on these data, and the video signal is output to the display panel 8a.

操作入力部9は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部9は、被写体の撮像指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等(何れも図示略)の操作部を備え、当該操作部の各ボタンの操作に応じて所定の操作信号を中央制御部1に出力する。 The operation input unit 9 is for performing a predetermined operation of the image pickup apparatus 100. Specifically, the operation input unit 9 includes a shutter button for an imaging instruction of a subject, a selection determination button for a selection instruction such as an imaging mode and a function, a zoom button for an adjustment instruction of a zoom amount, and the like (all not shown). The operation unit is provided, and a predetermined operation signal is output to the central control unit 1 in response to the operation of each button of the operation unit.

<画像生成処理>
次に、撮像装置100による画像生成処理について、図4〜図6を参照して説明する。
図4は、画像生成処理に係る動作の一例を示すフローチャートである。
<Image generation processing>
Next, the image generation process by the image pickup apparatus 100 will be described with reference to FIGS. 4 to 6.
FIG. 4 is a flowchart showing an example of an operation related to the image generation process.

図4に示すように、先ず、例えば、ユーザによる操作入力部9のシャッタボタンの所定操作に基づいて撮像指示が入力されると、中央制御部1のCPUは、撮像制御指令を撮像制御部4に対して出力し、撮像制御部4は、撮像部3を制御して被写体の画像を撮像させる。そして、画像処理部6の画像取得部6aは、撮像部3により撮像された元画像Iの所定のカラーフィルタの配列(例えば、ベイヤー配列)に従った画像データ(RGBデータ)を取得する(ステップS1)。また、画像取得部6aは、元画像IのRGBデータの複製を生成し、例えば、ホワイトバランス調整処理やカラープロセス処理等を行って、元画像IのYUVデータを生成する。
なお、画像生成処理は、例えば、記憶媒体Mに記憶されている画像を処理対象としても良い。
As shown in FIG. 4, first, for example, when an image pickup instruction is input based on a predetermined operation of the shutter button of the operation input unit 9 by the user, the CPU of the central control unit 1 issues an image pickup control command to the image pickup control unit 4. The image pickup control unit 4 controls the image pickup unit 3 to capture an image of the subject. Then, the image acquisition unit 6a of the image processing unit 6 acquires image data (RGB data) according to a predetermined color filter array (for example, Bayer array) of the original image I captured by the image pickup unit 3 (step). S1). Further, the image acquisition unit 6a generates a duplicate of the RGB data of the original image I, and performs, for example, a white balance adjustment process, a color process process, or the like to generate YUV data of the original image I.
In the image generation processing, for example, the image stored in the storage medium M may be processed.

次に、顔検出部6bは、画像取得部6aにより取得された元画像Iの画像データに対して所定の顔検出処理を行い(ステップS2)、元画像I内からヒトの顔が含まれる顔領域Fが検出されたか否かを判定する(ステップS3)。
また、ステップS2にて、顔検出部6bは、例えば、AAMを用いた処理により、顔領域F内で目、鼻、口、眉、顔輪郭等の主要な顔器官の位置を検出する処理も行う。
Next, the face detection unit 6b performs a predetermined face detection process on the image data of the original image I acquired by the image acquisition unit 6a (step S2), and the face including the human face from within the original image I. It is determined whether or not the region F is detected (step S3).
Further, in step S2, the face detection unit 6b also performs a process of detecting the positions of major facial organs such as eyes, nose, mouth, eyebrows, and facial contours in the face area F by, for example, a process using AAM. Do.

ステップS3にて、顔領域Fが検出されたと判定されると(ステップS3;YES)、画像処理部6は、処理内容テーブルTに規定されている複数の美肌モードの中で、ユーザによる操作入力部9の所定操作に基づいて、或いは、デフォルトとして自動的に指定されている何れか一の美肌モードを特定する(ステップS4)。
ここで、美肌モードの指定自体は、被写体の撮像前に行われても良いし、被写体の撮像後に所定のタイミング(例えば、顔領域Fの検出後等)で行われても良い。
そして、画像処理部6は、処理内容テーブルTを参照して、特定された美肌モードに対応する「肌状態計測手法」、「美肌化手法」及び「処理強度情報」の各々を特定する(ステップS5)。
When it is determined in step S3 that the face area F has been detected (step S3; YES), the image processing unit 6 inputs an operation by the user in the plurality of skin-beautifying modes defined in the processing content table T. Based on the predetermined operation of Part 9, or any one of the skin-beautifying modes automatically designated as the default is specified (step S4).
Here, the skin-beautifying mode itself may be specified before the image of the subject, or may be specified at a predetermined timing (for example, after the detection of the face region F) after the image of the subject.
Then, the image processing unit 6 refers to the processing content table T and specifies each of the “skin condition measurement method”, the “skin beautification method”, and the “processing intensity information” corresponding to the specified skin-beautifying mode (step). S5).

次に、計測領域設定部6cは、処理内容テーブルTにおける特定された美肌モードに対応する「肌状態計測手法」の欄の「肌状態計測エリア」を参照し、顔検出部6bにより検出されたヒトの顔領域Fにて肌状態の計測領域A1を設定する(ステップS6)。続けて、肌状態計測部6dは、計測領域設定部6cにより設定された元画像Iの顔領域F内の肌状態の計測領域A1について、処理内容テーブルTにおける特定された美肌モードに対応する「肌状態計測手法」で肌状態を計測して、肌状態指数を算出する(ステップS7)。例えば、肌状態計測部6dは、特定された美肌モードに対応する「肌状態計測手法」の欄の「対象周波数」を参照し、処理したい対象(例えば、しわ、しみ、そばかす、ほくろ、目のクマ等)に対応する二次元フーリエ変換画像の周波数を特定し、特定された周波数のノイズについては重み値を相対的に大きくした重み付けで、肌状態指数を算出する。 Next, the measurement area setting unit 6c was detected by the face detection unit 6b with reference to the "skin condition measurement area" in the column of the "skin condition measurement method" corresponding to the specified skin-beautifying mode in the processing content table T. The skin condition measurement region A1 is set in the human face region F (step S6). Subsequently, the skin condition measurement unit 6d corresponds to the specified skin-beautifying mode in the processing content table T for the skin condition measurement area A1 in the face area F of the original image I set by the measurement area setting unit 6c. The skin condition is measured by the "skin condition measurement method" and the skin condition index is calculated (step S7). For example, the skin condition measurement unit 6d refers to the "target frequency" in the "skin condition measurement method" column corresponding to the specified skin-beautifying mode, and refers to the target to be processed (for example, wrinkles, stains, freckles, moles, eyes). The frequency of the two-dimensional Fourier transformed image corresponding to the bear, etc.) is specified, and the skin condition index is calculated by weighting the noise of the specified frequency with a relatively large weight value.

次に、全体処理強度制御部6eは、肌状態計測部6dにより算出された肌状態指数に応じて、美肌処理部6fによる画像処理の全体処理強度(例えば、フィルタ係数等)を決定する(ステップS8)。例えば、全体処理強度制御部6eは、処理内容テーブルTにおける特定された美肌モードに対応する「処理強度情報」の欄の「処理強度変換データ」(例えば、「処理強度変換データ:1」等)を参照し、肌状態計測部6dにより算出された肌状態指数に応じて、ヒトの顔領域F全体に対応する美肌処理部6fによる画像処理の全体処理強度を決定する。
その後、画像処理部6は、ヒトの顔領域Fに対して美肌化処理(図5参照)を施す(ステップS9)。
Next, the overall processing intensity control unit 6e determines the overall processing intensity (for example, filter coefficient) of the image processing by the skin beautifying unit 6f according to the skin condition index calculated by the skin condition measuring unit 6d (step). S8). For example, the overall processing intensity control unit 6e may perform "processing intensity conversion data" (for example, "processing intensity conversion data: 1" or the like) in the "processing intensity information" column corresponding to the specified skin-beautifying mode in the processing content table T. The total processing intensity of the image processing by the skin-beautifying unit 6f corresponding to the entire human face region F is determined according to the skin condition index calculated by the skin condition measuring unit 6d.
After that, the image processing unit 6 performs a skin-beautifying treatment (see FIG. 5) on the human face region F (step S9).

一方、ステップS3にて、顔領域Fが検出されていないと判定されると(ステップS3;NO)、記憶媒体制御部7は、画像処理部6から元画像Iの画像データを取得して、記憶媒体Mの所定の格納領域に記憶させて(ステップS10)、画像生成処理を終了する。 On the other hand, if it is determined in step S3 that the face region F has not been detected (step S3; NO), the storage medium control unit 7 acquires the image data of the original image I from the image processing unit 6 and obtains the image data of the original image I. The image is stored in a predetermined storage area of the storage medium M (step S10), and the image generation process is completed.

<美肌化処理>
以下に、美肌化処理について、図5を参照して説明する。図5は、美肌化処理に係る動作の一例を示すフローチャートである。
<Beautiful skin treatment>
The skin-beautifying treatment will be described below with reference to FIG. FIG. 5 is a flowchart showing an example of the operation related to the skin beautification process.

図5に示すように、先ず、美肌処理部6fは、特定された美肌モードに対応する「美肌化処理」により、全体処理強度制御部6eにより決定された全体処理強度(例えば、フィルタ係数等)で元画像Iの顔領域Fの美肌化処理を行って、全体美肌処理画像を生成する(ステップS11)。例えば、美肌処理部6fは、処理内容テーブルTにおける特定された美肌モードに対応する「美肌化手法」の欄の「フィルタサイズ」を参照して、処理したい対象(例えば、しわ、しみ、そばかす、ほくろ、目のクマ等)に対応する画像処理フィルタ(例えば、平滑化フィルタ等)の大きさを特定し、特定された大きさの画像処理フィルタを用いて、全体処理強度制御部6eにより決定された全体処理強度(例えば、フィルタ係数等)で元画像Iの顔領域Fに対してフィルタ処理(例えば、平滑化処理等)を施す。これにより、美肌処理部6fは、顔領域F全体のノイズを除去して、全体美肌処理画像のYUVデータを生成する。 As shown in FIG. 5, first, the skin-beautifying unit 6f has an overall processing intensity (for example, a filter coefficient or the like) determined by the overall processing intensity control unit 6e by the "skin-beautifying process" corresponding to the specified skin-beautifying mode. The skin-beautifying process of the face region F of the original image I is performed in step 2 to generate an overall skin-beautifying image (step S11). For example, the skin-beautifying unit 6f refers to the "filter size" in the "skin-beautifying method" column corresponding to the specified skin-beautifying mode in the processing content table T, and refers to the target to be processed (for example, wrinkles, stains, freckles, etc.). The size of the image processing filter (for example, smoothing filter, etc.) corresponding to freckles, eye bears, etc. is specified, and the overall processing intensity control unit 6e determines the size of the image processing filter of the specified size. The face region F of the original image I is filtered (for example, smoothing) based on the overall processing intensity (for example, filter coefficient). As a result, the skin-beautifying unit 6f removes the noise of the entire face region F and generates YUV data of the entire skin-beautifying processing image.

次に、中央制御部1のCPUは、特定された美肌モードがデフォルトとして規定されている「美肌モード(デフォルト)」であるか否かを判定する(ステップS12)。ここで、「美肌モード(デフォルト)」は、顔領域Fの画素毎に処理強度を変化させない美肌モードであり、それ以外の美肌モード(例えば、「化粧優先美肌モード」等)は、顔領域Fの画素毎に処理強度を変化させる美肌モードである。 Next, the CPU of the central control unit 1 determines whether or not the specified skin-beautifying mode is the "skin-beautifying mode (default)" defined as the default (step S12). Here, the "skin-beautifying mode (default)" is a skin-beautifying mode in which the processing intensity is not changed for each pixel of the face area F, and the other skin-beautifying modes (for example, "makeup-priority skin-beautifying mode") are the face area F. This is a skin-beautifying mode in which the processing intensity is changed for each pixel.

ステップS12にて、「美肌モード(デフォルト)」でないと判定されると(ステップS12;NO)、計測領域設定部6cは、処理内容テーブルTにおける特定された美肌モードに対応する「肌色計測手法」の欄の「肌色計測エリア」を参照し、顔検出部6bにより検出されたヒトの顔領域Fにて肌色の計測領域A2を設定する(ステップS13)。続けて、肌色特定部6gは、計測領域設定部6cにより設定された元画像Iのヒトの顔領域Fにおける肌色の計測領域A2内の各画素の基本色(肌の基本色)を特定する(ステップS14)。次に、部分処理強度制御部6hは、元画像Iのヒトの顔領域Fの各画素について、肌色特定部6gにより特定された肌の基本色を基準とする所定の色範囲を階調表現した顔マップを生成する(ステップS15)。 If it is determined in step S12 that it is not the "skin-beautifying mode (default)" (step S12; NO), the measurement area setting unit 6c is "skin-colored measuring method" corresponding to the specified skin-beautifying mode in the processing content table T. The skin color measurement area A2 is set in the human face area F detected by the face detection unit 6b with reference to the “skin color measurement area” in the column (step S13). Subsequently, the skin color specifying unit 6g specifies the basic color (skin basic color) of each pixel in the skin color measuring area A2 in the human face area F of the original image I set by the measuring area setting unit 6c (skin color specifying unit 6g). Step S14). Next, the partial processing intensity control unit 6h gradationally expresses a predetermined color range based on the basic skin color specified by the skin color specifying unit 6g for each pixel of the human face region F of the original image I. Generate a face map (step S15).

そして、合成画像生成部6iは、美肌処理部6fにより生成された全体美肌処理画像と画像取得部6aにより取得された元画像Iとを、部分処理強度制御部6hにより生成された顔マップを用いて合成して、合成美肌処理画像を生成する(ステップS16)。具体的には、合成画像生成部6iは、顔マップに設定されている階調値(透過率)に基づいて、全体美肌処理画像と元画像Iとをアルファブレンディングにより合成して、合成美肌処理画像の画像データを生成する。
その後、記憶媒体制御部7は、画像処理部6から合成美肌処理画像の画像データを取得して、記憶媒体Mの所定の格納領域に記憶させて(ステップS17)、画像生成処理を終了する。
Then, the composite image generation unit 6i uses the face map generated by the partial processing intensity control unit 6h for the entire skin-beautifying image generated by the skin-beautifying unit 6f and the original image I acquired by the image acquisition unit 6a. To generate a synthetic skin-beautifying processed image (step S16). Specifically, the composite image generation unit 6i synthesizes the entire skin-beautifying image and the original image I by alpha blending based on the gradation value (transmittance) set in the face map, and synthesizes skin-beautifying processing. Generate image data of an image.
After that, the storage medium control unit 7 acquires the image data of the synthetic skin-beautifying image from the image processing unit 6 and stores it in a predetermined storage area of the storage medium M (step S17), and ends the image generation process.

一方、ステップS3にて、「美肌モード(デフォルト)」であると判定されると(ステップS12;YES)、記憶媒体制御部7は、画像処理部6から全体美肌処理画像の画像データを取得して、記憶媒体Mの所定の格納領域に記憶させて(ステップS18)、画像生成処理を終了する。 On the other hand, if it is determined in step S3 that the "skin-beautifying mode (default)" is set (step S12; YES), the storage medium control unit 7 acquires the image data of the entire skin-beautifying image from the image processing unit 6. Then, the image is stored in a predetermined storage area of the storage medium M (step S18), and the image generation process is completed.

なお、上記した画像生成処理では、特定された美肌モードに応じて処理を分岐させるようにしたが(ステップS12;図5参照)、一例であってこれに限られるものではなく、例えば、ユーザの所望する美肌モード(例えば、「化粧優先美肌モード」等)をデフォルトとして設定可能とし、被写体の撮像が行われると、デフォルトとして設定されている美肌モードで自動的に合成美肌処理画像を生成するようにしても良い。
また、合成美肌処理画像を生成する美肌モードでは、生成された合成美肌処理画像と対応付けて全体美肌処理画像も記憶するようにし、ユーザがこれらの画像どうしの比較を行うことができるようにしても良い。
In the image generation process described above, the process is branched according to the specified skin-beautifying mode (step S12; see FIG. 5), but this is only an example and is not limited to this. The desired skin-beautifying mode (for example, "makeup-priority skin-beautifying mode") can be set as the default, and when the subject is imaged, the composite skin-beautifying image is automatically generated in the skin-beautifying mode set as the default. You can do it.
In addition, in the skin-beautifying mode for generating a composite skin-beautifying image, the entire skin-beautifying image is also stored in association with the generated composite skin-beautifying image so that the user can compare these images. Is also good.

以上のように、本実施形態の撮像装置100によれば、ヒトの顔領域Fの肌状態に応じて、美肌化手法に対応する画像処理のパラメータ値を制御し、ヒトの顔領域F内で顔器官の位置を基準とする特定部分に、肌状態の計測手法や美肌化手法に基づいて決められた肌状態の計測領域A1を設定するので、例えば、化粧や体調などの影響により肌状態が変化しても肌状態の計測手法や美肌化手法を考慮して肌本来の肌状態の計測を適正に行うことができ、これにより、化粧や体調などの影響により変化する肌状態を考慮して顔の美肌化処理を適正に行うことができる。 As described above, according to the image pickup apparatus 100 of the present embodiment, the parameter value of the image processing corresponding to the skin beautification method is controlled according to the skin condition of the human face region F, and within the human face region F. Since the skin condition measurement area A1 determined based on the skin condition measurement method and the skin beautification method is set in a specific part based on the position of the facial organ, for example, the skin condition is affected by the influence of makeup and physical condition. Even if it changes, it is possible to properly measure the original skin condition by considering the skin condition measurement method and skin beautification method, and by doing so, the skin condition that changes due to the influence of makeup and physical condition can be taken into consideration. It is possible to properly perform the skin-beautifying treatment of the face.

また、「肌状態計測手法」と、「美肌化手法」と、肌状態に応じた美肌化手法に対応する画像処理のパラメータ値の変換情報「処理強度情報」とを対応付けて処理内容テーブルTとして記憶しておくことで、この処理内容テーブルTを参照するだけで、例えば、化粧や体調などの影響により変化する肌状態を考慮して顔の美肌化処理を適正に行うことができる。特に、複数の美肌モードの各々に対応させて記憶しておくことで、何れか一の美肌モードを指定するだけで、当該何れか一の美肌モードと対応付けられている「肌状態計測手法」、「美肌化手法」及び「処理強度情報」に従って顔の美肌化処理を適正に行うことができる。
具体的には、「肌状態計測手法」と「美肌化手法」との組み合わせに応じて、「処理強度情報」の内容が異なるので、これら「肌状態計測手法」と「美肌化手法」との組み合わせ毎に、例えば、化粧や体調などの影響により変化する肌状態に応じて、美肌化手法に対応する画像処理の全体処理強度(全体パラメータ値)を適正に変換することができる。
In addition, the processing content table T is associated with the "skin condition measurement method", the "skin beautification method", and the conversion information "processing intensity information" of the parameter values of the image processing corresponding to the skin beautification method according to the skin condition. By simply referring to the processing content table T, for example, it is possible to appropriately perform the skin-beautifying treatment of the face in consideration of the skin condition that changes due to the influence of makeup, physical condition, and the like. In particular, the "skin condition measurement method" associated with any one of the skin-beautifying modes by simply specifying one of the skin-beautifying modes by memorizing each of the plurality of skin-beautifying modes. , "Skin beautification method" and "Treatment intensity information" can be used to properly perform facial skin beautification treatment.
Specifically, since the content of the "processing intensity information" differs depending on the combination of the "skin condition measurement method" and the "skin beautification method", the "skin condition measurement method" and the "skin beautification method" are used. For each combination, for example, the overall processing intensity (overall parameter value) of the image processing corresponding to the skin beautification method can be appropriately converted according to the skin condition that changes due to the influence of makeup, physical condition, and the like.

また、肌状態の計測方法が異なる複数の計測手法及び美肌化に係る画像処理が異なる複数の美肌化手法のうちの予め決められた計測手法及び美肌化手法に対応した顔領域F内の領域を、肌状態の計測領域A1として設定するので、肌状態の計測手法及び美肌化手法と肌状態の計測領域A1として設定される顔領域F内の領域とを対応付けておくことで、肌状態の計測領域A1の設定を適正に行うことができる。
また、肌状態の計測手法や美肌化手法に基づいて、ヒトの顔領域F内で肌状態の計測領域A1を変化させるので、例えば、化粧や体調などの影響により肌状態が変化しても肌状態の計測手法や美肌化手法を考慮して肌本来の肌状態の計測を適正に行うことができる。
さらに、「肌状態計測手法」と「美肌化手法」との組み合わせに応じて、ヒトの顔領域F内で設定可能な計測候補領域の中から肌状態の計測領域A1を設定することで、例えば、化粧や体調などの影響により肌状態が変化する場合にも肌状態の計測領域A1の設定を適正に行うことができ、結果として、肌本来の肌状態の計測を適正に行うことができる。
In addition, among a plurality of measurement methods having different skin condition measurement methods and a plurality of skin beautification methods having different image processing related to skin beautification, a predetermined measurement method and an area in the face area F corresponding to the skin beautification method are defined. , Since it is set as the skin condition measurement area A1, by associating the skin condition measurement method and the skin beautification method with the area in the face area F set as the skin condition measurement area A1, the skin condition The measurement area A1 can be set appropriately.
Further, since the skin condition measurement area A1 is changed in the human face area F based on the skin condition measurement method and the skin beautification method, for example, even if the skin condition changes due to the influence of makeup or physical condition, the skin It is possible to properly measure the original skin condition of the skin in consideration of the condition measurement method and the skin beautification method.
Further, by setting the skin condition measurement area A1 from the measurement candidate areas that can be set in the human face area F according to the combination of the "skin condition measurement method" and the "skin beautification method", for example. Even when the skin condition changes due to the influence of makeup, physical condition, etc., the skin condition measurement area A1 can be appropriately set, and as a result, the original skin condition of the skin can be appropriately measured.

また、計測された肌状態に応じて、ヒトの顔領域Fの全体に対応する美肌処理部6fによる画像処理の全体処理強度(全体パラメータ値)を決定することで、例えば、美肌化処理を施しても化粧や体調の影響が相対的に小さく許容可能であると考えられる場合等には、顔領域Fの一部分(例えば、画素毎等)で処理強度を変化させる必要がなくなり、当該美肌化処理にかかる負荷を相対的に軽減させることができる。
また、ヒトの顔領域Fに対応する肌の色を特定し、特定された肌の色に応じて、ヒトの顔領域Fの所定部分毎に美肌処理部6fによる画像処理の部分処理強度(部分パラメータ値)を決定することで、例えば、顔領域Fの所定部分毎に化粧や体調などの影響により変化する肌状態を考慮して顔の美肌化処理を適正に行うことができる。特に、肌状態の計測手法や美肌化手法に基づいて、ヒトの顔領域F内で顔器官の位置を基準とする特定部分に肌色の計測領域A2を設定して、設定された肌色の計測領域A2内の肌の色を特定することで、例えば、化粧や体調などの影響により肌の色が変化する場合にも肌色の計測領域A2の設定を適正に行うことができ、結果として、肌本来の色の計測を適正に行うことができる。
Further, by determining the overall processing intensity (overall parameter value) of the image processing by the skin-beautifying unit 6f corresponding to the entire human face region F according to the measured skin condition, for example, the skin-beautifying treatment is performed. However, when the influence of makeup and physical condition is considered to be relatively small and acceptable, it is not necessary to change the processing intensity in a part of the face area F (for example, for each pixel), and the skin beautifying treatment is performed. The load on the surface can be relatively reduced.
Further, the skin color corresponding to the human face area F is specified, and the partial processing intensity (part) of the image processing by the skin beautifying unit 6f for each predetermined part of the human face area F according to the specified skin color. By determining the parameter value), for example, the facial skin beautification treatment can be appropriately performed in consideration of the skin condition that changes due to the influence of makeup, physical condition, etc. for each predetermined portion of the face region F. In particular, based on the skin condition measurement method and the skin beautification method, the skin color measurement area A2 is set in a specific part based on the position of the facial organ in the human face area F, and the set skin color measurement area is set. By specifying the skin color in A2, for example, even when the skin color changes due to the influence of makeup or physical condition, the skin color measurement area A2 can be set appropriately, and as a result, the skin itself can be set. The color of the skin can be measured properly.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態では、肌状態の計測領域A1の設定に処理内容テーブルTを用いるようにしたが、一例であってこれに限られるものではなく、肌状態の計測手法や美肌化手法に基づいて肌状態の計測領域A1を設定可能な手法であれば必ずしも処理内容テーブルTを利用する必要はない。
The present invention is not limited to the above embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the processing content table T is used to set the skin condition measurement area A1, but the present invention is not limited to this, and is based on the skin condition measurement method and the skin beautification method. It is not always necessary to use the processing content table T as long as the method can set the measurement area A1 of the skin condition.

また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。例えば、外部の撮像手段により撮像された画像を取得して、画像生成処理を行うようにしても良い。 Further, the configuration of the image pickup apparatus 100 is merely an example of the configuration illustrated in the above embodiment, and is not limited thereto. For example, an image captured by an external imaging means may be acquired and an image generation process may be performed.

加えて、上記実施形態にあっては、検出手段、美肌処理手段、計測手段、制御手段、設定手段としての機能を、中央制御部1のCPUの制御下にて、顔検出部6b、美肌処理部6f、肌状態計測部6d、全体処理強度制御部6e、計測領域設定部6cが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、検出処理ルーチン、美肌処理ルーチン、計測処理ルーチン、制御処理ルーチン、設定処理ルーチンを含むプログラムを記憶しておく。そして、検出処理ルーチンにより中央制御部1のCPUを、画像(元画像I)内よりヒトの顔領域F及び顔器官の位置を検出する手段として機能させるようにしても良い。また、美肌処理ルーチンにより中央制御部1のCPUを、検出されたヒトの顔領域Fに対して所定の美肌化手法に対応する画像処理を施す手段として機能させるようにしても良い。また、計測処理ルーチンにより中央制御部1のCPUを、検出されたヒトの顔領域Fの肌状態を所定の計測手法により計測する手段として機能させるようにしても良い。また、制御処理ルーチンにより中央制御部1のCPUを、計測された肌状態に応じて、所定の美肌化手法に対応する画像処理のパラメータ値を制御する手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部1のCPUを、検出されたヒトの顔領域F内で顔器官の位置を基準とする特定部分に、肌状態の計測手法及び美肌化手法のうち、少なくとも一方に基づいて決められた肌状態の計測領域A1を設定する手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the detection means, the skin-beautifying means, the measuring means, the control means, and the setting means are performed by the face detection unit 6b and the skin-beautifying treatment under the control of the CPU of the central control unit 1. The configuration is realized by driving the unit 6f, the skin condition measurement unit 6d, the overall processing strength control unit 6e, and the measurement area setting unit 6c, but the configuration is not limited to this, and a predetermined program is provided by the central control unit 1. The configuration may be realized by executing the above.
That is, a program including a detection processing routine, a skin-beautifying processing routine, a measurement processing routine, a control processing routine, and a setting processing routine is stored in a program memory (not shown) for storing the program. Then, the CPU of the central control unit 1 may be made to function as a means for detecting the positions of the human face region F and the facial organs from the image (original image I) by the detection processing routine. Further, the CPU of the central control unit 1 may be made to function as a means for performing image processing corresponding to a predetermined skin-beautifying method on the detected human face region F by the skin-beautifying routine. Further, the CPU of the central control unit 1 may be made to function as a means for measuring the detected skin condition of the human face region F by a predetermined measurement method by the measurement processing routine. Further, the CPU of the central control unit 1 may be made to function as a means for controlling the parameter value of the image processing corresponding to the predetermined skin beautification method according to the measured skin condition by the control processing routine. In addition, at least one of the skin condition measurement method and the skin beautification method is applied to the CPU of the central control unit 1 by the setting processing routine in a specific part based on the position of the facial organ in the detected human face area F. It may be made to function as a means for setting the measurement area A1 of the skin condition determined based on.

同様に、特定手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。 Similarly, the specific means may be configured to be realized by executing a predetermined program or the like by the CPU of the central control unit 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記憶媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Further, as a computer-readable medium containing a program for executing each of the above processes, a non-volatile memory such as a flash memory and a portable storage medium such as a CD-ROM are applied in addition to a ROM and a hard disk. Is also possible. A carrier wave is also applied as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
画像内よりヒトの顔領域及び顔器官の位置を検出する検出手段と、
前記検出手段により検出されたヒトの顔領域に対して所定の美肌化手法に対応する画像処理を施す美肌処理手段と、
前記検出手段により検出されたヒトの顔領域の肌状態を所定の計測手法により計測する計測手段と、
前記計測手段により計測された肌状態に応じて、前記美肌処理手段による画像処理のパラメータ値を制御する制御手段と、
前記検出手段により検出されたヒトの顔領域内で顔器官の位置を基準とする特定部分に、前記計測手段による肌状態の計測領域を設定する設定手段と、
を備え、
前記計測領域は、前記計測手段による肌状態の計測手法及び前記美肌処理手段による美肌化手法のうち、少なくとも一方に基づいて決められたものである
ことを特徴とする画像処理装置。
<請求項2>
前記計測手段による肌状態の計測手法と、前記美肌処理手段による美肌化手法と、前記制御手段による前記肌状態に応じた前記パラメータ値の変換情報とを対応付けて記憶する記憶手段を更に備えることを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記制御手段による前記肌状態に応じた前記パラメータ値の変換情報は、前記計測手段による肌状態の計測手法と前記美肌処理手段による美肌化手法との組み合わせに応じて異ならせてなることを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記記憶手段は、前記計測手段による肌状態の計測手法と前記美肌処理手段による美肌化手法との複数の組み合わせの各々に対応させて、前記制御手段による前記肌状態に応じた前記パラメータ値の変換情報を複数記憶することを特徴とする請求項2又は3に記載の画像処理装置。
<請求項5>
前記記憶手段は、複数の美肌モードの各々に対応させて、前記計測手段による肌状態の計測手法と、前記美肌処理手段による美肌化手法と、前記制御手段による前記肌状態に応じた前記パラメータ値の変換情報とを対応付けて複数記憶することを特徴とする請求項2〜4の何れか一項に記載の画像処理装置。
<請求項6>
前記設定手段は、前記計測手段による肌状態の計測方法が異なる複数の計測手法及び前記美肌処理手段による美肌化に係る画像処理が異なる複数の美肌化手法のうちの予め決められた計測手法及び美肌化手法に対応した顔領域内の領域を、前記計測手段による肌状態の計測領域として設定することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記設定手段は、前記計測手段による肌状態の計測手法及び前記美肌処理手段による美肌化手法のうち、少なくとも一方に基づいて、前記検出手段により検出されたヒトの顔領域内で前記計測手段による肌状態の計測領域を変化させて設定することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項8>
前記設定手段は、前記計測手段による肌状態の計測手法と前記美肌処理手段による美肌化手法との複数の組み合わせの各々と対応付けられ、前記検出手段により検出されたヒトの顔領域内で設定可能な計測候補領域の中から、前記計測手段による肌状態の計測領域を設定することを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記制御手段は、前記計測手段により計測された肌状態に応じて、前記検出手段により検出されたヒトの顔領域の全体に対応する前記美肌処理手段による画像処理の全体パラメータ値を決定することを特徴とする請求項1〜8の何れか一項に記載の画像処理装置。
<請求項10>
前記検出手段により検出されたヒトの顔領域に対応する肌の色を特定する特定手段を更に備え、
前記制御手段は、前記特定手段により特定された肌の色に応じて、前記検出手段により検出されたヒトの顔領域の所定部分毎に前記美肌処理手段による画像処理における部分パラメータ値を決定することを特徴とする請求項1〜9の何れか一項に記載の画像処理装置。
<請求項11>
前記設定手段は、更に、
前記計測手段による肌状態の計測手法及び前記美肌処理手段による美肌化手法のうち、少なくとも一方に基づいて、前記検出手段により検出されたヒトの顔領域内で顔器官の位置を基準とする特定部分に、肌色の計測領域を設定し、
前記特定手段は、前記検出手段により検出されたヒトの顔領域における前記設定手段により設定された肌色の計測領域内の肌の色を特定することを特徴とする請求項10に記載の画像処理装置。
<請求項12>
画像処理装置を用いた画像処理方法であって、
画像内よりヒトの顔領域及び顔器官の位置を検出するステップと、
検出されたヒトの顔領域に対して所定の美肌化手法に対応する画像処理を施すステップと、
検出されたヒトの顔領域の肌状態を所定の計測手法により計測するステップと、
計測された肌状態に応じて、所定の美肌化手法に対応する画像処理のパラメータ値を制御するステップと、
検出されたヒトの顔領域内で顔器官の位置を基準とする特定部分に、肌状態の計測領域を設定するステップと、
を含み、
前記計測領域は、肌状態の計測手法及び美肌化手法のうち、少なくとも一方に基づいて決められたものである
ことを特徴とする画像処理方法。
<請求項13>
画像処理装置のコンピュータを、
画像内よりヒトの顔領域及び顔器官の位置を検出する検出手段、
前記検出手段により検出されたヒトの顔領域に対して所定の美肌化手法に対応する画像処理を施す美肌処理手段、
前記検出手段により検出されたヒトの顔領域の肌状態を所定の計測手法により計測する計測手段、
前記計測手段により計測された肌状態に応じて、前記美肌処理手段による画像処理のパラメータ値を制御する制御手段、
前記検出手段により検出されたヒトの顔領域内で顔器官の位置を基準とする特定部分に、前記計測手段による肌状態の計測領域を設定する設定手段、
として機能させ、
前記計測領域は、前記計測手段による肌状態の計測手法及び前記美肌処理手段による美肌化手法のうち、少なくとも一方に基づいて決められたものである
ことを特徴とするプログラム。
Although some embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and the equivalent scope thereof.
The inventions described in the claims originally attached to the application of this application are added below. The claims in the appendix are as specified in the claims originally attached to the application for this application.
[Additional Notes]
<Claim 1>
A detection means for detecting the position of a human facial region and facial organs from within an image,
A skin-beautifying means that performs image processing corresponding to a predetermined skin-beautifying method on a human face region detected by the detection means, and a skin-beautifying means.
A measuring means for measuring the skin condition of the human face region detected by the detecting means by a predetermined measuring method, and a measuring means.
A control means for controlling the parameter value of image processing by the skin-beautifying processing means according to the skin condition measured by the measuring means, and a control means.
A setting means for setting a skin condition measurement area by the measurement means in a specific portion based on the position of a facial organ in the human face area detected by the detection means, and a setting means.
With
The image processing apparatus is characterized in that the measurement area is determined based on at least one of a skin condition measuring method by the measuring means and a skin beautifying method by the skin beautifying means.
<Claim 2>
Further provided is a storage means for storing the skin condition measurement method by the measuring means, the skin beautifying method by the skin beautifying means, and the conversion information of the parameter value according to the skin condition by the control means in association with each other. The image processing apparatus according to claim 1.
<Claim 3>
The conversion information of the parameter value according to the skin condition by the control means is characterized by being different depending on the combination of the skin condition measurement method by the measurement means and the skin beautification method by the skin beautification treatment means. The image processing apparatus according to claim 2.
<Claim 4>
The storage means converts the parameter values according to the skin condition by the control means in correspondence with each of a plurality of combinations of the skin condition measurement method by the measurement means and the skin beautification method by the skin beautification treatment means. The image processing apparatus according to claim 2 or 3, wherein a plurality of pieces of information are stored.
<Claim 5>
The storage means corresponds to each of a plurality of skin-beautifying modes, and has a skin condition measuring method by the measuring means, a skin-beautifying method by the skin-beautifying treatment means, and a parameter value according to the skin condition by the control means. The image processing apparatus according to any one of claims 2 to 4, wherein a plurality of image processing devices are stored in association with the conversion information of the above.
<Claim 6>
The setting means is a predetermined measurement method and skin beautification method among a plurality of measurement methods having different skin condition measurement methods by the measurement means and a plurality of skin beautification methods having different image processing related to skin beautification by the skin beautification treatment means. The image processing apparatus according to any one of claims 1 to 5, wherein a region in the face region corresponding to the conversion method is set as a skin condition measurement region by the measuring means.
<Claim 7>
The setting means is based on at least one of the skin condition measuring method by the measuring means and the skin beautifying method by the skin beautifying means, and the skin by the measuring means in the human face region detected by the detecting means. The image processing apparatus according to any one of claims 1 to 5, wherein the measurement area of the state is changed and set.
<Claim 8>
The setting means is associated with each of a plurality of combinations of the skin condition measuring method by the measuring means and the skin beautifying method by the skin beautifying means, and can be set within the human face region detected by the detecting means. The image processing apparatus according to any one of claims 1 to 7, wherein a measurement area for a skin condition by the measurement means is set from among the measurement candidate areas.
<Claim 9>
The control means determines an overall parameter value of image processing by the skin-beautifying means corresponding to the entire human face region detected by the detection means according to the skin condition measured by the measuring means. The image processing apparatus according to any one of claims 1 to 8.
<Claim 10>
Further provided with specific means for identifying the skin color corresponding to the human face region detected by the detection means.
The control means determines a partial parameter value in image processing by the skin-beautifying means for each predetermined portion of a human face region detected by the detection means according to the skin color specified by the specific means. The image processing apparatus according to any one of claims 1 to 9.
<Claim 11>
The setting means further
A specific portion based on the position of a facial organ in the human face region detected by the detection means based on at least one of the skin condition measurement method by the measurement means and the skin beautification method by the skin beautification treatment means. Set the skin color measurement area to
The image processing apparatus according to claim 10, wherein the specific means identifies a skin color in a skin color measurement region set by the setting means in a human face region detected by the detection means. ..
<Claim 12>
This is an image processing method using an image processing device.
Steps to detect the position of the human facial area and facial organs from within the image,
A step of performing image processing corresponding to a predetermined skin beautification method on the detected human face area, and
Steps to measure the detected skin condition of the human face area by a predetermined measurement method,
A step to control the parameter value of image processing corresponding to a predetermined skin beautification method according to the measured skin condition, and
A step of setting a measurement area for skin condition in a specific part based on the position of a facial organ in the detected human face area, and
Including
An image processing method characterized in that the measurement area is determined based on at least one of a skin condition measurement method and a skin beautification method.
<Claim 13>
The computer of the image processing device,
A detection means for detecting the position of a human facial region and facial organs in an image,
A skin-beautifying means for performing image processing corresponding to a predetermined skin-beautifying method on a human face region detected by the detection means.
A measuring means that measures the skin condition of the human face region detected by the detecting means by a predetermined measuring method.
A control means that controls a parameter value of image processing by the skin-beautifying processing means according to the skin condition measured by the measuring means.
A setting means for setting a skin condition measurement area by the measurement means in a specific portion based on the position of a facial organ in the human face area detected by the detection means.
To function as
The measurement area is a program determined based on at least one of a skin condition measuring method by the measuring means and a skin beautifying method by the skin beautifying means.

100 撮像装置
1 中央制御部
3 撮像部
5 テーブル記憶部
6 画像処理部
6a 画像取得部
6b 顔検出部
6c 計測領域設定部
6d 肌状態計測部
6e 全体処理強度制御部
6f 美肌処理部
6g 肌色特定部
6h 部分処理強度制御部
6i 合成画像生成部
T 処理内容テーブル
100 Imaging device 1 Central control unit 3 Imaging unit 5 Table storage unit 6 Image processing unit 6a Image acquisition unit 6b Face detection unit 6c Measurement area setting unit 6d Skin condition measurement unit 6e Overall processing intensity control unit 6f Skin-beautifying unit 6g Skin color identification unit 6h Partial processing intensity control unit 6i Composite image generation unit T Processing content table

Claims (9)

被写体としてヒトが含まれる画像内より前記ヒトの顔領域及び前記ヒトの顔領域内の顔器官の位置を検出する検出手段と、
前記検出手段により検出されたヒトの顔領域内の顔器官の位置を基準とした所定の範囲を肌計測領域として設定する設定手段と、
前記設定手段によって設定された肌計測領域に対して二次元フーリエ変換を行って得られたノイズの周波数毎のレベルから肌状態指数を算出する算出手段と、
前記算出手段により算出された肌状態指数を美肌化処理の処理強度に変換する変換手段と、
前記検出手段により検出されたヒトの顔領域に対して、前記変換手段によって変換された処理強度で平滑化フィルタ処理を施す美肌化処理手段と、
を備え、
前記美肌化処理における前記平滑化フィルタ処理のフィルタサイズは複数の美肌モードに応じて複数種用意されており、
前記設定手段は、前記顔領域内で設定可能に規定されている複数の計測候補領域の中から、前記複数の美肌モードの中から選択された美肌モードに対応する計測領域を設定することを特徴とする画像処理装置。
A detection means for detecting the position of the human face region and the facial organs in the human face region from an image including a human as a subject.
A setting means for setting a predetermined range as a skin measurement area based on the position of a facial organ in a human face area detected by the detection means, and a setting means.
A calculation means for calculating the skin condition index from the level of noise obtained by performing a two-dimensional Fourier transform on the skin measurement region set by the setting means for each frequency.
A conversion means for converting the skin condition index calculated by the calculation means into the processing intensity of the skin beautification treatment, and
A skin-beautifying treatment means that applies a smoothing filter treatment to a human face region detected by the detection means with a treatment intensity converted by the conversion means.
With
A plurality of types of filter sizes for the smoothing filter processing in the skin-beautifying treatment are prepared according to a plurality of skin-beautifying modes.
The setting means is characterized in that a measurement area corresponding to a skin-beautifying mode selected from the plurality of skin-beautifying modes is set from a plurality of measurement candidate areas that can be set in the face area. Image processing device.
前記複数の美肌モードの夫々と対応付けて、前記ヒトの顔領域における前記美肌化処理の対象に対応する二次元フーリエ変換画像の周波数と、前記平滑化フィルタ処理のフィルタサイズと、前記肌状態指数と前記美肌化処理の処理強度との対応関係を示す処理強度情報とを記憶する記憶手段を更に備えることを特徴とする請求項1に記載の画像処理装置。 The frequency of the two-dimensional Fourier transform image corresponding to the target of the skin beautification treatment in the human face region , the filter size of the smoothing filter processing, and the skin condition index in association with each of the plurality of skin beautification modes. The image processing apparatus according to claim 1, further comprising a storage means for storing processing intensity information indicating a correspondence relationship between the skin-beautifying treatment and the processing intensity of the skin-beautifying treatment. 前記処理強度情報は、前記二次元フーリエ変換画像の周波数と前記平滑化フィルタ処理のフィルタサイズとの組み合わせに応じて異なるように前記記憶手段に複数記憶されていることを特徴とする請求項2に記載の画像処理装置。 The second aspect of the present invention is characterized in that a plurality of the processing intensity information is stored in the storage means so as to be different depending on the combination of the frequency of the two-dimensional Fourier transform image and the filter size of the smoothing filter processing. The image processing apparatus described. 前記記憶手段は、複数の美肌モードの各々に対応させて、前記二次元フーリエ変換画像の周波数と、前記平滑化フィルタ処理のフィルタサイズと、前記肌状態指数と前記美肌化処理の処理強度との対応関係を示す処理強度情報とを対応付けて記憶することを特徴とする請求項2又は3に記載の画像処理装置。 The storage means corresponds to each of the plurality of skin-beautifying modes, and has the frequency of the two-dimensional Fourier transform image, the filter size of the smoothing filter processing, the skin condition index, and the processing intensity of the skin-beautifying treatment. The image processing apparatus according to claim 2 or 3, wherein the processing intensity information indicating the correspondence relationship is stored in association with each other. 前記処理強度とは、前記ヒトの顔領域の全体に対する前記美肌化処理の処理強度であることを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the processing intensity is the processing intensity of the skin-beautifying treatment for the entire human face region. 前記検出手段により検出された前記ヒトの顔領域における前記肌計測領域から、前記ヒトの顔領域の肌の基本色を特定する特定手段と、
前記美肌化処理手段は、前記特定手段により特定された肌の基本色に応じて、前記ヒトの顔領域の所定部分毎に処理強度を変化させるように決定する部分処理強度決定手段と、
を更に備えることを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
From definitive the skin measurement area of the detected face area of the person it was by the detection means, specifying means for specifying the basic color of the skin of the human face area,
The skin-beautifying treatment means includes a partial treatment intensity determining means that determines to change the treatment intensity for each predetermined portion of the human face region according to the basic color of the skin specified by the specific means.
The image processing apparatus according to any one of claims 1 to 5, further comprising.
前記特定手段は、前記設定手段によって設定された前記顔器官の位置を基準とした所定の範囲肌計測領域内の肌の基本色を特定することを特徴とする請求項6に記載の画像処理装置。 The specifying means, image processing according to claim 6, characterized in that to identify the basic color of the skin skin measurement region of a predetermined range based on the location of the face part set by the setting means apparatus. 画像処理装置を用いた画像処理方法であって、
被写体としてヒトが含まれる画像内より前記ヒトの顔領域及び前記ヒトの顔領域内の顔器官の位置を検出する検出ステップと、
前記検出ステップにて検出されたヒトの顔領域内の顔器官の位置を基準とした所定の範囲を肌計測領域として設定する設定ステップと、
前記設定ステップにて設定された肌計測領域に対して二次元フーリエ変換を行って得られたノイズの周波数毎のレベルから肌状態指数を算出する算出ステップと、
前記算出ステップにて算出された肌状態指数を美肌化処理の処理強度に変換する変換ステップと、
前記検出ステップにて検出されたヒトの顔領域に対して、前記変換ステップにて変換された処理強度で平滑化フィルタ処理を施す美肌化処理ステップと、
を含み、
前記美肌化処理における前記平滑化フィルタ処理のフィルタサイズは複数の美肌モードに応じて複数種用意されており、
前記設定ステップは、前記顔領域内で設定可能に規定されている複数の計測候補領域の中から、前記複数の美肌モードの中から選択された美肌モードに対応する計測領域を設定することを特徴とする画像処理方法。
This is an image processing method using an image processing device.
A detection step of detecting the position of the human face region and the facial organs in the human face region from the image including a human as a subject, and a detection step.
A setting step of setting a predetermined range based on the position of a facial organ in the human face region detected in the detection step as a skin measurement region, and a setting step.
A calculation step of calculating the skin condition index from the frequency level of noise obtained by performing a two-dimensional Fourier transform on the skin measurement region set in the setting step, and a calculation step.
A conversion step for converting the skin condition index calculated in the above calculation step into the processing intensity of the skin beautification treatment, and
A skin-beautifying treatment step of applying a smoothing filter treatment to the human face region detected in the detection step with the treatment intensity converted in the conversion step.
Including
A plurality of types of filter sizes for the smoothing filter processing in the skin-beautifying treatment are prepared according to a plurality of skin-beautifying modes.
The setting step is characterized in that a measurement area corresponding to a skin-beautifying mode selected from the plurality of skin-beautifying modes is set from a plurality of measurement candidate areas defined to be configurable in the face area. Image processing method.
画像処理装置のコンピュータを、
被写体としてヒトが含まれる画像内より前記ヒトの顔領域及び前記ヒトの顔領域内の顔器官の位置を検出する検出手段、
前記検出手段により検出されたヒトの顔領域内の顔器官の位置を基準とした所定の範囲を肌計測領域として設定する設定手段、
前記設定手段によって設定された肌計測領域に対して二次元フーリエ変換を行って得られたノイズの周波数毎のレベルから肌状態指数を算出する算出手段、
前記算出手段により算出された肌状態指数を美肌化処理の処理強度に変換する変換手段、
前記検出手段により検出されたヒトの顔領域に対して、前記変換手段によって変換された処理強度で平滑化フィルタ処理を施す美肌化処理手段、
として機能させ、
前記美肌化処理における前記平滑化フィルタ処理のフィルタサイズは複数の美肌モードに応じて複数種用意されており、
前記設定手段は、前記顔領域内で設定可能に規定されている複数の計測候補領域の中から、前記複数の美肌モードの中から選択された美肌モードに対応する計測領域を設定することを特徴とするプログラム。
The computer of the image processing device,
A detection means for detecting the position of the human face region and the facial organs in the human face region from an image including a human as a subject.
A setting means for setting a predetermined range as a skin measurement area based on the position of a facial organ in a human face area detected by the detection means.
A calculation means for calculating the skin condition index from the level of noise obtained by performing a two-dimensional Fourier transform on the skin measurement region set by the setting means for each frequency.
A conversion means for converting the skin condition index calculated by the calculation means into the processing intensity of the skin beautification treatment,
A skin-beautifying treatment means that applies a smoothing filter treatment to a human face region detected by the detection means with a treatment intensity converted by the conversion means.
To function as
A plurality of types of filter sizes for the smoothing filter processing in the skin-beautifying treatment are prepared according to a plurality of skin-beautifying modes.
The setting means is characterized in that a measurement area corresponding to a skin-beautifying mode selected from the plurality of skin-beautifying modes is set from a plurality of measurement candidate areas defined to be configurable in the face area. Program to be.
JP2016115100A 2016-06-09 2016-06-09 Image processing equipment, image processing methods and programs Active JP6859611B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016115100A JP6859611B2 (en) 2016-06-09 2016-06-09 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016115100A JP6859611B2 (en) 2016-06-09 2016-06-09 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2017220078A JP2017220078A (en) 2017-12-14
JP6859611B2 true JP6859611B2 (en) 2021-04-14

Family

ID=60656487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016115100A Active JP6859611B2 (en) 2016-06-09 2016-06-09 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6859611B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110020990B (en) * 2018-01-10 2023-11-07 中兴通讯股份有限公司 Global skin beautifying method, device and equipment of mobile terminal and storage medium
JP6908013B2 (en) * 2018-10-11 2021-07-21 カシオ計算機株式会社 Image processing equipment, image processing methods and programs
CN111053356A (en) * 2018-10-17 2020-04-24 丽宝大数据股份有限公司 Electronic cosmetic mirror device and display method thereof
CN109451235B (en) * 2018-10-29 2021-03-05 维沃移动通信有限公司 Image processing method and mobile terminal
CN110796617B (en) 2019-10-24 2022-09-02 北京小米智能科技有限公司 Face image enhancement method and device and electronic equipment
CN111275650B (en) 2020-02-25 2023-10-17 抖音视界有限公司 Beauty treatment method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4461789B2 (en) * 2003-03-20 2010-05-12 オムロン株式会社 Image processing device
JP4396387B2 (en) * 2004-05-13 2010-01-13 オムロン株式会社 Image correction device
JP2010211497A (en) * 2009-03-10 2010-09-24 Nikon Corp Digital camera and image processing program

Also Published As

Publication number Publication date
JP2017220078A (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6859611B2 (en) Image processing equipment, image processing methods and programs
JP7027537B2 (en) Image processing methods and equipment, electronic devices, and computer-readable storage media
KR102362544B1 (en) Method and apparatus for image processing, and computer readable storage medium
JP6700840B2 (en) Image processing device, imaging device, control method, and program
JP6421794B2 (en) Image processing apparatus, image processing method, and program
KR20110033980A (en) Automatic face and skin beautification using face detection
JP5949331B2 (en) Image generating apparatus, image generating method, and program
CN101753814A (en) Filming device, illumination processing device and illumination processing method
US20170154437A1 (en) Image processing apparatus for performing smoothing on human face area
JP6111723B2 (en) Image generating apparatus, image generating method, and program
JP7292905B2 (en) Image processing device, image processing method, and imaging device
CN107945106B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN109639959A (en) Image processing apparatus, image processing method and recording medium
JP2016213718A (en) Image processing apparatus, image processing method, program, and storage medium
JP6720882B2 (en) Image processing apparatus, image processing method and program
JP4983643B2 (en) Imaging apparatus and correction program
CN109104601B (en) Detection device, image processing device, detection method, and image processing method
JP2012085083A (en) Image processing apparatus, image pickup device, and image processing program
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2015184701A (en) Image processing apparatus, image processing method, and program
JP2012104879A (en) Image capturing device, image display device, image processing method, image processing program, and image-capturing and displaying device
JP4946913B2 (en) Imaging apparatus and image processing program
JP2018032442A (en) Image processor, image processing method and program
JP7279741B2 (en) Image processing device, image processing method and program
JP7383891B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6859611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150