JP2018045366A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2018045366A
JP2018045366A JP2016178586A JP2016178586A JP2018045366A JP 2018045366 A JP2018045366 A JP 2018045366A JP 2016178586 A JP2016178586 A JP 2016178586A JP 2016178586 A JP2016178586 A JP 2016178586A JP 2018045366 A JP2018045366 A JP 2018045366A
Authority
JP
Japan
Prior art keywords
face
person
image
state
makeup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016178586A
Other languages
Japanese (ja)
Other versions
JP2018045366A5 (en
JP6897036B2 (en
Inventor
功太 田中
Kota Tanaka
功太 田中
正規 石原
Masanori Ishihara
正規 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016178586A priority Critical patent/JP6897036B2/en
Publication of JP2018045366A publication Critical patent/JP2018045366A/en
Publication of JP2018045366A5 publication Critical patent/JP2018045366A5/ja
Application granted granted Critical
Publication of JP6897036B2 publication Critical patent/JP6897036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To adjust a person's face into a state suitable for facial treatment.SOLUTION: An image processing device 1 has a face detection unit 52, a determination unit 53, and a control unit 54. The face detection unit 52 detects a person's face included in an image. The determination unit 53 determines the state of the image portion of the detected person's face. The control unit 54 adjusts the image portion of the determined person's face into a state suitable for facial treatment, according to the state of the person's face.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、デジタルカメラ等の画像処理装置において、特許文献1のように、美白処理と呼ばれる処理を施す技術が知られている。
美白処理では、画像に含まれる人物の顔の肌部分を美しくする処理が施される。
Conventionally, in an image processing apparatus such as a digital camera, a technique for performing processing called whitening processing as in Patent Document 1 is known.
In the whitening process, a process for beautifying the skin portion of the face of the person included in the image is performed.

特開2006−121416号公報JP 2006-121416 A

しかしながら、撮影対象の人物が顔に化粧を施している場合、化粧の濃さや人物の特性あるいは撮影条件の違いによっては、同じ美白処理を施すだけでは効果に違いが出てしまうという問題がある。このことは、肌を滑らかにしたり、肌の色を褐色にしたりするような処理等、人物の顔の肌部分を美しくする美顔処理全般にいえることである。   However, when the person to be photographed applies makeup on the face, there is a problem that the effect is different only by applying the same whitening process depending on the darkness of the makeup, the characteristics of the person, or the photographing conditions. This can be said for all the beautiful face treatments for beautifying the skin portion of a person's face, such as a treatment for smoothing the skin or browning the skin.

本発明は、このような状況に鑑みてなされたものであり、人物の顔の状態によらず、美顔処理の効果に違いが出ないようにすることを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to prevent a difference in the effect of the beautiful face processing regardless of the face state of a person.

上記目的を達成するため、本発明の一態様の画像処理装置は、
画像に含まれる人物の顔を検出する検出手段と、
検出した人物の顔の画像部分の状態を判別する判別手段と、
判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する調整手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Detecting means for detecting a human face included in the image;
A discriminating means for discriminating the state of the image portion of the detected human face;
Adjusting means for adjusting the image portion of the person's face to an appropriate state for performing the facial treatment according to the determined state of the person's face;
It is characterized by providing.

本発明によれば、人物の顔の状態によらず、美顔処理の効果に違いが出ないようにすることが可能となる。   According to the present invention, it is possible to prevent a difference in the effect of the facial processing regardless of the state of the person's face.

本発明の一実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to an embodiment of the present invention. 図1の画像処理装置の機能的構成のうち、化粧顔生成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a makeup | decoration face production | generation process among the functional structures of the image processing apparatus of FIG. 復元/リメイクアップテーブルのデータ構成例を示す模式図である。It is a schematic diagram which shows the data structural example of a decompression | restoration / remake-up table. 図2の機能的構成を有する図1の画像処理装置が実行する化粧顔生成処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the makeup | decoration face production | generation process which the image processing apparatus of FIG. 1 which has the functional structure of FIG. 2 performs. 化粧顔生成処理のステップS5において実行される復元処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the decompression | restoration process performed in step S5 of a makeup | decoration face production | generation process. 化粧顔生成処理のステップS7において実行されるリメイクアップ処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the remake-up process performed in step S7 of a makeup | decoration face production | generation process. 復元/リメイクアップテーブル生成処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a restoration / remake-up table generation process. 復元/リメイクアップテーブル生成処理のステップS39において実行される復元処理用関数生成処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the function generation process for a restoration process performed in step S39 of a restoration / remakeup table generation process. 復元/リメイクアップテーブル生成処理のステップS41において実行されるリメイクアップ用関数生成処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the remake function generation process performed in step S41 of the restoration / remake table generation process. 第2実施形態における画像処理装置の機能的構成のうち、化粧顔生成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a makeup | decoration face production | generation process among the functional structures of the image processing apparatus in 2nd Embodiment. 人物特性標準化テーブルのデータ構成例を示す模式図である。It is a schematic diagram which shows the data structural example of a person characteristic standardization table. 撮影条件標準化テーブルのデータ構成例を示す模式図である。It is a schematic diagram which shows the example of a data structure of an imaging condition standardization table.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
本実施形態に係る画像処理装置は、化粧を施されている被写体の顔を、化粧を施されていないスッピン状態にする処理(以下、「復元処理」と呼ぶ。)を実行可能であると共に、スッピン状態とされた被写体の顔に美白処理及び美肌処理を含む美顔処理を施す。本実施形態において、美白処理とは、顔の画像において肌部分の色を白くする処理であり、美肌処理とは、顔の画像において肌部分を滑らかにする処理である。そして、本実施形態に係る画像処理装置は、復元処理によりスッピン状態にされた後、美顔処理が施された被写体の顔に、ユーザが指定する化粧を施す処理(以下、「リメイクアップ処理」と呼ぶ。)を画像処理によって行う。
これにより、人物の顔の状態によらず、美顔処理の効果に違いが出ないようにすることができると共に、美顔処理を施した上で、所定の化粧を施す画像処理を実行することができる。
[First Embodiment]
The image processing apparatus according to the present embodiment is capable of executing a process (hereinafter referred to as “restoration process”) that puts the face of a subject that has undergone makeup into a spinned state without makeup. A facial process including a whitening process and a skin-beautifying process is performed on the face of the subject that has been put into a suppin state. In the present embodiment, the whitening process is a process for whitening the color of the skin part in the face image, and the skin beautifying process is a process for smoothing the skin part in the face image. Then, the image processing apparatus according to the present embodiment performs a process (hereinafter referred to as “remake-up process”) for applying makeup designated by the user to the face of the subject that has been subjected to the facial beauty process after being put into the suppin state by the restoration process. Is performed by image processing.
Accordingly, it is possible to prevent a difference in the effect of the facial processing regardless of the state of the person's face, and it is possible to execute image processing for applying a predetermined makeup after performing the facial processing. .

図1は、本発明の一実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えば、デジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus 1 according to an embodiment of the present invention.
The image processing apparatus 1 is configured as a digital camera, for example.

画像処理装置1は、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。   As illustrated in FIG. 1, the image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, The imaging unit 16, the input unit 17, the output unit 18, the storage unit 19, the communication unit 20, and the drive 21 are provided.

CPU11は、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as a “captured image”. Data of the captured image is appropriately supplied to the CPU 11 or an image processing unit (not shown).

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスクあるいはフラッシュメモリ等で構成され、CPU11が実行するプログラムや各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 includes a hard disk or a flash memory, and stores programs executed by the CPU 11 and various image data.
The communication unit 20 controls communication performed with other devices (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 21. The program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

図2は、図1の画像処理装置1の機能的構成のうち、化粧顔生成処理を実行するための機能的構成を示す機能ブロック図である。
化粧顔生成処理とは、化粧を施されている被写体の顔を、化粧を施されていないスッピン状態にする復元処理を施すと共に、スッピン状態とされた被写体の顔に美顔処理(美白処理及び美肌処理)を施し、ユーザが指定する化粧を画像処理によって被写体の顔に施す一連の処理をいう。
FIG. 2 is a functional block diagram showing a functional configuration for executing the makeup face generation process among the functional configurations of the image processing apparatus 1 of FIG.
The makeup face generation process is a process for restoring the face of a subject to which makeup has been applied to make the face in a suppin state where makeup has not been applied. A series of processes in which makeup designated by the user is applied to the face of the subject by image processing.

化粧顔生成処理が実行される場合、図2に示すように、CPU11において、画像取得部51と、顔検出部52と、判別部53と、調整部54と、美顔処理部55と、リメイクアップ部56と、テーブル管理部57と、関数生成部58とが機能する。
また、記憶部19の一領域には、復元/リメイクアップテーブル記憶部71が設定される。
復元/リメイクアップテーブル記憶部71には、顔の画像を復元処理するための画像処理方法及び顔の画像にリメイクアップ処理を施すための画像処理方法を表す関数がテーブル形式のデータとされた復元/リメイクアップテーブルのデータが記憶される。
When the makeup face generation process is executed, as shown in FIG. 2, in the CPU 11, the image acquisition unit 51, the face detection unit 52, the determination unit 53, the adjustment unit 54, the face processing unit 55, and the remake-up The unit 56, the table management unit 57, and the function generation unit 58 function.
In addition, a restoration / remake-up table storage unit 71 is set in one area of the storage unit 19.
The restoration / remake-up table storage unit 71 is a restoration in which a function representing an image processing method for restoring a face image and an image processing method for performing a remake-up process on the face image is table-format data. / Remake table data is stored.

図3は、復元/リメイクアップテーブルのデータ構成例を示す模式図である。
図3に示すように、復元/リメイクアップテーブルには、顔の画像を復元処理するための画像処理方法を表す関数(以下、「復元処理用関数」と呼ぶ。)と、顔の画像にリメイクアップ処理を施すための画像処理方法を表す関数(以下、「リメイクアップ用関数」と呼ぶ。)と、が格納されている。なお、図3において、復元処理用関数はf、リメイクアップ用関数はgの符号で表され、復元処理用関数f及びリメイクアップ用関数gそれぞれにおいて異なるものは、それぞれの符号に添え字n,m(n,mは自然数)を付して示している。
また、復元処理用関数及びリメイクアップ用関数は、各種肌の色(薄い、やや薄い・・・、濃い等)、及び、各種化粧の種類(ナチュラル系、ギャル系等)それぞれに対応する特性のものが用意されている。なお、ここでの肌の色は化粧を施す前の地肌の色を表している。
さらに、本実施形態においては、リメイクアップ処理として、画像処理によって施す美顔処理の強度を多段階(ここでは標準のゼロを基準として±6までの合計13段階)に異ならせることが可能となっており、それぞれの強度の段階に対応したリメイクアップ用関数が復元/リメイクアップテーブルに格納されている。
なお、復元/リメイクアップテーブルは、後述する復元/リメイクアップテーブル生成処理によって生成される。
FIG. 3 is a schematic diagram illustrating a data configuration example of the restoration / remake-up table.
As shown in FIG. 3, in the restoration / remake-up table, a function representing an image processing method for restoring a face image (hereinafter referred to as a “restoration processing function”) and a remake of the face image are displayed. A function representing an image processing method for performing up-processing (hereinafter referred to as “remake-up function”) is stored. In FIG. 3, the restoration processing function is represented by f and the remakeup function is represented by g, and the different functions in the restoration processing function f and the remakeup function g are subscripts n, m (n and m are natural numbers) is attached.
The restoration processing function and the remake-up function have characteristics corresponding to various skin colors (light, slightly light ..., dark, etc.) and various makeup types (natural, gal, etc.). Things are available. In addition, the color of the skin here represents the color of the background before applying makeup.
Furthermore, in the present embodiment, as the remake-up process, the intensity of the facial treatment performed by image processing can be varied in multiple stages (here, a total of 13 stages up to ± 6 with reference to standard zero). The remake function corresponding to each intensity level is stored in the restoration / remake table.
The restoration / remake-up table is generated by a restoration / remake-up table generation process described later.

画像取得部51は、化粧顔生成処理の対象となる画像のデータを取得する。例えば、画像取得部51は、撮像部16によって撮像された撮影画像のデータを化粧顔生成処理の対象として取得したり、記憶部19やリムーバブルメディア31に記憶されている画像のデータを取得してもよいし、通信部20を介して他の装置から取得したりすることができる。
また、画像取得部51は、復元/リメイクアップテーブル生成処理に使用する画像のデータとして、同一人物における化粧を施されていない顔の画像と化粧を施された顔の画像の組を取得する。例えば、画像取得部51は、リムーバブルメディア31に記憶されている画像のデータを取得してもよいし、通信部20を介して他の装置から取得してもよい。
顔検出部52は、化粧顔生成処理の対象となる画像において、被写体の人物の顔を検出する。
また、顔検出部52は、復元/リメイクアップテーブル生成処理に使用する画像において、被写体の人物の顔を検出する。なお、被写体の人物の顔の検出は、公知の技術を使用することで実現可能であるため、ここでは詳細な説明は省略する。
また、顔検出部52は、検出した被写体の人物の顔に関する情報として、画像における顔の大きさ、位置、顔の主要部位(目、鼻、口等)の位置、肌の色等を取得する。
判別部53は、顔検出部52によって検出された顔の状態を判別する。具体的には、判別部53は、顔検出部52によって取得された顔に関する情報に基づき、検出された顔の状態が、各種肌の色及び各種化粧の種類のいずれに対応する状態で化粧を施されているかを判別する。このとき、判別部53は、顔検出部52によって検出された顔の肌の色及び化粧の種類が、記憶部19に記憶された復元/リメイクアップテーブルにおいて復元用関数を定義する条件のいずれに合致するかを判別する。例えば、判別部53は、顔検出部52によって検出された顔の肌の色が、「薄い」、「やや薄い」・・・「濃い」のいずれの範囲に含まれるかを、それぞれの肌の色の閾値と比較することで判別する。また、判別部53は、顔検出部52によって検出された顔の化粧の種類が、「ナチュラル系」、「ギャル系」等のいずれに合致するかを、化粧に用いられている色の種類、顔において化粧が施された位置及び彩色のパターン等の条件に基づいて判別する。
また、判別部53は、復元/リメイクアップテーブル生成処理において、ユーザによって指定された化粧の種類を取得することによって、化粧の種類を判別する。
The image acquisition unit 51 acquires image data to be subjected to a makeup face generation process. For example, the image acquisition unit 51 acquires data of a captured image captured by the imaging unit 16 as a target for the makeup face generation process, or acquires image data stored in the storage unit 19 or the removable media 31. Alternatively, it can be acquired from another device via the communication unit 20.
In addition, the image acquisition unit 51 acquires, as image data used for the restoration / remake-up table generation process, a set of a face image without makeup and a face image with makeup applied to the same person. For example, the image acquisition unit 51 may acquire image data stored in the removable medium 31, or may acquire it from another device via the communication unit 20.
The face detection unit 52 detects the face of the subject person in the image that is the target of the makeup face generation process.
The face detection unit 52 detects the face of the subject person in the image used for the restoration / remake-up table generation process. It should be noted that the detection of the face of the subject person can be realized by using a known technique, and thus detailed description thereof is omitted here.
Further, the face detection unit 52 acquires the size and position of the face in the image, the position of the main part of the face (eyes, nose, mouth, etc.), the skin color, and the like as the information related to the detected person's face. .
The determination unit 53 determines the state of the face detected by the face detection unit 52. Specifically, the determination unit 53 applies makeup in a state in which the detected face state corresponds to any of various skin colors and various types of makeup based on information about the face acquired by the face detection unit 52. Determine whether it has been applied. At this time, the determination unit 53 determines whether the facial skin color and the makeup type detected by the face detection unit 52 are the conditions that define the restoration function in the restoration / remake-up table stored in the storage unit 19. Determine whether they match. For example, the determination unit 53 determines whether the skin color of the face detected by the face detection unit 52 is included in a range of “light”, “slightly light”, “dark”. This is determined by comparing with a color threshold. In addition, the determination unit 53 determines whether the type of facial makeup detected by the face detection unit 52 matches “natural”, “gal”, or the like, the type of color used in makeup, The determination is made based on conditions such as the position of makeup on the face and the pattern of coloring.
Further, the determination unit 53 determines the makeup type by acquiring the makeup type designated by the user in the restoration / remake-up table generation process.

調整部54は、復元/リメイクアップテーブルを参照し、判別部53によって判別された肌の色及び化粧の種類に対応する復元処理用関数を取得する。そして、調整部54は、顔検出部52によって検出された顔の画像に、取得した復元処理用関数を適用し、顔検出部52によって検出された顔をスッピン状態(化粧を施されていない状態)に調整する。
即ち、これら判別部53及び調整部54によって、復元処理が実行される。
The adjustment unit 54 refers to the restoration / remake-up table, and acquires a restoration processing function corresponding to the skin color and makeup type determined by the determination unit 53. Then, the adjustment unit 54 applies the acquired restoration processing function to the face image detected by the face detection unit 52, and sets the face detected by the face detection unit 52 in a skipped state (state where makeup is not applied). ) To adjust.
That is, the restoration process is executed by the determination unit 53 and the adjustment unit 54.

美顔処理部55は、調整部54によってスッピン状態とされた顔の画像に対して、美顔処理を施す。本実施形態において、美顔処理部55は、美顔処理として、美白処理及び美肌処理を顔の画像に施すものとする。なお、美白処理及び美肌処理は、公知の技術を使用することで実現可能であるため、ここでは詳細な説明は省略する。   The beautiful face processing unit 55 performs a beautiful face process on the face image that has been set to the skipped state by the adjustment unit 54. In the present embodiment, the face beauty processing unit 55 performs a whitening process and a skin beautification process on the face image as the face treatment. Note that since the whitening process and the skin beautifying process can be realized by using a known technique, detailed description thereof is omitted here.

リメイクアップ部56は、美顔処理部55によって美顔処理が施された顔の画像に対して、ユーザによって指定された種類の化粧を施す画像処理(リメイクアップ処理)を実行する。このとき、リメイクアップ部56は、復元/リメイクアップテーブルを参照し、被写体の顔の肌の色、ユーザによって指定された美顔の強度及び化粧の種類に対応するリメイクアップ用関数を取得して、美顔処理が施された顔の画像に適用する。なお、ここでは、顔の画像における肌色領域を対象として、リメイクアップ用関数を適用するものとする。これにより、一旦、スッピン状態とされた被写体の顔の画像に対して、美顔処理を施した上で、目的とする化粧を画像処理によって施すことができる。なお、このとき施される化粧の種類としては、被写体の顔の画像に予め施されていた化粧の種類(復元処理が施される前の化粧の種類)と同一のものとすることや、異なる種類の化粧とすること(例えば、ナチュラル系の化粧を施されていた被写体の顔にギャル系の化粧を施す等)が可能である。   The remake-up unit 56 executes image processing (remake-up processing) for applying the type of makeup specified by the user to the face image that has been subjected to the facial processing by the facial processing unit 55. At this time, the remake-up unit 56 refers to the restoration / remake-up table, obtains a remake-up function corresponding to the skin color of the subject's face, the intensity of the beautiful face specified by the user, and the type of makeup, Applies to facial images that have undergone facial treatment. Here, it is assumed that the remake-up function is applied to the skin color region in the face image. As a result, it is possible to apply the desired makeup by image processing after performing the facial processing on the image of the face of the subject once in the suppin state. Note that the type of makeup applied at this time may be the same as or different from the type of makeup previously applied to the face image of the subject (the type of makeup prior to the restoration process). It is possible to use different types of makeup (for example, to apply gal-type makeup to the face of a subject that has been subjected to natural-type makeup).

また、リメイクアップ部56は、ユーザによって指定された、復元処理が施された後に施す美顔処理の強度を取得する。
なお、リメイクアップ部56は、リメイクアップ処理の種類に応じて、リメイクアップ処理後の顔の画像に対して、平滑化処理を施す。例えば、リメイクアップ部56は、リメイクアップ処理において、チークが濃い種類の化粧を施された場合には、チークの赤色領域と、顔の肌色領域との境界を滑らかにする平滑化処理を施す。
In addition, the remake-up unit 56 acquires the strength of the facial treatment that is specified after the restoration process is specified by the user.
The remake-up unit 56 performs a smoothing process on the face image after the remake-up process according to the type of the re-make-up process. For example, the remake-up unit 56 performs a smoothing process for smoothing the boundary between the red area of the cheek and the skin color area of the face when a makeup having a dark cheek is applied in the remake-up process.

テーブル管理部57は、復元/リメイクアップテーブル記憶部71に記憶される復元/リメイクアップテーブルのデータを管理する。具体的には、テーブル管理部57は、復元/リメイクアップテーブルを新しいバージョンのものに更新したり、復元/リメイクアップテーブルの内容をユーザの指示に応じて修正したりする。   The table management unit 57 manages the data of the restoration / remake-up table stored in the restoration / remake-up table storage unit 71. Specifically, the table management unit 57 updates the restoration / remake-up table to a new version, or corrects the contents of the restoration / remake-up table in accordance with a user instruction.

関数生成部58は、復元処理用関数及びリメイクアップ用関数を生成する。具体的には、同一人物における化粧を施されていない顔の画像と化粧を施された顔の画像との変化量を複数取得し、復元処理の画像処理を行うために使用する関数、及びリメイクアップの画像処理を行うために使用する関数を生成する。   The function generation unit 58 generates a restoration processing function and a remake-up function. Specifically, a function used to acquire a plurality of change amounts between a face image without makeup and a face image with makeup applied to the same person, and to perform restoration processing image processing, and remake Generate a function used to perform up image processing.

次に、画像処理装置1の動作を説明する。
図4は、図2の機能的構成を有する図1の画像処理装置1が実行する化粧顔生成処理の流れを説明するフローチャートである。
化粧顔生成処理は、ユーザによって、入力部17に化粧顔生成処理の開始を指示する操作が入力されることに対応して開始される。
Next, the operation of the image processing apparatus 1 will be described.
FIG. 4 is a flowchart for explaining the flow of the makeup face generation process executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.
The makeup face generation process is started in response to the user inputting an operation for instructing the input unit 17 to start the makeup face generation process.

化粧顔生成処理が開始されると、ステップS1において、画像取得部51は、化粧顔生成処理の対象となる画像のデータを取得する。
ステップS2において、顔検出部52は、化粧顔生成処理の対象となる画像において、被写体の人物の顔を検出する。
When the makeup face generation process is started, in step S1, the image acquisition unit 51 acquires image data to be subjected to the makeup face generation process.
In step S <b> 2, the face detection unit 52 detects the face of the subject person in the image that is the target of the makeup face generation process.

ステップS3において、顔検出部52は、化粧顔生成処理の対象となる画像において、被写体の人物の顔が検出されたか否かの判定を行う。
化粧顔生成処理の対象となる画像において、被写体の人物の顔が検出されていない場合、ステップS3においてNOと判定されて、化粧顔生成処理は終了する。
一方、化粧顔生成処理の対象となる画像において、被写体の人物の顔が検出された場合、ステップS3においてYESと判定されて、処理はステップS4に移行する。
In step S <b> 3, the face detection unit 52 determines whether or not the face of the subject person has been detected in the image that is the target of the makeup face generation process.
If the face of the subject person is not detected in the image that is the target of the makeup face generation process, NO is determined in step S3, and the makeup face generation process ends.
On the other hand, when the face of the subject person is detected in the image to be subjected to the makeup face generation process, YES is determined in step S3, and the process proceeds to step S4.

ステップS4において、顔検出部52は、検出された被写体の人物の顔に関する情報(画像における顔の大きさ、位置、肌の色等)を取得する。
ステップS5において、調整部54は、復元処理を実行する。なお、復元処理の詳細については後述する。
In step S <b> 4, the face detection unit 52 acquires information related to the detected human face of the subject (face size, position, skin color, etc. in the image).
In step S5, the adjustment unit 54 executes a restoration process. Details of the restoration process will be described later.

ステップS6において、美顔処理部55は、復元処理によってスッピン状態とされた顔の画像に対して、美顔処理(美白処理及び美肌処理)を施す。
ステップS7において、リメイクアップ部56は、美顔処理が施された顔の画像に対して、リメイクアップ処理を実行する。なお、リメイクアップ処理の詳細については後述する。
ステップS8において、リメイクアップ部56は、リメイクアップ処理後の顔の画像に対して、平滑化処理を施す。なお、この平滑化処理は、リメイクアップ処理の種類に応じて適宜実行される。
ステップS8の後、化粧顔生成処理は終了する。
In step S <b> 6, the face beauty processing unit 55 performs face beauty processing (whitening processing and skin beautification processing) on the face image that has been brought into the suppin state by the restoration processing.
In step S <b> 7, the remake-up unit 56 performs a remake-up process on the face image that has been subjected to the beautiful face process. The details of the remake process will be described later.
In step S8, the remake-up unit 56 performs a smoothing process on the face image after the re-make-up process. This smoothing process is appropriately executed according to the type of remake-up process.
After step S8, the makeup face generation process ends.

次に、化粧顔生成処理のステップS5において実行される復元処理について説明する。
図5は、化粧顔生成処理のステップS5において実行される復元処理の流れを説明するフローチャートである。
復元処理が開始されると、ステップS11において、判別部53は、顔検出部52によって検出された顔の状態を判別する。具体的には、判別部53は、顔検出部52によって取得された顔に関する情報に基づき、検出された顔の状態が、各種肌の色及び各種化粧の種類のいずれに対応する状態で化粧を施されているかを判別する。
Next, the restoration process executed in step S5 of the makeup face generation process will be described.
FIG. 5 is a flowchart illustrating the flow of the restoration process executed in step S5 of the makeup face generation process.
When the restoration process is started, the determination unit 53 determines the state of the face detected by the face detection unit 52 in step S11. Specifically, the determination unit 53 applies makeup in a state in which the detected face state corresponds to any of various skin colors and various types of makeup based on information about the face acquired by the face detection unit 52. Determine whether it has been applied.

ステップS12において、調整部54は、復元/リメイクアップテーブルを参照し、判別部53によって判別された肌の色及び化粧の種類に対応する復元処理用関数を取得する。
ステップS13において、調整部54は、顔検出部52によって検出された顔の画像に、取得した復元処理用関数を適用し、顔検出部52によって検出された顔をスッピン状態(化粧を施されていない状態)に調整する画像処理を行う。
ステップS13の後、処理は化粧顔生成処理に戻る。
In step S <b> 12, the adjustment unit 54 refers to the restoration / remake-up table, and acquires a restoration processing function corresponding to the skin color and makeup type determined by the determination unit 53.
In step S <b> 13, the adjustment unit 54 applies the acquired restoration processing function to the face image detected by the face detection unit 52, and puts the face detected by the face detection unit 52 in a suppin state (makeup is applied). Image processing to be adjusted.
After step S13, the process returns to the makeup face generation process.

次に、化粧顔生成処理のステップS7において実行されるリメイクアップ処理について説明する。
図6は、化粧顔生成処理のステップS7において実行されるリメイクアップ処理の流れを説明するフローチャートである。
リメイクアップ処理が開始されると、ステップS21において、リメイクアップ部56は、ユーザによって指定された化粧の種類(リメイクアップの種類)を取得する。
ステップS22において、リメイクアップ部56は、ユーザによって指定された美顔処理の強度を取得する。
Next, the remake-up process executed in step S7 of the makeup face generation process will be described.
FIG. 6 is a flowchart for explaining the flow of the remake-up process executed in step S7 of the makeup face generation process.
When the remake-up process is started, in step S21, the remake-up unit 56 obtains the makeup type (remake-up type) designated by the user.
In step S <b> 22, the remake-up unit 56 acquires the intensity of the facial treatment designated by the user.

ステップS23において、リメイクアップ部56は、復元/リメイクアップテーブルを参照し、被写体の顔の肌の色、ユーザによって指定された美顔の強度及び化粧の種類に対応するリメイクアップ用関数を取得する。
ステップS24において、リメイクアップ部56は、美顔処理部55によって美顔処理が施された顔の画像に、取得したリメイクアップ用関数を適用し、ユーザによって指定された種類の化粧を画像処理によって施す。
ステップS24の後、処理は化粧顔生成処理に戻る。
In step S23, the remake-up unit 56 refers to the restoration / remake-up table, and obtains a remake-up function corresponding to the skin color of the subject's face, the facial strength specified by the user, and the makeup type.
In step S24, the remake-up unit 56 applies the acquired remake-up function to the face image that has been subjected to the face processing by the face processing unit 55, and applies the type of makeup specified by the user by image processing.
After step S24, the process returns to the makeup face generation process.

次に、化粧顔生成処理において参照される復元/リメイクアップテーブルを生成する処理(以下、「復元/リメイクアップテーブル生成処理」と呼ぶ。)について説明する。
図7は、復元/リメイクアップテーブル生成処理の流れを説明するフローチャートである。
復元/リメイクアップテーブル生成処理は、化粧顔生成処理に先立ち、復元/リメイクアップテーブルを予め生成するための事前処理として実行されるものである。そのため、復元/リメイクアップテーブル生成処理は、画像処理装置1で実行することや、画像処理装置1以外のPC(Personal Computer)等の情報処理装置で実行することが可能である。ここでは、画像処理装置1において復元/リメイクアップテーブル生成処理が実行されるものとして説明する。
なお、復元/リメイクアップテーブル生成処理に使用する同一人物における化粧を施されていない顔の画像と化粧を施された顔の組は、予め複数の人物分が撮影され、リムーバブルメディア31や他の装置に記憶されているものとする。
Next, processing for generating a restoration / remake-up table referred to in the makeup face generation processing (hereinafter referred to as “restoration / remake-up table generation processing”) will be described.
FIG. 7 is a flowchart for explaining the flow of restoration / remake-up table generation processing.
The restoration / remake-up table generation process is executed as a pre-process for generating a restoration / remake-up table in advance prior to the makeup face generation process. Therefore, the restoration / remake-up table generation process can be executed by the image processing apparatus 1 or an information processing apparatus such as a PC (Personal Computer) other than the image processing apparatus 1. Here, a description will be given assuming that the restoration / remake-up table generation process is executed in the image processing apparatus 1.
It should be noted that for the same person used for the restoration / remake-up table generation process, a set of a face image without makeup and a face with makeup is previously photographed for a plurality of persons, and the removable media 31 and other Assume that it is stored in the device.

復元/リメイクアップテーブル生成処理は、ユーザによって、入力部17に復元/リメイクアップテーブル生成処理の開始を指示する操作が入力されることに対応して開始される。
復元/リメイクアップテーブル生成処理が開始されると、ステップS31において、テーブル管理部57は、復元/リメイクアップテーブル生成処理に使用する同一人物における化粧を施されていない顔の画像と化粧を施された顔の画像の組が記憶されている場所とその数を特定する。
The restoration / remake-up table generation process is started in response to an operation that instructs the input unit 17 to start the restoration / remake-up table generation process.
When the restoration / remake-up table generation processing is started, in step S31, the table management unit 57 applies makeup and an image of a face that has not been subjected to makeup for the same person used for the restoration / remake-up table generation processing. The location and number of stored face image pairs are specified.

ステップS32において、顔検出部52は、テーブル管理部57によって特定された記憶場所から、同一人物における化粧を施されていない顔の画像と化粧を施された顔の画像の組を1組(一人分)取得する。
ステップS33において、顔検出部52は、取得した当該一人分の画像の各々から人物の顔を検出して、顔に関する情報(画像における顔の大きさ、位置等)を取得する。
ステップS34において、判別部53は、その顔に施されている化粧の種類を、ユーザによって指定された化粧の種類を取得することで判別する。
ステップS35において、顔検出部52は、その顔の肌の色を取得する。
ステップS36において、テーブル管理部57は、その顔の画像を肌の色及び化粧の種類毎に分類する。
ステップS37において、テーブル管理部57は、分類された顔の画像のデータを、ステップS33で取得した顔に関する情報と対応付けて、分類別に区分して分類別顔画像データに登録する。
In step S <b> 32, the face detection unit 52 sets one set (one person) of a face image without makeup and a face image with makeup applied to the same person from the storage location specified by the table management unit 57. Min) to get.
In step S <b> 33, the face detection unit 52 detects a person's face from each of the acquired images for one person, and acquires information related to the face (face size, position, etc. in the image).
In step S34, the determination unit 53 determines the type of makeup applied to the face by acquiring the type of makeup designated by the user.
In step S35, the face detection unit 52 acquires the skin color of the face.
In step S36, the table management unit 57 classifies the face image for each skin color and makeup type.
In step S <b> 37, the table management unit 57 associates the classified face image data with the information about the face acquired in step S <b> 33, classifies the classified face image data, and registers the classified face image data.

ステップS38において、テーブル管理部57は、ステップS31において特定した数の分の顔画像のデータの分類・登録処理が全て終了したか否かの判定を行う。
ステップS31において特定した数の分の顔画像のデータの分類・登録処理が全て終了していない場合、ステップS38においてNOと判定されて、処理はステップS32に移行する。
一方、ステップS31において特定した数の分の顔画像のデータの分類・登録処理が全て終了している場合、ステップS38においてYESと判定されて、処理はステップS39に移行する。
ステップS39において、ステップS37で登録された分類別顔画像データが参照され、復元処理用関数を生成する処理(以下、「復元処理用関数生成処理」と呼ぶ。)が実行される。なお、復元処理用関数生成処理の詳細については後述する。
ステップS40において、テーブル管理部57は、肌の色、化粧の種類及び生成した復元処理用関数を対応付けて、復元/リメイクアップテーブルに登録する。
In step S <b> 38, the table management unit 57 determines whether all the classification / registration processing of the face image data of the number specified in step S <b> 31 has been completed.
If all the face image data classification / registration processes specified in step S31 have not been completed, NO is determined in step S38, and the process proceeds to step S32.
On the other hand, if all the classification / registration processes of the face image data for the number specified in step S31 have been completed, YES is determined in step S38, and the process proceeds to step S39.
In step S39, the classified face image data registered in step S37 is referred to, and processing for generating a restoration processing function (hereinafter referred to as “restoration processing function generation processing”) is executed. Details of the restoration processing function generation processing will be described later.
In step S40, the table management unit 57 associates the skin color, the makeup type, and the generated restoration processing function and registers them in the restoration / remake-up table.

ステップS41において、ステップS37で登録された分類別顔画像データが参照され、リメイクアップ用関数を生成する処理(以下、「リメイクアップ用関数生成処理」と呼ぶ。)が実行される。なお、リメイクアップ用関数生成処理の詳細については後述する。
ステップS42において、テーブル管理部57は、肌の色、化粧の種類及び生成したリメイクアップ用関数を対応付けて、復元/リメイクアップテーブルに登録する。
ステップS42の後、復元/リメイクアップテーブル生成処理は終了する。
In step S41, the classified face image data registered in step S37 is referred to, and a process for generating a remake function (hereinafter referred to as “remake function generation process”) is executed. Details of the remake-up function generation process will be described later.
In step S42, the table management unit 57 associates the skin color, makeup type, and the generated remake-up function with each other and registers them in the restoration / remake-up table.
After step S42, the restoration / remake-up table generation process ends.

次に、復元/リメイクアップテーブル生成処理のステップS39において実行される復元処理用関数生成処理について説明する。
図8は、復元/リメイクアップテーブル生成処理のステップS39において実行される復元処理用関数生成処理の流れを説明するフローチャートである。
復元処理用関数生成処理が開始されると、ステップS51において、テーブル管理部57は、分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせのうち1つを選択する。
ステップS52において、画像取得部51は、テーブル管理部57によって選択された分類別顔画像データを参照し、同一人物における化粧を施されていない顔の画像と化粧を施された顔の画像の組を1組(一人分)取得する。
Next, the restoration process function generation process executed in step S39 of the restoration / remakeup table generation process will be described.
FIG. 8 is a flowchart for explaining the flow of the restoration process function generation process executed in step S39 of the restoration / remakeup table generation process.
When the function generation processing for restoration processing is started, in step S51, the table management unit 57 selects one of the combinations of skin color and makeup type classified in the classified face image data.
In step S <b> 52, the image acquisition unit 51 refers to the classified face image data selected by the table management unit 57, and sets a face image and a face image to which makeup is applied for the same person. Acquire 1 set (for 1 person).

ステップS53において、顔検出部52は、同一人物における化粧を施されていない顔の画像及び化粧を施された顔の画像それぞれにおいて、顔の主要部位(目、鼻、口等)の位置を取得する。
ステップS54において、関数生成部58は、同一人物における化粧を施されていない顔の画像及び化粧を施された顔の画像間において、取得した顔の主要部位の位置を合わせる。
In step S <b> 53, the face detection unit 52 acquires the position of the main part (eyes, nose, mouth, etc.) of the face in each of the face image of the same person without makeup and the face image with makeup. To do.
In step S <b> 54, the function generation unit 58 matches the position of the acquired main part of the face between the face image of the same person who has not been put on the face and the face image that has been put on the face.

ステップS55において、関数生成部58は、同一人物における化粧を施された顔の画像から化粧を施されていない顔の画像への顔画像の変化量を取得する。このとき、化粧を施された顔の画像を基準として、化粧を施されていない顔の画像における画素毎の画素値の差分(正負の符号を含む値)が変化量として取得される。
ステップS56において、テーブル管理部57は、ステップS51で選択された肌の色及び化粧の種類の組み合わせに属する全ての人物における化粧を施されていない顔の画像及び化粧を施された顔の画像の組について、処理が終了したか否かの判定を行う。
ステップS51で選択された肌の色及び化粧の種類の組み合わせに属する全ての人物における化粧を施されていない顔の画像及び化粧を施された顔の画像の組について、処理が終了した場合、ステップS56においてYESと判定されて、処理はステップS57に移行する。
一方、ステップS51で選択された肌の色及び化粧の種類の組み合わせに属する全ての人物における化粧を施されていない顔の画像及び化粧を施された顔の画像の組について、処理が終了していない場合、ステップS56においてNOと判定されて、処理はステップS52に移行する。
In step S55, the function generation unit 58 acquires the amount of change in the face image from the face image with makeup applied to the face image without makeup applied to the same person. At this time, a difference (a value including a positive / negative sign) of each pixel in the face image without makeup is acquired as a change amount with reference to the face image with makeup.
In step S56, the table management unit 57 displays the face image without makeup and the face image with makeup for all persons belonging to the combination of the skin color and makeup type selected in step S51. It is determined whether or not processing has been completed for the pair.
When the processing is completed for a set of face images that have not been subjected to makeup and face images that have undergone makeup for all persons belonging to the combination of skin color and makeup type selected in step S51, In S56, YES is determined, and the process proceeds to step S57.
On the other hand, the processing has been completed for the set of the face image and the face image with the makeup applied to all persons belonging to the combination of the skin color and the makeup type selected at step S51. If not, NO is determined in step S56, and the process proceeds to step S52.

ステップS57において、関数生成部58は、ステップS55において取得された複数の顔画像の変化量に基づいて、その肌の色及び化粧の種類における復元処理用関数を生成する。このとき、その肌の色及び化粧の種類に属する人物の顔画像について、化粧を施された平均の顔の画像から、化粧を施されていない平均の顔の画像への顔画像の変化量(平均の変化量)が生成され、平均の変化量が復元処理用関数を表すものとなる。即ち、サンプルとなった複数の人物について、化粧を施された顔の画像から、化粧を施されていない顔の画像への顔画像の変化量を平均化したマスクのデータが生成される。具体的な人物の顔の画像に復元処理用関数を適用する場合、適用対象の人物の顔に合わせて、このマスクの大きさや形状を変化させて、各画素の平均の変化量を対応付けることにより、その人物の顔の画像を、化粧を施されていない顔の画像に変換することができる。なお、本実施形態においては、化粧を施された人物の顔の画像における各画素に、復元処理用関数である平均の変化量をαブレンドすることにより、化粧を施されていない顔が生成される。   In step S57, the function generation unit 58 generates a restoration processing function for the skin color and makeup type based on the change amounts of the plurality of face images acquired in step S55. At this time, with respect to the face image of the person belonging to the skin color and the type of makeup, the amount of change in the face image from the average face image with makeup to the average face image without makeup ( An average change amount) is generated, and the average change amount represents a restoration processing function. That is, for a plurality of sample persons, mask data is generated by averaging the amount of change in face image from a face image with makeup to a face image without makeup. When applying a restoration processing function to a specific person's face image, by changing the size and shape of this mask according to the face of the person to be applied, and associating the average amount of change of each pixel The face image of the person can be converted into an unfaced face image. In the present embodiment, a face without makeup is generated by α-blending the average amount of change, which is a function for restoration processing, to each pixel in the face image of a person with makeup. The

ステップS58において、テーブル管理部57は、分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせの全てについて、処理が終了したか否かの判定を行う。
分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせの全てについて、処理が終了していない場合、ステップS58においてNOと判定されて、処理はステップS51に移行する。
一方、分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせの全てについて、処理が終了した場合、ステップS58においてYESと判定されて、処理は復元/リメイクアップテーブル生成処理に戻る。
In step S58, the table management unit 57 determines whether or not the processing has been completed for all combinations of skin color and makeup type classified in the classified face image data.
If the process has not been completed for all combinations of skin color and makeup type classified in the classified face image data, NO is determined in step S58, and the process proceeds to step S51.
On the other hand, if the processing is completed for all combinations of skin color and makeup type classified in the classified face image data, YES is determined in step S58, and the processing is restored / remake-up table generation processing. Return.

次に、復元/リメイクアップテーブル生成処理のステップS41において実行されるリメイクアップ用関数生成処理について説明する。
図9は、復元/リメイクアップテーブル生成処理のステップS41において実行されるリメイクアップ用関数生成処理の流れを説明するフローチャートである。
リメイクアップ用関数生成処理が開始されると、ステップS61において、テーブル管理部57は、分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせのうち1つを選択する。
ステップS62において、画像取得部51は、テーブル管理部57によって選択された分類別顔画像データを参照し、同一人物における化粧を施されていない顔の画像及び化粧を施された顔の画像の組を1組(一人分)取得する。
Next, the remake-up function generation process executed in step S41 of the restoration / remake-up table generation process will be described.
FIG. 9 is a flowchart for explaining the flow of the remake-up function generation process executed in step S41 of the restoration / remake-up table generation process.
When the remake-up function generation process is started, in step S61, the table management unit 57 selects one of the combinations of the skin color and makeup type classified in the classified face image data.
In step S <b> 62, the image acquisition unit 51 refers to the classified face image data selected by the table management unit 57, and sets a face image and a face image to which makeup is applied for the same person. Acquire 1 set (for 1 person).

ステップS63において、顔検出部52は、同一人物における化粧を施されていない顔の画像及び化粧を施された顔の画像それぞれにおいて、顔の主要部位(目、鼻、口等)の位置を取得する。
ステップS64において、関数生成部58は、同一人物における化粧を施されていない顔の画像及び化粧を施された顔の画像間において、取得した顔の主要部位の位置を合わせる。
In step S <b> 63, the face detection unit 52 acquires the position of the main part (eyes, nose, mouth, etc.) of the face in each of the face image without makeup and the face image with makeup applied to the same person. To do.
In step S <b> 64, the function generation unit 58 matches the position of the acquired main part of the face between the face image of the same person who has not been put on makeup and the face image that has been put on.

ステップS65において、関数生成部58は、同一人物における化粧を施されていない顔の画像から化粧を施された顔の画像への顔画像の変化量を取得する。このとき、化粧を施されていない顔の画像を基準として、化粧を施された顔の画像における画素毎の画素値の差分(正負の符号を含む値)が変化量として取得される。
ステップS66において、テーブル管理部57は、全ての人物における化粧を施された顔の画像及び化粧を施されていない顔の画像の組について、処理が終了したか否かの判定を行う。
全ての人物における化粧を施された顔の画像及び化粧を施されていない顔の画像の組について、処理が終了した場合、ステップS66においてYESと判定されて、処理はステップS67に移行する。
一方、全ての人物における化粧を施された顔の画像及び化粧を施されていない顔の画像の組について、処理が終了していない場合、ステップS66においてNOと判定されて、処理はステップS62に移行する。
In step S <b> 65, the function generation unit 58 acquires the amount of change in the face image from the face image of the same person to which the makeup has been applied to the face image to which makeup has been applied. At this time, a difference (a value including a positive / negative sign) of the pixel value for each pixel in the face image with makeup is acquired as a change amount with reference to the face image without makeup.
In step S <b> 66, the table management unit 57 determines whether or not the processing has been completed for a set of face images with makeup and face images without makeup for all persons.
When the process is completed for a set of face images with makeup and face images with no makeup for all persons, YES is determined in step S66, and the process proceeds to step S67.
On the other hand, if the process has not been completed for the set of face images with makeup and face images without makeup for all persons, NO is determined in step S66, and the process proceeds to step S62. Transition.

ステップS67において、関数生成部58は、ステップS65において取得された複数の顔画像の変化量に基づいて、その肌の色及び化粧の種類におけるリメイクアップ用関数を生成する。このとき、その肌の色及び化粧の種類に属する人物の顔画像について、化粧を施されていない平均の顔の画像から、化粧を施された平均の顔の画像への顔画像の変化量(平均の変化量)が生成され、平均の変化量がリメイクアップ用関数を表すものとなる。即ち、サンプルとなった複数の人物について、化粧を施されていない顔の画像から、化粧を施された顔の画像への顔画像の変化量を平均化したマスクのデータが生成される。具体的な人物の顔の画像にリメイクアップ用関数を適用する場合、適用対象の人物の顔に合わせて、このマスクの大きさや形状を変化させて、各画素の平均の変化量を対応付けることにより、その人物の顔の画像を、化粧を施された顔の画像に変換することができる。なお、本実施形態においては、化粧を施されていない人物の顔の画像における各画素に、リメイクアップ用関数である平均の変化量をαブレンドすることにより、化粧を施された顔が生成される。このとき、各種条件に応じて、αの値を多段階に変化させることで、化粧を施す強度を変化させることができる。例えば、顔の大きさに応じてαを変化させる(顔が大きい程、化粧を施す強度が弱くなるようにαを選択する等)といったことが可能である。   In step S67, the function generator 58 generates a remake-up function for the skin color and makeup type based on the change amounts of the plurality of face images acquired in step S65. At this time, with respect to the face image of a person belonging to the skin color and the type of makeup, the amount of change in the face image from the average face image without makeup to the average face image with makeup ( Average change amount) is generated, and the average change amount represents the remake-up function. That is, for a plurality of sample persons, mask data is generated by averaging the amount of change of the face image from the face image without makeup to the face image with makeup. When applying a remake-up function to a specific person's face image, by changing the size and shape of this mask according to the face of the person to be applied, and by associating the average amount of change of each pixel The face image of the person can be converted into a face image with makeup. In the present embodiment, a face with makeup is generated by α-blending the average amount of change, which is a remake-up function, to each pixel in the face image of a person without makeup. The At this time, the strength for applying makeup can be changed by changing the value of α in multiple stages according to various conditions. For example, it is possible to change α in accordance with the size of the face (select α so that the larger the face, the weaker the intensity of applying makeup).

ステップS68において、テーブル管理部57は、分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせの全てについて、処理が終了したか否かの判定を行う。
分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせの全てについて、処理が終了していない場合、ステップS68においてNOと判定されて、処理はステップS61に移行する。
一方、分類別顔画像データにおいて分類されている肌の色及び化粧の種類の組み合わせの全てについて、処理が終了した場合、ステップS68においてYESと判定されて、処理は復元/リメイクアップテーブル生成処理に戻る。
In step S68, the table management unit 57 determines whether or not the processing has been completed for all combinations of skin color and makeup type classified in the classified face image data.
If the processing has not been completed for all combinations of skin color and makeup type classified in the classified face image data, NO is determined in step S68, and the process proceeds to step S61.
On the other hand, when all the combinations of skin color and makeup type classified in the classified face image data are processed, YES is determined in step S68, and the process is restored / remake-up table generation process. Return.

このように、本実施形態に係る画像処理装置1では、化粧を施されている被写体の顔を、化粧を施されていないスッピン状態にする復元処理を実行可能であると共に、スッピン状態とされた被写体の顔に美白処理及び美肌処理を含む美顔処理を施すことができる。そして、本実施形態に係る画像処理装置1は、美顔処理が施された被写体の顔に、ユーザが指定する化粧を施すリメイクアップ処理を画像処理によって行うことができる。
これにより、化粧を施しているあるいは化粧の濃さといった人物の顔の状態によらず、美顔処理の効果に違いが出ないようにすることができると共に、美顔処理を施した上で、所定の化粧を施す画像処理を実行することができる。
As described above, in the image processing apparatus 1 according to the present embodiment, the restoration process for changing the face of the subject to which makeup is applied to the unpinned state can be performed and the state is set to the unpinned state. Facial treatment including whitening and skin treatment can be performed on the face of the subject. The image processing apparatus 1 according to the present embodiment can perform remake-up processing for applying makeup specified by the user on the face of the subject that has been subjected to the beauty processing by image processing.
As a result, it is possible to prevent a difference in the effect of the face treatment regardless of the state of the face of the person such as the makeup or the darkness of the makeup, and after applying the face treatment, Image processing for applying makeup can be executed.

[第2実施形態]
次に、本発明の第2実施形態について説明する。
第1実施形態における画像処理装置1においては、復元/リメイクアップテーブルを用いて復元処理を行い、処理対象となる画像における顔をスッピン状態として美顔処理を行った後、さらに、復元/リメイクアップテーブルを用いてリメイクアップ処理を行うものとした。これに対し、本実施形態に係る画像処理装置1は、後述する人物特性標準化テーブル及び撮影条件標準化テーブルを用いて、処理対象となる画像における顔を標準化し、標準化された顔に美顔処理を行った後に所定のリメイクアップ処理を適宜行い、さらに標準化の逆変換を行う点が異なっている。
以下、第1実施形態と異なる部分を主として説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the image processing apparatus 1 according to the first embodiment, the restoration process is performed using the restoration / remake-up table, the face processing in the image to be processed is performed in the pinned state, and then the restoration / remake-up table is further performed. The remake-up process was performed using On the other hand, the image processing apparatus 1 according to the present embodiment standardizes the face in the image to be processed using the person characteristic standardization table and the shooting condition standardization table, which will be described later, and performs the facial processing on the standardized face. The difference is that a predetermined remake-up process is appropriately performed after that, and a standardized inverse transformation is further performed.
In the following, differences from the first embodiment will be mainly described.

図10は、本実施形態における画像処理装置1の機能的構成のうち、化粧顔生成処理を実行するための機能的構成を示す機能ブロック図である。
本実施形態において、化粧顔生成処理が実行される場合、図10に示すように、記憶部19の一領域には、標準化テーブル記憶部72が設定される。
標準化テーブル記憶部72には、人物の特性を表す各種要素に対応する復元処理用関数が格納された人物特性標準化テーブルと、撮影条件を表す各種要素に対応する復元処理用関数が格納された撮影条件標準化テーブルとが記憶される。
ここで、人物の特性とは、年代、性別、人種等、被写体となる人物に関連する要素である。
また、撮影条件とは、撮影時刻、撮影位置、気候、色温度等、撮影時の条件に関連する要素である。
本実施形態における復元処理とは、人物特性標準化テーブル及び撮影条件標準化テーブルを参照し、化粧顔生成処理の対象となる人物の顔の画像を、その人物の特性に対応する標準的な顔の状態であって、標準的な撮影条件の下での顔の状態に変換する処理である。
FIG. 10 is a functional block diagram illustrating a functional configuration for executing the makeup face generation process among the functional configurations of the image processing apparatus 1 according to the present embodiment.
In the present embodiment, when the makeup face generation process is executed, a standardized table storage unit 72 is set in one area of the storage unit 19 as shown in FIG.
The standardization table storage unit 72 stores a person characteristic standardization table that stores restoration processing functions corresponding to various elements representing the characteristics of a person, and a photographing that stores restoration processing functions corresponding to various elements representing photographing conditions. A condition standardization table is stored.
Here, the characteristics of the person are elements related to the person as the subject, such as age, gender, race, and the like.
The shooting conditions are elements related to shooting conditions such as shooting time, shooting position, climate, and color temperature.
The restoration process in the present embodiment refers to the person characteristic standardization table and the photographing condition standardization table, and the person's face image to be subjected to the makeup face generation process is converted into a standard face state corresponding to the person characteristic. In this process, the face state is converted under standard shooting conditions.

図11は、人物特性標準化テーブルのデータ構成例を示す模式図である。
図11に示すように、人物特性標準化テーブルには、人物の特性を表す各要素に対して、顔の画像を標準的な状態に変換するための画像処理方法を表す復元処理用関数が格納されている。なお、図11において、復元処理用関数はFの符号で表され、復元処理用関数Fにおいて異なるものは、符号に添え字j(jは自然数)を付して示している。
図11における復元処理用関数は、人物の特性を表す各要素(年代(10代、20代・・・)、性別(男性、女性)、人種(白色人種、黄色人種、黒色人種・・・)等)の組み合わせそれぞれに対応する特性のものである。
FIG. 11 is a schematic diagram illustrating a data configuration example of the person characteristic standardization table.
As shown in FIG. 11, the person characteristic standardization table stores a restoration processing function representing an image processing method for converting a face image into a standard state for each element representing a person characteristic. ing. In FIG. 11, the restoration processing function is represented by the symbol F, and the difference in the restoration processing function F is indicated by a suffix j (j is a natural number).
The restoration processing function in FIG. 11 includes elements (characters (10's, 20's ...), gender (male, female), race (white, yellow, black) ...) Etc.)).

また、図12は、撮影条件標準化テーブルのデータ構成例を示す模式図である。
図12に示すように、撮影条件標準化テーブルには、撮影条件を表す各要素に対して、顔の画像を標準的な状態に変換するための画像処理方法を表す復元処理用関数が格納されている。なお、図12において、復元処理用関数はGの符号で表され、復元処理用関数Gにおいて異なるものは、符号に添え字k(kは自然数)を付して示している。
図12における復元処理用関数は、撮影条件を表す各要素(撮影時刻(時)、撮影位置(経緯度、高度)、気候(気候区分)、色温度(K)等)の組み合わせそれぞれに対応する特性のものである。
FIG. 12 is a schematic diagram illustrating a data configuration example of the imaging condition standardization table.
As shown in FIG. 12, the photographing condition standardization table stores a restoration processing function representing an image processing method for converting a face image into a standard state for each element representing the photographing condition. Yes. In FIG. 12, the restoration processing function is represented by a symbol G, and the difference in the restoration processing function G is indicated by a suffix k (k is a natural number).
The restoration processing function in FIG. 12 corresponds to each combination of each element (shooting time (hour), shooting position (latitude, latitude, altitude), climate (climate classification), color temperature (K), etc.) representing the shooting conditions. It is characteristic.

本実施形態において、判別部53は、画像取得部51によって取得された画像から、顔検出部52によって検出された顔の状態を判別する。具体的には、判別部53は、画像取得部51によって取得された画像から、顔検出部52によって検出された顔の画像に基づいて、その顔の状態が、人物の特性を表す各要素のいずれに該当するかを判別する。また、判別部53は、顔検出部52によって顔が検出された画像が撮影された際の撮影条件が、撮影条件を表す各要素のいずれに該当するかを判別する。例えば、判別部53は、顔検出部52によって検出された顔が、「10代」、「20代」・・・のいずれの年代に該当するか等を、顔情報を解析することにより特定する。また、判別部53は、顔検出部52によって顔が検出された画像の撮影条件を表す情報から、撮影時刻や撮影位置等を特定する。なお、顔検出部52によって顔が検出された画像の撮影条件を表す情報は、この画像が撮像部16によって撮像されたものである場合、撮像部16が撮像した際の撮影条件から取得することができる。また、この画像が外部から取得されたものである場合、画像に付加されている撮影条件を表す情報から取得することができる。   In the present embodiment, the determination unit 53 determines the state of the face detected by the face detection unit 52 from the image acquired by the image acquisition unit 51. Specifically, based on the face image detected by the face detection unit 52 from the image acquired by the image acquisition unit 51, the determination unit 53 has each face state of each element representing the characteristics of the person. Determine which is the case. Further, the determination unit 53 determines which of the elements representing the shooting conditions corresponds to the shooting condition when the image in which the face is detected by the face detection unit 52 is shot. For example, the discriminating unit 53 specifies by analyzing the face information whether the face detected by the face detecting unit 52 corresponds to the age group of “10's”, “20's”, etc. . In addition, the determination unit 53 specifies the shooting time, the shooting position, and the like from the information indicating the shooting condition of the image in which the face is detected by the face detection unit 52. In addition, the information showing the imaging conditions of the image in which the face is detected by the face detection unit 52 is acquired from the imaging conditions when the imaging unit 16 captures the image when the image is captured by the imaging unit 16. Can do. Further, when this image is acquired from the outside, it can be acquired from information representing the imaging condition added to the image.

調整部54は、人物特性標準化テーブル及び撮影条件標準化テーブルを参照し、判別部53によって判別された人物の特性を表す各要素に対応する復元処理用関数と、撮影条件を表す各要素との組み合わせに対応する復元処理用関数とを取得する。そして、調整部54は、顔検出部52によって検出された顔の画像に、取得した各復元処理用関数を適用し、顔検出部52によって検出された顔を標準的な状態(人物の特性に対応する標準的な顔の状態であって、標準的な撮影条件の下での顔の状態)に調整する。
即ち、これら判別部53及び調整部54によって、復元処理が実行される。
なお、復元処理においては、人物の特性を表す各要素に対する標準化(人物の特性を表す各要素に対応する復元処理用関数の適用)と、撮影条件を表す各要素に対する標準化(撮影条件を表す各要素に対応する復元処理用関数の適用)とのいずれかのみを行うこととしてもよい。
The adjustment unit 54 refers to the person characteristic standardization table and the photographing condition standardization table, and combines a restoration processing function corresponding to each element representing the characteristic of the person determined by the determination unit 53 and each element representing the photographing condition. And a restoration processing function corresponding to. Then, the adjustment unit 54 applies each acquired restoration processing function to the face image detected by the face detection unit 52, and changes the face detected by the face detection unit 52 to a standard state (character characteristics). The corresponding standard face state, and the face state under standard shooting conditions).
That is, the restoration process is executed by the determination unit 53 and the adjustment unit 54.
In the restoration process, standardization for each element representing the characteristics of the person (application of a restoration processing function corresponding to each element representing the characteristics of the person) and standardization for each element representing the shooting conditions (each representing the shooting conditions) Application of the restoration processing function corresponding to the element) may be performed.

美顔処理部55は、調整部54によって標準的な状態とされた顔の画像に対して、美顔処理を施す。本実施形態において、美顔処理部55は、美顔処理として、美白処理及び美肌処理を顔の画像に施すものとする。   The face processing unit 55 performs face processing on the face image that has been brought into a standard state by the adjustment unit 54. In the present embodiment, the face beauty processing unit 55 performs a whitening process and a skin beautification process on the face image as the face treatment.

リメイクアップ部56は、美顔処理部55によって美顔処理が施された顔の画像に対して、ユーザによって指定された種類の化粧を施す画像処理を実行する。このとき、リメイクアップ部56は、画像処理によって化粧を施す既知の処理を用いて、美顔処理が施された顔の画像に対して化粧を施すことができる。なお、美顔処理を目的とする場合、化粧を施す画像処理を省略することができる。
また、本実施形態におけるリメイクアップ部56は、美顔処理が施された顔の画像に対して、調整部54において復元処理に用いられた復元処理用関数の逆関数を適用する。即ち、リメイクアップ部56は、顔検出部52によって検出された顔を標準的な状態に変換する処理の逆変換を行う。この場合、標準的な状態とされて美顔処理が施された人物の顔に、化粧顔生成処理の対象となった顔の画像と標準的な状態とされた顔の画像との差分を再び適用することができるため、美顔処理に適する状態で美顔処理を行った上で、その人物の特性や撮影時の状況を反映した顔に変換する(標準的な状態とされる前の美顔処理に適さない状態の特徴を反映する)ことができる。
The remake-up unit 56 performs image processing for applying the type of makeup specified by the user to the face image that has been subjected to the facial processing by the facial processing unit 55. At this time, the remake-up unit 56 can apply makeup to the face image that has been subjected to the facial treatment process using a known process for applying makeup by image processing. In addition, when aiming at beautiful face processing, image processing for applying makeup can be omitted.
In addition, the remake-up unit 56 according to the present embodiment applies an inverse function of the restoration processing function used in the restoration process in the adjustment unit 54 to the face image that has undergone the facial beauty process. That is, the remake-up unit 56 performs reverse conversion of processing for converting the face detected by the face detection unit 52 into a standard state. In this case, the difference between the image of the face that is the target of the makeup face generation process and the image of the face that is in the standard state is applied again to the face of the person who has been subjected to the facial treatment in the standard state. Therefore, after performing facial processing in a state suitable for facial processing, it is converted to a face that reflects the characteristics of the person and the situation at the time of shooting (suitable for facial processing before standard state) Can reflect the characteristics of no state).

なお、リメイクアップ部56は、リメイクアップ処理の種類に応じて、リメイクアップ処理後の顔の画像に対して、平滑化処理を施す。例えば、リメイクアップ部56は、リメイクアップ処理において、チークが濃い種類の化粧を施された場合には、チークの赤色領域と、顔の肌色領域との境界を滑らかにする平滑化処理を施す。   The remake-up unit 56 performs a smoothing process on the face image after the remake-up process according to the type of the re-make-up process. For example, the remake-up unit 56 performs a smoothing process for smoothing the boundary between the red area of the cheek and the skin color area of the face when a makeup having a dark cheek is applied in the remake-up process.

テーブル管理部57は、標準化テーブル記憶部72に記憶される人物特性標準化テーブル及び撮影条件標準化テーブルのデータを管理する。具体的には、テーブル管理部57は、人物特性標準化テーブル及び撮影条件標準化テーブルを新しいバージョンのものに更新したり、人物特性標準化テーブル及び撮影条件標準化テーブルの内容をユーザの指示に応じて修正したりする。
なお、本実施形態においては、人物特性標準化テーブル及び、撮影条件標準化テーブルの生成方法を特に開示しないが、第1実施形態における復元/リメイクアップテーブルと同様の処理により生成可能である。
The table management unit 57 manages the data of the person characteristic standardization table and the shooting condition standardization table stored in the standardization table storage unit 72. Specifically, the table management unit 57 updates the person characteristic standardization table and the shooting condition standardization table to a new version, or corrects the contents of the person characteristic standardization table and the shooting condition standardization table according to a user instruction. Or
In the present embodiment, the method for generating the person characteristic standardization table and the shooting condition standardization table is not disclosed in particular, but can be generated by the same processing as the restoration / remake-up table in the first embodiment.

このような構成の下、第1実施形態における化粧顔生成処理(図4参照)と同様の処理を行うことにより、本実施形態に係る画像処理装置1では、化粧顔生成処理の対象となる人物の顔の画像を、その人物の特性に対応する標準的な顔の状態であって、標準的な撮影条件の下での顔の状態に変換(復元処理)した上で、その被写体の顔に美白処理及び美肌処理を含む美顔処理を施すことができる。そして、本実施形態に係る画像処理装置1は、美顔処理が施された被写体の顔に、ユーザが指定する化粧を施すリメイクアップ処理を画像処理によって行い、さらに、復元処理用関数の逆関数を適用する(標準化に対する逆変換を行う)ことができる。
これにより、人物の特性や撮像状況といった人物の顔の状態によらず、美顔処理の効果に違いが出ないようにすることができると共に、美顔処理を施した上で、所定の化粧を施し、さらに、その人物の特性や撮影時の状況(撮像状況)を反映した顔に変換する画像処理を実行することができる。また、このような効果を第1実施形態に比べて簡単な処理によって実現することができる。
By performing the same process as the makeup face generation process (see FIG. 4) in the first embodiment under such a configuration, in the image processing apparatus 1 according to the present embodiment, the person who is the target of the makeup face generation process Is converted into a standard facial state corresponding to the characteristics of the person and converted to a facial state under standard shooting conditions (restoration process), Facial treatment including whitening treatment and skin treatment can be performed. Then, the image processing apparatus 1 according to the present embodiment performs a remake-up process for applying makeup specified by the user on the face of the subject that has undergone the facial beauty process by the image process, and further calculates an inverse function of the function for the restoration process. It can be applied (inverse conversion to standardization).
As a result, regardless of the person's face state such as the person's characteristics and imaging conditions, it is possible to prevent a difference in the effect of the facial treatment, and after applying the facial treatment, a predetermined makeup is applied, Furthermore, it is possible to execute image processing for converting into a face reflecting the characteristics of the person and the situation at the time of photographing (imaging situation). Further, such an effect can be realized by a simple process compared to the first embodiment.

[変形例1]
第1実施形態において、化粧顔生成処理の対象となる画像の顔の状態を判別する場合に、複数の人物について、化粧を施されていない状態(スッピン状態)の顔画像のデータと化粧を施された状態の顔画像のデータとが、その人物の肌の色及び化粧の種類毎に分類されたデータ(上述の「分類別顔画像データ」)を参照して判別することとしてもよい。
即ち、本変形例では、化粧顔生成処理が実行される場合に、記憶部19に分類別顔画像データを記憶しておく。
そして、化粧顔生成処理の対象となる画像における顔に復元処理を施す際に、判別部53は、顔検出部52によって検出された顔の状態が、分類別顔画像データのいずれの分類(各種肌の色及び各種化粧の種類)に属するか、即ち、各種肌の色及び各種化粧の種類のいずれに対応する状態で化粧を施されているかを判別する。このとき、判別部53は、分類別顔画像データにおける化粧を施された状態の顔画像のデータのうち、顔検出部52によって検出された顔(化粧を施されている顔)の画像のデータが最も合致するものを検出し、検出された顔画像のデータが属する分類に、顔検出部52によって検出された顔が属するものと判別することができる。
[Modification 1]
In the first embodiment, when determining the face state of an image to be subjected to a makeup face generation process, the face image data and makeup of a state where makeup is not applied (suppin state) are applied to a plurality of persons. It is also possible to discriminate the face image data in the determined state with reference to the data classified by the person's skin color and makeup type (the “classified face image data” described above).
That is, in this modification, when the makeup face generation process is executed, the classified face image data is stored in the storage unit 19.
Then, when the restoration process is performed on the face in the image that is the target of the makeup face generation process, the determination unit 53 determines whether the face state detected by the face detection unit 52 is any of the classified face image data (various types). Skin color and various makeup types), that is, whether the makeup is applied in a state corresponding to any of various skin colors and various makeup types. At this time, the determination unit 53 includes image data of a face (a face on which makeup is applied) detected by the face detection unit 52 among face image data in a state where makeup is applied in the classified face image data. Can be discriminated that the face detected by the face detection unit 52 belongs to the classification to which the detected face image data belongs.

[変形例2]
第1実施形態において、第2実施形態と同様に、化粧顔生成処理の対象となる画像の撮影条件を表す各要素を特定し、顔検出部52によって検出された顔を、標準的な撮影条件の下での顔の状態に変換することとしてもよい。この場合、標準的な撮影条件の下での顔の状態とされた顔の画像に対して、復元処理を実行し、スッピン状態とすることができる。
これにより、第1実施形態の構成においても、撮影条件の相違の影響を低減し、美顔処理を施すためにより適切な状態で、美顔処理を施すことが可能となる。
[Modification 2]
In the first embodiment, as in the second embodiment, each element representing the shooting condition of the image to be subjected to the makeup face generation process is specified, and the face detected by the face detection unit 52 is changed to the standard shooting condition. It is good also as converting into the state of the face under. In this case, it is possible to execute a restoration process on the face image that is assumed to be in the face state under the standard shooting conditions, so as to be in the suspend state.
Thereby, also in the configuration of the first embodiment, it is possible to reduce the influence of the difference in the photographing conditions and perform the facial processing in a more appropriate state for performing the facial processing.

以上のように構成される画像処理装置1は、顔検出部52と、判別部53と、調整部54とを備える。
顔検出部52は、画像に含まれる人物の顔を検出する。
判別部53は、検出した人物の顔の画像部分の状態を判別する。
調整部54は、判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する。
これにより、人物の顔を、美顔処理を施すのに適切な状態に調整することができると共に、美顔処理を施した上で、所定の化粧を施す画像処理を実行することができる。
The image processing apparatus 1 configured as described above includes a face detection unit 52, a determination unit 53, and an adjustment unit 54.
The face detection unit 52 detects the face of a person included in the image.
The determination unit 53 determines the state of the image portion of the detected human face.
The adjustment unit 54 adjusts the image portion of the person's face to a state suitable for performing the facial treatment process according to the determined face state of the person.
Thus, the face of the person can be adjusted to a state suitable for performing the facial processing, and image processing for applying a predetermined makeup can be executed after performing the facial processing.

判別部53は、参照情報であって、美顔処理を施すのに適切でない状態の人物の顔に係る情報と、美顔処理を施すのに適切な状態の人物の顔に係る情報と、が対応付けられている参照情報を参照して、検出した人物の顔の画像部分の状態を判別する。
これにより、予め用意されている参照情報を参照して、人物の顔の画像部分の状態を適切に判別することができる。
The determination unit 53 associates information related to the face of a person in a state that is reference information and is not appropriate for performing the facial processing with information related to the face of the person in an appropriate state for performing the facial processing. The state of the image portion of the detected human face is determined with reference to the reference information.
Thereby, the state of the image part of the person's face can be appropriately determined with reference to the reference information prepared in advance.

美顔処理を施すのに適切でない状態の人物の顔に係る情報は、化粧が施されている状態の人物の顔に係る情報であって、美顔処理を施すのに適切な状態の人物の顔に係る情報は、化粧が施されていない状態の人物の顔に係る情報である。
判別部53は、検出した人物の顔の画像部分と合致すると判定される、化粧が施されている状態の人物の顔に係る情報を検索して、予め化粧が施されている人物の顔の状態を判別する。
調整部54は、判別した化粧が施されている状態の人物の顔に係る情報に対応する化粧が施されていない状態の人物の顔に係る情報に基づき、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する。
これにより、化粧が施されている状態の人物の顔を、化粧が施されていない状態に簡単に調整することができる。
The information relating to the face of a person who is not suitable for performing the facial treatment is information relating to the face of the person in a state where makeup has been applied. Such information is information relating to the face of a person who has not been put on makeup.
The determination unit 53 searches for information related to the face of the person who has been subjected to makeup, which is determined to match the image portion of the detected person's face, Determine the state.
The adjustment unit 54 converts the image portion of the person's face into a beauty face based on the information related to the face of the person who has not been subjected to the makeup corresponding to the information related to the face of the person who has been subjected to the determined makeup. Adjust to the appropriate state for processing.
Thereby, the face of the person in the state where makeup is applied can be easily adjusted to the state where makeup is not applied.

化粧が施されている状態の人物の顔に係る情報は、化粧が施されている状態の人物の顔を撮影して取得される情報であって、美顔処理を施すのに適切な状態の人物の顔に係る情報は、化粧が施されている状態の人物と同じ人物の化粧が施されていない状態の顔を撮影して取得される情報である。
これにより、同一人物における化粧が施された状態の顔と化粧が施されていない状態の顔とを実際に撮影して取得される情報を用いて、検出された人物の顔の画像部分の状態を判別すること等が可能となる。
The information related to the face of the person in the makeup state is information acquired by photographing the face of the person in the makeup state, and the person in the state suitable for performing the facial treatment The information relating to the face is information obtained by photographing a face of a person who is not makeupd by the same person as that of the person who is makeupd.
Thus, the state of the image portion of the detected person's face using information obtained by actually photographing the face with the makeup and the face without the makeup of the same person. Can be determined.

化粧が施されている状態の人物の顔に予め施されている化粧は、画像に含まれる人物自らにより予め施されている化粧、または人物の顔の画像部分に予め画像処理により施されている化粧である。
これにより、実際に顔に施された化粧及び画像処理によって顔に施された化粧のいずれの場合も、処理に用いることが可能となる。
The makeup preliminarily applied to the face of the person in the state where makeup is applied is preliminarily applied by the person himself / herself included in the image, or is applied in advance to the image portion of the person's face by image processing. Makeup.
As a result, both the makeup actually applied to the face and the makeup applied to the face by image processing can be used for the processing.

美顔処理を施すのに適切でない状態の人物の顔に係る情報は、人物の顔から推測される人物の特性であって、美顔処理を施すのに適切な状態の人物の顔に係る情報は、推測される人物の特性に応じて施すべき画像処理の内容である。
判別部53は、検出した人物の顔の画像部分からその人物の特性を推測して、検出した人物の顔の画像部分の状態を判別する。
調整部54は、判別した人物の特性に応じて施すべき画像処理を施すことで、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する。
これにより、人物の特性に適合する処理によって、美顔処理を施すのに適切な状態に調整することができる。
The information related to the face of the person that is not appropriate for performing the facial processing is the characteristics of the person inferred from the face of the person, and the information related to the face of the person in an appropriate state for performing the facial processing is This is the content of image processing to be performed according to the estimated characteristics of the person.
The determination unit 53 estimates the characteristics of the person from the detected image portion of the face of the person, and determines the state of the detected image portion of the face of the person.
The adjustment unit 54 performs image processing to be performed according to the determined characteristics of the person, thereby adjusting the image portion of the person's face to a state suitable for performing the face beauty process.
As a result, it is possible to adjust to a state suitable for performing the facial treatment process by the process suitable for the characteristics of the person.

美顔処理を施すのに適切でない状態の人物の顔に係る情報は、画像が撮像された際の撮像状況であって、美顔処理を施すのに適切な状態の人物の顔に係る情報は、撮像状況に応じて施すべき画像処理である。
判別部53は、画像の撮像状況を取得し、検出した人物の顔の画像部分の状態を判別する。
調整部54は、判別した撮像状況に応じて施すべき画像処理を施すことで、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する。
これにより、撮像状況に適合する処理によって、美顔処理を施すのに適切な状態に調整することができる。
The information related to the face of the person that is not appropriate for performing the facial processing is the imaging state when the image is captured, and the information related to the face of the person in an appropriate state for performing the facial processing is captured. This is image processing to be performed according to the situation.
The determination unit 53 acquires the imaging state of the image and determines the state of the image portion of the detected human face.
The adjustment unit 54 performs image processing to be performed according to the determined imaging state, thereby adjusting the image portion of the person's face to a state suitable for performing the facial treatment process.
Thereby, it is possible to adjust to a state suitable for performing the facial treatment process by the process suitable for the imaging state.

美顔処理を施すのに適切な状態に調整した人物の顔の画像部分に、美顔処理を施す美顔処理手段をさらに備える。
これにより、より適切な美顔処理結果を得ることが可能となる。
The image processing apparatus further includes a face processing unit that performs the face processing on the image portion of the face of the person adjusted to an appropriate state for performing the face processing.
This makes it possible to obtain a more appropriate face processing result.

美顔処理を施した人物の顔の画像部分に、さらに、ユーザにより指定された化粧に対応する画像処理を施すリメイクアップ手段をさらに備える。
これにより、より適切なリメイクアップ処理の結果を得ることが可能となる。
The image processing unit further includes remake-up means for performing image processing corresponding to the makeup designated by the user on the image portion of the face of the person that has been subjected to the facial treatment.
This makes it possible to obtain a more appropriate remake process result.

美顔処理を施した人物の顔の画像部分を、さらに、美顔処理が施された状態を維持したまま、調整する前の美顔処理を施すのに適切でない状態に戻す画像処理を行うリメイクアップ手段をさらに備える。
これにより、人物の特性をより適切に反映させつつ、美顔処理を行うことが可能となる。
Remake-up means for performing image processing for returning an image portion of the face of a person that has undergone facial processing to a state that is not appropriate for performing facial processing prior to adjustment while maintaining the state in which facial processing has been performed Further prepare.
As a result, it is possible to perform the facial treatment while more appropriately reflecting the characteristics of the person.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

例えば、上述の各実施形態において、美顔処理は、被写体の顔に美白処理及び美肌処理を施すものとしたが、これに限らず、肌の色を褐色にしたりするような処理であってもよい。   For example, in each of the above-described embodiments, the facial beauty processing is performed by performing whitening processing and skin whitening processing on the face of the subject. However, the present invention is not limited thereto, and may be processing such as making the skin color brown. .

また、上述の各実施形態において、化粧顔生成処理の対象となる画像の顔に施されている化粧は、実際の化粧品による化粧であってもよいし、画像処理によって施された化粧であってもよい。   Further, in each of the above-described embodiments, the makeup applied to the face of the image to be subjected to the makeup face generation process may be an actual makeup or a makeup applied by image processing. Also good.

また、上述の各実施形態において、化粧顔生成処理の対象となる画像は、画像処理装置1において新たに撮像されたものを用いたり、記録済みのもの(外部から取得したもの等)を用いたりすることのいずれも可能である。記録済みの画像を用いる場合であって、その画像の撮影条件が処理に用いられる場合には、撮影条件を表す情報が付加された記録済みの画像を用いることが望ましい。   Further, in each of the above-described embodiments, the image that is the target of the makeup face generation process is a newly captured image in the image processing apparatus 1 or a recorded image (such as an image acquired from the outside) is used. Any of these can be done. When a recorded image is used and the shooting condition of the image is used for processing, it is desirable to use a recorded image to which information indicating the shooting condition is added.

また、上述の実施形態では、本発明が適用される画像処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an image processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
The functional configuration in the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment is configured by various processing devices such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, these various processing apparatuses and a combination of processing circuits such as ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array) are included.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disc), a Blu-ray (registered trademark) Disc (Blu-ray Disc), and the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像に含まれる人物の顔を検出する検出手段と、
検出した人物の顔の画像部分の状態を判別する判別手段と、
判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する調整手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記判別手段は、参照情報であって、美顔処理を施すのに適切でない状態の人物の顔に係る情報と、美顔処理を施すのに適切な状態の人物の顔に係る情報と、が対応付けられている参照情報を参照して、検出した人物の顔の画像部分の状態を判別することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記美顔処理を施すのに適切でない状態の人物の顔に係る情報は、化粧が施されている状態の人物の顔に係る情報であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、化粧が施されていない状態の人物の顔に係る情報であり、
前記判別手段は、検出した人物の顔の画像部分と合致すると判定される、前記化粧が施されている状態の人物の顔に係る情報を検索して、予め化粧が施されている人物の顔の状態を判別し、
前記調整手段は、判別した前記化粧が施されている状態の人物の顔に係る情報に対応する前記化粧が施されていない状態の人物の顔に係る情報に基づき、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整することを特徴とする付記2に記載の画像処理装置。
[付記4]
前記化粧が施されている状態の人物の顔に係る情報は、前記化粧が施されている状態の人物の顔を撮影して取得される情報であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、前記化粧が施されている状態の人物と同じ人物の化粧が施されていない状態の顔を撮影して取得される情報であることを特徴とする付記3に記載の画像処理装置。
[付記5]
前記化粧が施されている状態の人物の顔に予め施されている化粧は、画像に含まれる人物自らにより予め施されている化粧、または人物の顔の画像部分に予め画像処理により施されている化粧であることを特徴とする付記3に記載の画像処理装置。
[付記6]
前記美顔処理を施すのに適切でない状態の人物の顔に係る情報は、人物の顔から推測される人物の特性であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、推測される人物の特性に応じて施すべき画像処理の内容であり、
前記判別手段は、検出した人物の顔の画像部分からその人物の特性を推測して、検出した人物の顔の画像部分の状態を判別し、
前記調整手段は、判別した人物の特性に応じて施すべき画像処理を施すことで、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整することを特徴とする付記2から5のいずれか1つに記載の画像処理装置。
[付記7]
前記美顔処理を施すのに適切でない状態の人物の顔に係る情報は、画像が撮像された際の撮像状況であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、前記撮像状況に応じて施すべき画像処理であり、
前記判別手段は、画像の前記撮像状況を取得し、検出した人物の顔の画像部分の状態を判別し、
前記調整手段は、判別した前記撮像状況に応じて施すべき画像処理を施すことで、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整することを特徴とする付記2から5のいずれか1つに記載の画像処理装置。
[付記8]
前記美顔処理を施すのに適切な状態に調整した人物の顔の画像部分に、美顔処理を施す美顔処理手段をさらに備えることを特徴とする付記1から7のいずれか1つに記載の画像処理装置。
[付記9]
美顔処理を施した人物の顔の画像部分に、さらに、ユーザにより指定された化粧に対応する画像処理を施すリメイクアップ手段をさらに備えることを特徴とする付記8に記載の画像処理装置。
[付記10]
前記美顔処理を施した人物の顔の画像部分を、さらに、美顔処理が施された状態を維持したまま、調整する前の美顔処理を施すのに適切でない状態に戻す画像処理を行うリメイクアップ手段をさらに備えることを特徴とする付記8に記載の画像処理装置。
[付記11]
画像処理装置が実行する画像処理方法であって、
画像に含まれる人物の顔を検出する検出処理と、
検出した人物の顔の画像部分の状態を判別する判別処理と、
判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する調整処理と、
を含むことを特徴とする画像処理方法。
[付記12]
コンピュータに、
画像に含まれる人物の顔を検出する検出機能と、
検出した人物の顔の画像部分の状態を判別する判別機能と、
参照情報を参照し、判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する調整機能と、
を実現させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Detecting means for detecting a human face included in the image;
A discriminating means for discriminating the state of the image portion of the detected human face;
Adjusting means for adjusting the image portion of the person's face to an appropriate state for performing the facial treatment according to the determined state of the person's face;
An image processing apparatus comprising:
[Appendix 2]
The discriminating means associates information relating to a person's face in a state that is reference information and is not suitable for performing a facial treatment, and information relating to a person's face in a state suitable for performing the facial treatment. The image processing apparatus according to claim 1, wherein the state of the image portion of the detected human face is determined with reference to the reference information.
[Appendix 3]
The information relating to the face of the person who is not suitable for performing the facial treatment is information relating to the face of the person in the state of being applied with makeup, and the information of the person in an appropriate state for performing the facial treatment The information about the face is information about the face of a person who has not been put on makeup,
The discriminating means searches for information relating to the face of the person with the makeup applied, which is determined to match the image portion of the detected person's face, and the face of the person with the makeup applied in advance Determine the state of
The adjusting means is configured to determine an image portion of the person's face based on the information related to the face of the person who is not applied with the makeup corresponding to the information related to the face of the person who is applied with the determined makeup. The image processing apparatus according to appendix 2, wherein the image processing apparatus is adjusted to a state suitable for performing the facial treatment.
[Appendix 4]
The information relating to the face of the person in the makeup state is information acquired by photographing the face of the person in the makeup state, and is appropriate for performing the face processing. The information relating to the face of the person in the state is information acquired by photographing a face in a state where the makeup of the same person as the person in the state of makeup is not applied. An image processing apparatus according to 1.
[Appendix 5]
The makeup preliminarily applied to the face of the person in a state where the makeup is applied is applied in advance to the makeup included in the image by the person himself or the image portion of the person's face in advance by image processing. The image processing apparatus according to appendix 3, wherein the makeup is makeup.
[Appendix 6]
The information related to the face of the person that is not suitable for performing the face processing is a characteristic of the person estimated from the face of the person, and the information related to the face of the person in a state suitable for performing the face processing Is the content of the image processing to be performed according to the estimated characteristics of the person,
The determining means estimates the characteristics of the person from the detected image portion of the face of the person, determines the state of the detected image portion of the face of the person,
From the supplementary note 2, the adjustment means adjusts the image portion of the person's face to an appropriate state for performing the facial treatment process by performing image processing to be performed according to the determined characteristics of the person. The image processing apparatus according to any one of 5.
[Appendix 7]
The information related to the face of the person that is not appropriate for performing the face processing is an imaging state when the image is captured, and the information related to the face of the person in an appropriate state for performing the face processing is , Image processing to be performed according to the imaging situation,
The determining means acquires the imaging state of the image, determines the state of the image portion of the detected human face,
From the supplementary note 2, the adjusting means adjusts the image portion of the person's face to an appropriate state for performing the beauty processing by performing image processing to be performed according to the determined imaging state. The image processing apparatus according to any one of 5.
[Appendix 8]
The image processing according to any one of appendices 1 to 7, further comprising a facial processing unit that performs facial processing on an image portion of a human face adjusted to an appropriate state for performing the facial processing. apparatus.
[Appendix 9]
The image processing apparatus according to appendix 8, further comprising remake-up means for performing image processing corresponding to the makeup designated by the user on the image portion of the face of the person that has been subjected to the beautiful face processing.
[Appendix 10]
Remake-up means for performing image processing for returning the image portion of the person's face subjected to the facial processing to a state not suitable for performing the facial processing before adjustment while maintaining the state where the facial processing is performed The image processing apparatus according to appendix 8, further comprising:
[Appendix 11]
An image processing method executed by an image processing apparatus,
A detection process for detecting a human face included in the image;
A discrimination process for discriminating the state of the image portion of the detected human face;
An adjustment process that adjusts the image portion of the person's face to an appropriate state for performing the beauty process according to the determined face state of the person,
An image processing method comprising:
[Appendix 12]
On the computer,
A detection function for detecting a human face included in the image;
A discriminating function for discriminating the state of the image portion of the detected human face;
An adjustment function that refers to the reference information and adjusts the image portion of the person's face to an appropriate state for performing the facial treatment process according to the determined face state of the person;
A program characterized by realizing.

1・・・画像処理装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,51・・・画像取得部,52・・・顔検出部,53・・・判別部,54・・・調整部,55・・・美顔処理部,56・・・リメイクアップ部,57・・・テーブル管理部,58・・・関数生成部,71・・・復元/リメイクアップテーブル記憶部,72・・・標準化テーブル記憶部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... Imaging part, 17 ... Input unit 18 ... Output unit 19 ... Storage unit 20 ... Communication unit 21 ... Drive 31 ... Removable media 51 ... Image acquisition unit 52 ... Face detecting unit, 53... Discriminating unit, 54... Adjusting unit, 55 .. beauty face processing unit, 56 .. remake-up unit, 57. 71 ... Restoration / remake-up table storage unit, 72 ... Standardized table storage unit

Claims (12)

画像に含まれる人物の顔を検出する検出手段と、
検出した人物の顔の画像部分の状態を判別する判別手段と、
判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する調整手段と、
を備えることを特徴とする画像処理装置。
Detecting means for detecting a human face included in the image;
A discriminating means for discriminating the state of the image portion of the detected human face;
Adjusting means for adjusting the image portion of the person's face to an appropriate state for performing the facial treatment according to the determined state of the person's face;
An image processing apparatus comprising:
前記判別手段は、参照情報であって、美顔処理を施すのに適切でない状態の人物の顔に係る情報と、美顔処理を施すのに適切な状態の人物の顔に係る情報と、が対応付けられている参照情報を参照して、検出した人物の顔の画像部分の状態を判別することを特徴とする請求項1に記載の画像処理装置。   The discriminating means associates information relating to a person's face in a state that is reference information and is not suitable for performing a facial treatment, and information relating to a person's face in a state suitable for performing the facial treatment. The image processing apparatus according to claim 1, wherein the state of the image portion of the detected human face is determined with reference to the reference information. 前記美顔処理を施すのに適切でない状態の人物の顔に係る情報は、化粧が施されている状態の人物の顔に係る情報であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、化粧が施されていない状態の人物の顔に係る情報であり、
前記判別手段は、検出した人物の顔の画像部分と合致すると判定される、前記化粧が施されている状態の人物の顔に係る情報を検索して、予め化粧が施されている人物の顔の状態を判別し、
前記調整手段は、判別した前記化粧が施されている状態の人物の顔に係る情報に対応する前記化粧が施されていない状態の人物の顔に係る情報に基づき、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整することを特徴とする請求項2に記載の画像処理装置。
The information relating to the face of the person who is not suitable for performing the facial treatment is information relating to the face of the person in the state of being applied with makeup, and the information of the person in an appropriate state for performing the facial treatment The information about the face is information about the face of a person who has not been put on makeup,
The discriminating means searches for information relating to the face of the person with the makeup applied, which is determined to match the image portion of the detected person's face, and the face of the person with the makeup applied in advance Determine the state of
The adjusting means is configured to determine an image portion of the person's face based on the information related to the face of the person who is not applied with the makeup corresponding to the information related to the face of the person who is applied with the determined makeup. The image processing apparatus according to claim 2, wherein the image processing apparatus is adjusted to a state suitable for performing the facial treatment.
前記化粧が施されている状態の人物の顔に係る情報は、前記化粧が施されている状態の人物の顔を撮影して取得される情報であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、前記化粧が施されている状態の人物と同じ人物の化粧が施されていない状態の顔を撮影して取得される情報であることを特徴とする請求項3に記載の画像処理装置。   The information relating to the face of the person in the makeup state is information acquired by photographing the face of the person in the makeup state, and is appropriate for performing the face processing. The information related to the face of the person in the state is information obtained by photographing a face in a state where the makeup of the same person as the person in the state of being applied is not applied. The image processing apparatus according to 3. 前記化粧が施されている状態の人物の顔に予め施されている化粧は、画像に含まれる人物自らにより予め施されている化粧、または人物の顔の画像部分に予め画像処理により施されている化粧であることを特徴とする請求項3に記載の画像処理装置。   The makeup preliminarily applied to the face of the person in a state where the makeup is applied is applied in advance to the makeup included in the image by the person himself or the image portion of the person's face in advance by image processing. The image processing apparatus according to claim 3, wherein the image processing apparatus is makeup. 前記美顔処理を施すのに適切でない状態の人物の顔に係る情報は、人物の顔から推測される人物の特性であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、推測される人物の特性に応じて施すべき画像処理の内容であり、
前記判別手段は、検出した人物の顔の画像部分からその人物の特性を推測して、検出した人物の顔の画像部分の状態を判別し、
前記調整手段は、判別した人物の特性に応じて施すべき画像処理を施すことで、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
The information related to the face of the person that is not suitable for performing the face processing is a characteristic of the person estimated from the face of the person, and the information related to the face of the person in a state suitable for performing the face processing Is the content of the image processing to be performed according to the estimated characteristics of the person,
The determining means estimates the characteristics of the person from the detected image portion of the face of the person, determines the state of the detected image portion of the face of the person,
The adjustment means adjusts an image portion of a person's face to an appropriate state for performing a facial treatment process by performing image processing to be performed according to the determined characteristics of the person. 6. The image processing apparatus according to any one of items 1 to 5.
前記美顔処理を施すのに適切でない状態の人物の顔に係る情報は、画像が撮像された際の撮像状況であって、前記美顔処理を施すのに適切な状態の人物の顔に係る情報は、前記撮像状況に応じて施すべき画像処理であり、
前記判別手段は、画像の前記撮像状況を取得し、検出した人物の顔の画像部分の状態を判別し、
前記調整手段は、判別した前記撮像状況に応じて施すべき画像処理を施すことで、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
The information related to the face of the person that is not appropriate for performing the face processing is an imaging state when the image is captured, and the information related to the face of the person in an appropriate state for performing the face processing is , Image processing to be performed according to the imaging situation,
The determining means acquires the imaging state of the image, determines the state of the image portion of the detected human face,
The adjustment means adjusts an image portion of a person's face to an appropriate state for performing a facial treatment process by performing image processing to be performed according to the determined imaging situation. 6. The image processing apparatus according to any one of items 1 to 5.
前記美顔処理を施すのに適切な状態に調整した人物の顔の画像部分に、美顔処理を施す美顔処理手段をさらに備えることを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。   The image according to any one of claims 1 to 7, further comprising a face processing unit that performs a face processing on an image portion of a person's face adjusted to an appropriate state for performing the face processing. Processing equipment. 美顔処理を施した人物の顔の画像部分に、さらに、ユーザにより指定された化粧に対応する画像処理を施すリメイクアップ手段をさらに備えることを特徴とする請求項8に記載の画像処理装置。   9. The image processing apparatus according to claim 8, further comprising remake-up means for performing image processing corresponding to the makeup designated by the user on the image portion of the face of the person that has undergone the beauty processing. 前記美顔処理を施した人物の顔の画像部分を、さらに、美顔処理が施された状態を維持したまま、調整する前の美顔処理を施すのに適切でない状態に戻す画像処理を行うリメイクアップ手段をさらに備えることを特徴とする請求項8に記載の画像処理装置。   Remake-up means for performing image processing for returning the image portion of the person's face subjected to the facial processing to a state not suitable for performing the facial processing before adjustment while maintaining the state where the facial processing is performed The image processing apparatus according to claim 8, further comprising: 画像処理装置が実行する画像処理方法であって、
画像に含まれる人物の顔を検出する検出処理と、
検出した人物の顔の画像部分の状態を判別する判別処理と、
判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する調整処理と、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
A detection process for detecting a human face included in the image;
A discrimination process for discriminating the state of the image portion of the detected human face;
An adjustment process that adjusts the image portion of the person's face to an appropriate state for performing the beauty process according to the determined face state of the person,
An image processing method comprising:
コンピュータに、
画像に含まれる人物の顔を検出する検出機能と、
検出した人物の顔の画像部分の状態を判別する判別機能と、
参照情報を参照し、判別した人物の顔の状態に応じて、人物の顔の画像部分を、美顔処理を施すのに適切な状態に調整する調整機能と、
を実現させることを特徴とするプログラム。
On the computer,
A detection function for detecting a human face included in the image;
A discriminating function for discriminating the state of the image portion of the detected human face;
An adjustment function that refers to the reference information and adjusts the image portion of the person's face to an appropriate state for performing the facial treatment process according to the determined face state of the person;
A program characterized by realizing.
JP2016178586A 2016-09-13 2016-09-13 Image processing equipment, image processing methods and programs Active JP6897036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016178586A JP6897036B2 (en) 2016-09-13 2016-09-13 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016178586A JP6897036B2 (en) 2016-09-13 2016-09-13 Image processing equipment, image processing methods and programs

Publications (3)

Publication Number Publication Date
JP2018045366A true JP2018045366A (en) 2018-03-22
JP2018045366A5 JP2018045366A5 (en) 2019-10-24
JP6897036B2 JP6897036B2 (en) 2021-06-30

Family

ID=61693155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016178586A Active JP6897036B2 (en) 2016-09-13 2016-09-13 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6897036B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903249A (en) * 2019-01-29 2019-06-18 贾广袖 U.S. face processing method, storage equipment and mobile terminal based on face identification
CN110798614A (en) * 2019-10-14 2020-02-14 珠海格力电器股份有限公司 Photo shooting method, device, equipment and storage medium
CN111275650A (en) * 2020-02-25 2020-06-12 北京字节跳动网络技术有限公司 Beautifying processing method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010283A (en) * 2000-06-22 2002-01-11 Kao Corp Display method and processor for face image
JP2007257165A (en) * 2006-03-22 2007-10-04 Kao Corp Makeup simulation method
JP2014096836A (en) * 2014-01-08 2014-05-22 Nikon Corp Digital camera
WO2015127394A1 (en) * 2014-02-23 2015-08-27 Northeastern University System for beauty, cosmetic, and fashion analysis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010283A (en) * 2000-06-22 2002-01-11 Kao Corp Display method and processor for face image
JP2007257165A (en) * 2006-03-22 2007-10-04 Kao Corp Makeup simulation method
JP2014096836A (en) * 2014-01-08 2014-05-22 Nikon Corp Digital camera
WO2015127394A1 (en) * 2014-02-23 2015-08-27 Northeastern University System for beauty, cosmetic, and fashion analysis

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903249A (en) * 2019-01-29 2019-06-18 贾广袖 U.S. face processing method, storage equipment and mobile terminal based on face identification
CN110798614A (en) * 2019-10-14 2020-02-14 珠海格力电器股份有限公司 Photo shooting method, device, equipment and storage medium
CN111275650A (en) * 2020-02-25 2020-06-12 北京字节跳动网络技术有限公司 Beautifying processing method and device
US11769286B2 (en) 2020-02-25 2023-09-26 Beijing Bytedance Network Technology Co., Ltd. Beauty processing method, electronic device, and computer-readable storage medium
CN111275650B (en) * 2020-02-25 2023-10-17 抖音视界有限公司 Beauty treatment method and device

Also Published As

Publication number Publication date
JP6897036B2 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
US9838616B2 (en) Image processing method and electronic apparatus
JP6421794B2 (en) Image processing apparatus, image processing method, and program
KR20130031574A (en) Image processing method and image processing apparatus
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP6720881B2 (en) Image processing apparatus and image processing method
JP6859611B2 (en) Image processing equipment, image processing methods and programs
JP2018049564A (en) Detection device and detection method
US20160189413A1 (en) Image creation method, computer-readable storage medium, and image creation apparatus
JP2018206144A (en) Image processing apparatus, image processing method and program
CN105744179A (en) Image Capture Apparatus Capable of Processing Photographed Images
JP6897036B2 (en) Image processing equipment, image processing methods and programs
JP2018117289A (en) Image processing device, image processing method, and program
KR102562720B1 (en) Detection apparatus, image processing apparatus, detection method, and image processing method
JP2009200900A (en) Imaging apparatus
JP6033006B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP2014178146A (en) Image processing apparatus and method
JP2012003324A (en) Image processing system, imaging apparatus, image processing program and memory medium
JP6795062B2 (en) Detection device, detection method and program
JP5242756B2 (en) Image processing apparatus, image processing method, and camera
JP6980449B2 (en) Image processing device, control method and program of image processing device
JP4922066B2 (en) camera
KR20100098122A (en) Image processing method and apparatus, and digital photographing apparatus using thereof
JP7400196B2 (en) Electronic devices, image processing methods, and image processing programs
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium
US11523047B2 (en) Imaging device, imaging method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150