JP2009253324A - Image processing unit, image processing method, and program - Google Patents

Image processing unit, image processing method, and program Download PDF

Info

Publication number
JP2009253324A
JP2009253324A JP2008094748A JP2008094748A JP2009253324A JP 2009253324 A JP2009253324 A JP 2009253324A JP 2008094748 A JP2008094748 A JP 2008094748A JP 2008094748 A JP2008094748 A JP 2008094748A JP 2009253324 A JP2009253324 A JP 2009253324A
Authority
JP
Japan
Prior art keywords
correction
image
area
face
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008094748A
Other languages
Japanese (ja)
Inventor
Akio Yamazaki
明生 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008094748A priority Critical patent/JP2009253324A/en
Publication of JP2009253324A publication Critical patent/JP2009253324A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To effectively perform smoothing processing of an image. <P>SOLUTION: A face region detection section 51 detects a face region including an image of a face, where a face portion of a person on a target image is photographed. A correction section 52 specifies a compensation value based on the position of a prescribed region in an image region indicating a face in the face region, and corrects the color tone of the image by the compensation value. An output control section 53 generates display data or print data from the image data of the target image subjected to correction processing, supplies the display data to a display section for display, and supplies the print data to a printer engine for executing the print of the image based on the print data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。特に、効果的に画
像の平滑化処理を行うことができるようにした画像処理装置、画像処理方法、及びプログ
ラムに関する。
The present invention relates to an image processing apparatus, an image processing method, and a program. In particular, the present invention relates to an image processing apparatus, an image processing method, and a program capable of effectively performing an image smoothing process.

従来から、カラー画像データに基づいて、その画像データの画像の色調を補正する技術
が知られている。例えば、特許文献1では、撮像画像の中の人の顔が写っている画像領域
が検出され、その領域について、鮮やかな肌色になるように色調の平滑化が行われる。こ
のような画像補正処理により、顔画像上にあるシミやソバカス等を消すことができるので
(即ち、いわゆる美肌にすることができるので)、より印象のよい顔画像を提供すること
ができる。
特開2000−182043号公報
Conventionally, a technique for correcting the color tone of an image of image data based on color image data is known. For example, in Patent Document 1, an image region in which a human face is captured in a captured image is detected, and the tone of the region is smoothed so that a bright skin color is obtained. By such image correction processing, spots and freckles on the face image can be eliminated (that is, so-called beautiful skin can be obtained), and a more impressive face image can be provided.
JP 2000-182043 A

しかしながら特許文献1記載の方法では、顔の画像領域全体が平滑化されるので、本来
平滑化処理を施しくたくない、例えば目や口等の部分にも平滑化処理が施され、その部分
が、少しぼやけてしまうことがある。
However, in the method described in Patent Document 1, since the entire face image area is smoothed, it is not desired to perform the smoothing process. For example, a smoothing process is also performed on a part such as an eye or a mouth. It may be a little blurry.

また平滑化処理の補正強度が一律であるので、効果的な平滑化処理をすることができな
い。
Further, since the correction strength of the smoothing process is uniform, effective smoothing process cannot be performed.

本発明は、このような状況に鑑みてなされたものであり、効果的に画像の平滑化処理を
行うことができるようにするものである。
The present invention has been made in view of such a situation, and makes it possible to effectively perform an image smoothing process.

本発明の画像処理装置は、画像の色調を補正する画像処理装置であって、画像における
顔の画像を含む顔領域を検出する顔領域検出手段と、画像の色調を所定の補正量で補正す
る補正手段とを備え、補正手段は、顔領域内の顔を表す画像領域における所定領域の位置
に基づいて補正量を特定することを特徴とする。
An image processing apparatus of the present invention is an image processing apparatus that corrects the color tone of an image, and includes a face area detection unit that detects a face area including a face image in the image, and corrects the color tone of the image with a predetermined correction amount. And a correction unit, wherein the correction unit specifies a correction amount based on a position of a predetermined region in an image region representing a face in the face region.

補正手段は、顔形状を有する補正強度モデルであって、補正強度を表す補正値が設定さ
れている補正強度モデルを取得し、補正強度モデルに設定されている補正値を、顔領域に
マッピングし、マッピングされた補正値で顔領域の色調を補正することができる。
The correction means obtains a correction intensity model having a face shape and a correction value representing the correction intensity, and maps the correction value set in the correction intensity model to the face area. The color tone of the face area can be corrected with the mapped correction value.

補正強度モデルには、顔の位置に応じた補正量が設定されているようにすることができ
る。
In the correction strength model, a correction amount according to the position of the face can be set.

目の位置の補正量と頬の位置の補正量では、その大きさが異なるようにすることができ
る。
The correction amount of the eye position and the correction amount of the cheek position can be different.

補正手段は、顔領域の輪郭方向に向かって、色調の補正量を段階的に小さくすることが
できる。
The correction unit can reduce the correction amount of the color tone stepwise toward the contour direction of the face area.

本発明の画像処理方法、又はプログラムは、処理の対象となる対象画像の色調を補正す
る画像処理装置の画像処理方法であって、又は処理の対象となる対象画像の色調を補正す
る画像処理を、コンピュータに実行させるプログラムであって、対象画像上の顔の画像を
含む顔領域を検出する顔領域検出ステップと、顔領域内の部分によって異なる補正強度で
顔領域の色調を補正する補正ステップとを含むことを特徴とする。
An image processing method or program according to the present invention is an image processing method of an image processing apparatus for correcting the color tone of a target image to be processed, or performs image processing for correcting the color tone of a target image to be processed. A program executed by a computer for detecting a face area including a face image on a target image, and a correction step for correcting the color tone of the face area with different correction strength depending on a portion in the face area; It is characterized by including.

本発明の画像処理装置、画像処理方法、又はプログラムにおいては、対象画像上の顔の
画像を含む顔領域が検出され、顔領域内の部分によって異なる補正強度で顔領域の色調が
補正される。
In the image processing apparatus, the image processing method, or the program of the present invention, a face area including a face image on the target image is detected, and the color tone of the face area is corrected with different correction strength depending on the portion in the face area.

本発明によれば、効果的に画像の平滑化処理を行うことができる。   According to the present invention, an image smoothing process can be performed effectively.

以下、本発明の一実施の形態について、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明を適用したプリンタ1のハードウェアの構成例を示すブロック図である
。このプリンタ1は、メモリカード18等から取得した画像データに基づき画像を印刷す
る、いわゆるダイレクトプリントに対応したカラーインクジェットプリンタである。
FIG. 1 is a block diagram illustrating a hardware configuration example of a printer 1 to which the present invention is applied. The printer 1 is a color inkjet printer that supports so-called direct printing, in which an image is printed based on image data acquired from a memory card 18 or the like.

プリンタ1は、CPU11、内部メモリ12、操作部13、表示部14、プリンタエン
ジン15、及びカードインターフェース(カードI/F)16を備えている。
The printer 1 includes a CPU 11, an internal memory 12, an operation unit 13, a display unit 14, a printer engine 15, and a card interface (card I / F) 16.

CPU(central processing unit)11は、各部を制御して、内部メモリ12に格納
されているプログラムに応じて各種の処理を実行する。
A CPU (central processing unit) 11 controls each unit and executes various processes according to a program stored in the internal memory 12.

CPU11は、例えば人物の顔が写った画像を含む領域(以下、顔領域FAと称する)
の色調を平滑化する処理を行うが、その際、顔領域FA内の所定の部分(例えば、目、口
等の画像領域)を除く領域(以下、補正領域FCと称する)に対して平滑化を施す(以下
、この一連の処理を、第1の美肌処理Z1と称する)。CPU11はまた、顔領域FA内
の部分によって異なる補正強度で顔領域FAの平滑化を行う(以下、この一連の処理を、
第2の美肌処理Z2と称する)。
The CPU 11 includes, for example, an area including an image showing a person's face (hereinafter referred to as a face area FA).
In this case, smoothing is performed on an area (hereinafter referred to as a correction area FC) excluding a predetermined portion (for example, an image area such as an eye or a mouth) in the face area FA. (Hereinafter, this series of processes is referred to as a first skin beautifying process Z1). The CPU 11 also performs smoothing of the face area FA with different correction strength depending on the portion in the face area FA (hereinafter, a series of processes will be described as follows).
2nd skin treatment Z2).

内部メモリ12は、CPU11が実行する各種プログラムや各種データを格納している
ROM(Read Only Memory)、及びCPU11が実行対象とするプログラムやデータを一
時的に格納するRAM(Random Access Memory)によって構成されている。
The internal memory 12 includes a ROM (Read Only Memory) storing various programs executed by the CPU 11 and various data, and a RAM (Random Access Memory) temporarily storing programs and data to be executed by the CPU 11. Has been.

操作部13は、ボタンやタッチパネルの1つ又は複数より構成され、ユーザによる操作
内容をCPU11に通知する。
The operation unit 13 includes one or a plurality of buttons and a touch panel, and notifies the CPU 11 of the operation content by the user.

表示部14は、例えば液晶ディスプレイにより構成され、CPU11から供給されたデ
ータに対応する画像を表示する。
The display unit 14 is configured by a liquid crystal display, for example, and displays an image corresponding to the data supplied from the CPU 11.

プリンタエンジン15は、CPU11から供給された印刷データに基づき印刷を行う印
刷機構である。
The printer engine 15 is a printing mechanism that performs printing based on the print data supplied from the CPU 11.

カードインターフェース(I/F)16は、カードスロット17に挿入されたメモリカ
ード18との間でデータのやり取りを行うためのインターフェースである。なお、この例
では、メモリカード18にRGBデータとしての画像データが格納されており、プリンタ
1は、カードインターフェース16を介してメモリカード18に格納された画像データの
取得を行う。
The card interface (I / F) 16 is an interface for exchanging data with the memory card 18 inserted in the card slot 17. In this example, image data as RGB data is stored in the memory card 18, and the printer 1 acquires the image data stored in the memory card 18 via the card interface 16.

プリンタ1の各構成要素は、バス19を介して互いに接続されている。   The constituent elements of the printer 1 are connected to each other via a bus 19.

なおプリンタ1は、さらに、他の機器(例えばデジタルスチルカメラ)とのデータ通信
を行うためのインターフェースを備えているとしてもよい。
The printer 1 may further include an interface for performing data communication with other devices (for example, a digital still camera).

図2は、第1の美肌処理Z1を実行するためのプリンタ1の機能的構成例を示すブロッ
ク図である。この機能は、CPU11が内部メモリ12に記憶されている所定のプログラ
ムを実行することより実現される。
FIG. 2 is a block diagram illustrating a functional configuration example of the printer 1 for executing the first skin beautification process Z1. This function is realized by the CPU 11 executing a predetermined program stored in the internal memory 12.

顔領域検出手段としての顔領域検出部21は、例えばメモリカード18から読み出され
てプリンタ1に入力された、第1の美肌処理Z1の対象となる画像(以下、対象画像TI
と称する)を解析し、対象画像TI上の人物の顔部分が写っている顔の画像を含む顔領域
FAを検出する。
The face area detection unit 21 serving as a face area detection unit is, for example, an image that is read from the memory card 18 and input to the printer 1 and that is the target of the first skin beautification process Z1 (hereinafter, the target image TI).
And a face area FA including a face image in which the face portion of the person is reflected on the target image TI is detected.

非補正領域検出手段としての非補正領域検出部22は、平滑化処理を施さない、顔領域
FA内の所定の部分(例えば、眉毛、目、鼻の穴、口等の顔を構成する器官の画像領域(
以下、適宜、非補正領域FBとも称する))を検出する。
The non-correction area detection unit 22 as the non-correction area detection means performs a smoothing process on a predetermined part in the face area FA (for example, eyebrows, eyes, nostrils, mouth and other organs constituting the face). Image area (
Hereinafter, the non-correction region FB) is also detected as appropriate.

補正領域特定手段としての補正領域特定部23は、顔領域FAの非補正領域FBを除く
領域を、補正領域FCとして特定する。
The correction area specifying unit 23 as the correction area specifying means specifies the area of the face area FA excluding the non-correction area FB as the correction area FC.

補正手段としての補正部24は、特定された補正領域FCの色調を補正する。この例の
場合、補正領域FCの明度が、理想的な明るさとされる目標明度に調整される平滑化処理
が実行される。
The correction unit 24 as correction means corrects the color tone of the specified correction area FC. In this example, a smoothing process is performed in which the brightness of the correction area FC is adjusted to the target brightness that is ideal brightness.

出力制御部25は、平滑化処理が施された対象画像TIの画像データから表示データ又
は印刷データを生成し、表示データを表示部14に供給して表示させたり、印刷データを
プリンタエンジン15に供給して、印刷データに基づく画像の印刷を実行させる。
The output control unit 25 generates display data or print data from the image data of the target image TI that has been subjected to the smoothing process, supplies the display data to the display unit 14 for display, or causes the printer engine 15 to display the print data. And printing the image based on the print data.

図3は、第1の美肌処理Z1の流れを示すフローチャートである。このフローチャート
を参照して、第1の美肌処理Z1について説明する。
FIG. 3 is a flowchart showing the flow of the first skin beautification process Z1. The first skin beautification process Z1 will be described with reference to this flowchart.

ステップS1において、顔領域検出部21は、第1の美肌処理Z1の対象となる対象画
像TIにおける顔領域FAの検出を行う。
In step S1, the face area detection unit 21 detects the face area FA in the target image TI that is the target of the first skin beautification process Z1.

例えば、顔領域検出部21は、統計的モデルに基づいて画像の解釈を行うことによって
、顔領域FAの検出を行う。
For example, the face area detection unit 21 detects the face area FA by interpreting an image based on a statistical model.

例えば高いコントラストを持つ顔の輪郭及び器官(眉毛、目、鼻、口等)の輪郭上に置
かれた制御点によって表現される顔形状と、顔形状が平均顔形状によるように幾何的に変
形された形状正規化顔画像の濃淡パターンとで、顔画像を表現するモデルに基づいて、形
状とテクスチャがそれぞれ別個に主成分分析され、固有空間上に顔画像が投影される。
For example, the face shape expressed by the control points placed on the contours of the face and organs (eyebrows, eyes, nose, mouth, etc.) with high contrast, and the face shape is geometrically deformed so that it is based on the average face shape. Based on the model representing the face image, the shape and the texture are separately subjected to principal component analysis based on the shade pattern of the shape normalized face image, and the face image is projected on the eigenspace.

図4は、統計的モデルにおける制御点の配置例を示す図である。このように、顔の輪郭
及び器官(眉毛、目、鼻、口等)の輪郭上に制御点が配置される。
FIG. 4 is a diagram illustrating an arrangement example of control points in the statistical model. In this way, the control points are arranged on the contours of the face and the contours of the organs (eyebrows, eyes, nose, mouth, etc.).

図5は、図4に示した制御点によって抽出された顔領域FAの検出結果の例を示す図で
ある。このように、統計的モデルにより、対象画像TIから顔領域FAが検出される。
FIG. 5 is a diagram showing an example of the detection result of the face area FA extracted by the control points shown in FIG. As described above, the face area FA is detected from the target image TI by the statistical model.

ステップS2において、非補正領域検出部22は、検出された顔領域FAの中から、非
補正領域FB(即ち平滑化処理を施さない領域)を検出する。
In step S <b> 2, the non-correction area detection unit 22 detects a non-correction area FB (that is, an area not subjected to the smoothing process) from the detected face area FA.

具体的には、眉毛、目、鼻、及び口の回りに設定された制御点を用いて(図4、図5)
、その制御点によって形成される領域に対応する顔領域FAの領域が、非補正領域FBと
して検出される。
Specifically, using control points set around the eyebrows, eyes, nose, and mouth (FIGS. 4 and 5)
The area of the face area FA corresponding to the area formed by the control points is detected as the uncorrected area FB.

なお非補正領域FBは、例えば非補正領域FBの輪郭に配置された制御点の座標により
特定される。また非補正領域FBについてより滑らかな領域輪郭を形成するために、各制
御点はスプライン曲線で結び付けられる。
The non-correction area FB is specified by the coordinates of control points arranged on the outline of the non-correction area FB, for example. Further, in order to form a smoother region outline for the uncorrected region FB, each control point is connected by a spline curve.

次にステップS3において、補正領域特定部23は、顔領域FAの非補正領域FBを除
く領域を、補正領域FCとして特定する。
Next, in step S3, the correction area specifying unit 23 specifies an area excluding the non-correction area FB of the face area FA as the correction area FC.

具体的には、補正領域特定部23は、顔領域FAの非補正領域FBを除く領域をマスク
ングする画像(以下、マスク画像FMと称する)を生成し、そのマスク画像FMによって
マスクングされる顔領域FAの領域を、補正領域FCとして特定する
Specifically, the correction area specifying unit 23 generates an image (hereinafter referred to as a mask image FM) that masks an area of the face area FA excluding the non-correction area FB, and the face area masked by the mask image FM. The FA area is specified as the correction area FC

図6は、マスク画像FMの例を示す図である。このマスク画像FMは、顔領域FAと同
じ輪郭を有する画像であって、非補正領域FBに対応する領域(図中、白抜きの領域)の
画素の画素値が値0とされ、それ以外の領域(図中、黒色の領域)の画素の画素値が値1
とされている。
FIG. 6 is a diagram illustrating an example of the mask image FM. This mask image FM is an image having the same contour as the face area FA, and the pixel value of the pixel in the area corresponding to the non-correction area FB (the white area in the figure) is 0, and the other values The pixel value of the pixel in the region (black region in the figure) is the value 1
It is said that.

即ち補正領域特定部23は、図6に示すようなマスク画像FMを生成するとともに、そ
のマスク画像FMを顔領域FA上に重ね合わせ、顔領域FAの、マスク画像FMの値1が
設定されている画素に対応する位置にある画素からなる領域(即ちマスキングされている
領域)を補正領域FCとして特定する。
That is, the correction area specifying unit 23 generates a mask image FM as shown in FIG. 6, superimposes the mask image FM on the face area FA, and the value 1 of the mask image FM of the face area FA is set. A region (that is, a masked region) composed of pixels located at positions corresponding to existing pixels is specified as the correction region FC.

ステップS4において、補正部24は、顔領域FAの補正領域FCに対して、平滑化処
理を行う。この例の場合、補正領域FCの明度が、理想的な明るさとする目標明度に調整
される。
In step S4, the correction unit 24 performs a smoothing process on the correction area FC of the face area FA. In the case of this example, the brightness of the correction area FC is adjusted to the target brightness that is ideal brightness.

ここで明度の調整処理について説明する。   Here, the brightness adjustment processing will be described.

補正領域FCのRGB表色系の階調値で表されている画像データ(以下、初期画像デー
タPIDと称する)が、L***表色系の階調値で表される画像データ(以下、画像デ
ータPIDLと称する)に変換される。そしてその画像データPIDLの全画素の明度L
*の平均値La(即ち補正領域FCの明度L*の平均値)が計算される。
その後、明度の調整量dLが下記の式(1)により算出される。
dL=Lt−La・・・(1)
Image data represented by gradation values of the RGB color system in the correction area FC (hereinafter referred to as initial image data PID) is represented by gradation values of L * a * b * color system. (Hereinafter referred to as image data PIDL). And the brightness L of all the pixels of the image data PIDL
An average value La of * (that is, an average value of the lightness L * of the correction area FC) is calculated.
Thereafter, the brightness adjustment amount dL is calculated by the following equation (1).
dL = Lt−La (1)

ここで、Ltは、顔領域FAの理想的な明るさである目標明度である。この目標明度L
tは、例えば内部メモリ12に保持されている。
Here, Lt is the target brightness which is the ideal brightness of the face area FA. This target brightness L
t is held in the internal memory 12, for example.

次に、算出された調整量dLに基づいて、トーンカーブが生成される。   Next, a tone curve is generated based on the calculated adjustment amount dL.

図7は、トーンカーブの例を示す図である。図7において、横軸は明度の入力値Liで
あり、縦軸は明度の出力値Loである。
FIG. 7 is a diagram illustrating an example of a tone curve. In FIG. 7, the horizontal axis represents the lightness input value Li, and the vertical axis represents the lightness output value Lo.

即ち明度の入力値が値0のとき出力値が値0に、明度の入力値が値100のとき出力値が
値100となる2次曲線であって、明度の入力値が値Lir(約値50)のとき、出力値が先
に算出された値dLだけ増大する2次曲線がトーンカーブとして生成される。
That is, when the input value of lightness is 0, the output value is 0, and when the input value of lightness is 100, the output value is 100, and the input value of lightness is the value Lir (approximately 50), a quadratic curve whose output value increases by the previously calculated value dL is generated as a tone curve.

次に、L***表色系の階調値で表された画像データPIDLの各画素の明度を入力
値としたときの出力値が、生成されたトーンカーブから求められる。そして、画像データ
PIDLの各画素の明度のそれぞれが、出力値として求められた明度に調整される。なお
、以下では、調整後の画像データを画像データPIDLrと称する。そしてこのようにし
て生成された画像データPIDLrが、RGB表色系の階調値(0〜255)で表された
画像データPIDrに変換される。
Next, an output value when the lightness of each pixel of the image data PIDL represented by the gradation value of the L * a * b * color system is used as an input value is obtained from the generated tone curve. Then, the brightness of each pixel of the image data PIDL is adjusted to the brightness obtained as the output value. Hereinafter, the adjusted image data is referred to as image data PIDLr. The image data PIDLr generated in this way is converted into image data PIDr represented by gradation values (0 to 255) of the RGB color system.

このようにして補正領域FCに対して平滑化処理が行われると、第1の美肌処理Z1は
終了する(図3)。
When the smoothing process is performed on the correction area FC in this way, the first skin beautification process Z1 is completed (FIG. 3).

以上のようにして、第1の美肌処理Z1が行われる。   As described above, the first skin beautification process Z1 is performed.

以上のように、顔領域FAについて、平滑化処理を施しくたくない非補正領域FBを除
いた補正領域FCに平滑化処理を施すようにしたので、選択的に平滑化処理を施すことが
できる。即ち本来平滑化処理が必要な領域(例えば、肌領域)についてのみ平滑化処理を
施すことができる。例えば目や口等の所定の器官の画像の領域に対して平滑化処理が施さ
れないようにすることができる。
As described above, the smoothing process can be selectively performed on the face area FA because the smoothing process is performed on the correction area FC excluding the non-correction area FB where the smoothing process is not desired. . That is, it is possible to perform the smoothing process only on an area that needs to be smoothed (for example, a skin area). For example, it is possible to prevent the smoothing process from being performed on an image region of a predetermined organ such as an eye or a mouth.

また以上のように、初めに顔の形状に基づいて顔領域FAを検出し(図5)、その顔領
域FAに基づいて、補正領域FCを特定するようにしたので、例えば、顔画像の色調に制
約されることなく、補正領域FCを、容易に特定することができる。
Also, as described above, the face area FA is first detected based on the face shape (FIG. 5), and the correction area FC is specified based on the face area FA. The correction region FC can be easily specified without being restricted by the above.

例えば肌色検出によって補正領域を特定する技術も存在するが、その場合、斜光がかか
っている部分や、厚く化粧されている部分は、肌色とは検出されず、補正領域として特定
されないことがある。これに対して本実施の形態では、一般的な顔形状の領域内であって
、非補正領域FB以外の領域であれば、補正領域FCとされるので、補正領域を適切に特
定することができる。なお例えば、顔の形状と、肌色検出を組み合わせて補正領域FCの
検出を行うこともできる。
For example, there is a technique for specifying a correction area by skin color detection. In that case, a part that is obliquely illuminated or a part that is thickly decorated is not detected as a skin color and may not be specified as a correction area. On the other hand, in the present embodiment, if the region is within a general face-shaped region and is a region other than the non-correction region FB, the correction region FC is used. it can. For example, the correction area FC can be detected by combining face shape and skin color detection.

なお以上においては、顔の輪郭内の領域を顔領域FAとしたが、例えば首や耳等の画像
が含まれる領域が顔領域FAとなるようにすることもできる。
In the above description, the area within the outline of the face is the face area FA. However, for example, an area including an image such as a neck or ear may be the face area FA.

また以上においては、補正領域FCの明度の平均値に基づいて生成されたトーンカーブ
から求められた明度で補正領域FCが平滑化処理された。しかしながらそのようにすると
、対象画像TIの色合いによっては、補正領域FCとその他の領域の明度の差が大きくな
り、顔領域FAの輪郭部分、及び補正領域FCと非補正領域FBの境界部分が不自然に目
立ってしまうことがある。
In the above, the correction area FC is smoothed with the brightness obtained from the tone curve generated based on the average value of the brightness of the correction area FC. However, if this is done, depending on the hue of the target image TI, the difference in brightness between the correction area FC and other areas will increase, and the outline part of the face area FA and the boundary part between the correction area FC and the non-correction area FB will not be present. May stand out naturally.

そこで、平滑化の強度を、顔領域FAの輪郭方向に向かって又は補正領域FCと非補正
領域FBの境界方向に向かって段階的に小さくするようにすることができる。即ち輪郭又
は境界に近い部分ほど、元の明度に近い明度となるようにすることができる。そのように
することにより、顔領域FAの輪郭部分、及び補正領域FCと非補正領域FBの境界部分
においては、補正領域FCとその他の領域の明度の差があまりなくなるので、輪郭部分及
び境界部分があまり目立たなくすることができる。
Therefore, the smoothing intensity can be decreased stepwise toward the contour direction of the face area FA or toward the boundary direction between the correction area FC and the non-correction area FB. That is, it is possible to make the brightness closer to the original brightness as the portion is closer to the contour or boundary. By doing so, there is not much difference in brightness between the correction area FC and the other areas in the contour area of the face area FA and in the boundary area between the correction area FC and the non-correction area FB. Can be less noticeable.

図8は、平滑化の強度を、顔領域FAの輪郭方向又は補正領域FCと非補正領域FBの
境界方向に向かって段階的に小さくする場合において、補正領域特定部23により生成さ
れるマスク画像FMの例を示す図である。
FIG. 8 shows a mask image generated by the correction area specifying unit 23 when the smoothing intensity is reduced stepwise toward the contour direction of the face area FA or the boundary direction between the correction area FC and the non-correction area FB. It is a figure which shows the example of FM.

図8の例では、非補正領域FBに対応する領域(図中、白抜きの領域)の画素の画素値
が値0とされ、顔領域FAの輪郭部分及び顔領域FAの補正領域FCと非補正領域FBと
の境界部分に対応する領域(図中、ハッチングで示されている領域)の画素値が値1とさ
れ、そしてそれ以外の領域(図中、黒色の領域)の画素の画素値が値2とされている。
In the example of FIG. 8, the pixel value of the pixel in the area corresponding to the non-correction area FB (the white area in the figure) is 0, and the contour portion of the face area FA and the correction area FC of the face area FA are not. The pixel value of the area corresponding to the boundary with the correction area FB (area shown by hatching in the figure) is set to 1, and the pixel value of the pixels in other areas (black area in the figure) Is a value of 2.

図8に示すマスク画像FMでは、顔領域FAの、マスク画像FMの値1及び値2が設定
されている領域に対応する領域が補正領域FCとして特定される。
In the mask image FM shown in FIG. 8, the area corresponding to the area where the value 1 and the value 2 of the mask image FM are set in the face area FA is specified as the correction area FC.

そして補正領域FCの、図8に示すマスク画像FMの値2が設定されている領域に対応
する領域の各画素の明度が、上述したように図7に示したトーンカーブから読み出したL
***表色系の階調値で表された画像データPIDLに調整される。
Then, the brightness of each pixel in the area corresponding to the area where the value 2 of the mask image FM shown in FIG. 8 is set in the correction area FC is L read from the tone curve shown in FIG.
* a * b * It is adjusted to image data PIDL represented by a color system gradation value.

また補正領域FCの、図8に示すマスク画像FMの値1が設定されている領域に対応す
る領域の各画素の明度が、上述したように図7に示したトーンカーブから読み出したL*
**表色系の階調値で表された画像データPIDLより一定量小さな値に(例えば図7
に示す点線TLに近い値に)、調整される。
Further, as described above, the brightness of each pixel in the area corresponding to the area where the value 1 of the mask image FM shown in FIG. 8 is set in the correction area FC is L * read out from the tone curve shown in FIG.
A value smaller than the image data PIDL represented by the a * b * color system gradation values (for example, FIG. 7).
To a value close to the dotted line TL shown in FIG.

このように平滑化の強度を、輪郭方向又は境界方向に向かって段階的に小さくすること
により、顔領域FAの輪郭部分、及び補正領域FCと非補正領域FBの境界部分をあまり
目立たなくすることができる。
Thus, by reducing the smoothing intensity stepwise in the contour direction or the boundary direction, the contour part of the face area FA and the boundary part of the correction area FC and the non-correction area FB are made less noticeable. Can do.

次に、第2の美肌処理Z2(即ち顔領域FA内の部分によって異なる補正強度で顔領域
FAを平滑化する処理)について説明する。
Next, the second skin beautification process Z2 (that is, the process of smoothing the face area FA with different correction strength depending on the portion in the face area FA) will be described.

図9は、第2の美肌処理Z2を実行するためのプリンタ1の機能的構成例を示すブロッ
ク図である。この機能は、CPU11が内部メモリ12に記憶されている所定のプログラ
ムを実行することより実現される。
顔領域検出部51は、図2の顔領域検出部21と同様にして、対象画像TI上の人物の
顔部分が写っている顔の画像を含む顔領域FAを検出する。
FIG. 9 is a block diagram illustrating a functional configuration example of the printer 1 for executing the second skin beautification process Z2. This function is realized by the CPU 11 executing a predetermined program stored in the internal memory 12.
The face area detection unit 51 detects a face area FA including an image of a face in which a person's face part is reflected on the target image TI in the same manner as the face area detection unit 21 in FIG.

補正部52は、顔の輪郭を有する画像モデルであって、補正強度を表す補正値が設定さ
れている画像モデル(以下、補正強度モデルMAと称する)に基づいて、顔領域FAに対
する平滑化処理を行う。なお補正強度モデルMAは、例えば内部メモリ12に保持されて
おり、そこから読み出される。
The correction unit 52 is a smoothing process for the face area FA based on an image model having a face outline and a correction value representing the correction strength (hereinafter referred to as a correction strength model MA). I do. The corrected intensity model MA is held in, for example, the internal memory 12, and is read from there.

出力制御部53は、図2の出力制御部25と同様に、平滑化処理が施された対象画像T
Iの画像データから表示データ又は印刷データを生成し、表示データを表示部14に供給
して表示させたり、印刷データをプリンタエンジン15に供給して、印刷データに基づく
画像の印刷を実行させる。
Similar to the output control unit 25 in FIG. 2, the output control unit 53 performs the smoothing process on the target image T.
Display data or print data is generated from the image data I, and the display data is supplied to the display unit 14 for display, or the print data is supplied to the printer engine 15 to print an image based on the print data.

図10は、第2の美肌処理Z2の流れを示すフローチャートである。このフローチャー
トを参照して、第2の美肌処理Z2について説明する。
FIG. 10 is a flowchart showing the flow of the second skin beautification process Z2. The second skin beautification process Z2 will be described with reference to this flowchart.

ステップS21において、顔領域検出部51は、図3のステップS1における場合と同
様に、統計的モデルを利用して、顔領域FAを検出する。
In step S21, the face area detection unit 51 detects the face area FA using a statistical model, similarly to the case in step S1 of FIG.

ステップS22において、補正部52は、内部メモリ12から、補正強度モデルMAを
取得する。
In step S <b> 22, the correction unit 52 acquires the correction strength model MA from the internal memory 12.

図11は、補正強度モデルMAの概念図である。この例の場合、学習によって得られた
正面を向いた平均的な顔の形状が、目、鼻、口等の輪郭上に置かれたドットの、近接する
3つのドットからなる三角形領域で分割された構成を有している。なお補正強度モデルM
A上のドットは、基本的には、統計的モデルによる顔モデル上の制御点に対応している。
FIG. 11 is a conceptual diagram of the correction intensity model MA. In the case of this example, the average face shape facing forward obtained by learning is divided into triangular regions consisting of three adjacent dots of dots placed on the contours of eyes, nose, mouth, etc. It has a configuration. Correction strength model M
The dots on A basically correspond to the control points on the face model by the statistical model.

補正強度モデルMAはまた、画素に対応する区画を1単位として、100×100区画内のデ
ータ構造を有しており、各区画には、補正強度を表す補正値が設定されている。図11に
おいては色の濃淡が補正値の大小を表しており、色が濃い部分の補正値は大きい値となっ
ており、色が薄い部分の補正値は小さな値となっている。即ち目の位置の補正量と頬の位
置の補正量は、その大きさが異なっている。また眼尻、鼻周り、口周りの一部の補正値が
大きな値となっている。補正強度モデルMAは、例えば、区画の座標値と、その区画の補
正値とを表すデータが、テーブルとして用意されている。
The correction intensity model MA also has a data structure in a 100 × 100 section with a section corresponding to a pixel as one unit, and a correction value representing the correction strength is set in each section. In FIG. 11, the shade of the color represents the magnitude of the correction value, the correction value for the dark color portion is a large value, and the correction value for the light color portion is a small value. That is, the magnitudes of the eye position correction amount and the cheek position correction amount are different. In addition, correction values for some of the areas around the buttocks, nose, and mouth are large. In the correction strength model MA, for example, data representing the coordinate values of the sections and the correction values of the sections are prepared as a table.

次に、ステップS23において、補正部52は、取得した補正強度モデルMA(図11
)に設定されている補正値を、顔領域FAにマッピングする。
Next, in step S23, the correction unit 52 acquires the acquired correction strength model MA (FIG. 11).
) Is mapped to the face area FA.

図12は、顔領域FAに補正値がマッピングされた様子を概念的に示す図である。   FIG. 12 is a diagram conceptually showing how correction values are mapped to the face area FA.

ここで顔領域FAへの補正値のマッピング方法について説明する。   Here, a method for mapping correction values to the face area FA will be described.

図13は、このマッピングにおいて利用される、三角形領域における画像変形の原理を
示す図である。
FIG. 13 is a diagram showing the principle of image deformation in a triangular area used in this mapping.

図13の例では、点s,t,uを頂点とする三角形領域stuの画像が、点s’,t’
,u’を頂点とする三角形領域s’t’u’の画像に変形されるものとする。
In the example of FIG. 13, an image of a triangular area stu having points s, t, and u as vertices is represented by points s ′, t ′
, U ′ as a vertex, the image is transformed into an image of a triangular area s′t′u ′.

この画像の変形は、変形後の三角形領域s’t’u’の画像中のある画素の位置が、変
形前の三角形領域stuの画像中のどの位置に相当するかを算出し、算出された位置にお
ける変形前の画像における画素値を変形後の画像の画素値とすることにより行われる。
The deformation of the image was calculated by calculating which position in the image of the triangular area stu before the deformation the position of a certain pixel in the image of the triangular area s't'u 'after the deformation corresponds to. This is performed by setting the pixel value in the image before deformation at the position as the pixel value of the image after deformation.

例えば、図13において、変形後の三角形領域s’t’u’の画像中の注目画素p’の
位置は、変形前の三角形領域stuの画像中の位置pに相当するものとする。位置pの算
出は、以下のように行われる。まず、注目画素p’の位置を、下記の式(2)のようにベ
クトルs’t’とベクトルs’u’との和で表現するための係数m1及び係数m2が算出
される。
For example, in FIG. 13, the position of the pixel of interest p ′ in the image of the triangular area s′t′u ′ after deformation corresponds to the position p in the image of the triangular area stu before deformation. The calculation of the position p is performed as follows. First, a coefficient m1 and a coefficient m2 for expressing the position of the pixel of interest p ′ as a sum of a vector s′t ′ and a vector s′u ′ as shown in the following equation (2) are calculated.

次に、算出された係数m1及び係数m2を用いて、下記の式(3)により、変形前の三
角形領域stuにおけるベクトルstとベクトルsuとの和が算出されることにより、位
置pが求められる。
Next, by using the calculated coefficient m1 and coefficient m2, the position p is obtained by calculating the sum of the vector st and the vector su in the triangular area stu before deformation according to the following equation (3). .

計算によって得られた変形前の三角形領域stuにおける位置pが、変形前の画像の所
定の画素の中心位置に一致した場合には、当該画素の画素値が変形後の画像の画素値とさ
れる。一方、計算によって得られた変形前の三角形領域stuにおける位置pが、変形前
の画像の所定の画素の中心位置からはずれた位置となった場合には、位置pの周囲の画素
の画素値を用いたバイキュービック等の補間演算により、位置pにおける画素値が算出さ
れ、算出された画素値が変形後の画像の位置p’の画素値とされる。
When the position p in the untransformed triangular area stu obtained by calculation coincides with the center position of a predetermined pixel of the image before deformation, the pixel value of the pixel is set as the pixel value of the image after deformation. . On the other hand, when the position p in the triangular area stu before deformation obtained by the calculation is a position deviated from the center position of the predetermined pixel of the image before deformation, the pixel values of the pixels around the position p are changed. The pixel value at the position p is calculated by the interpolation operation such as the bicubic used, and the calculated pixel value is set as the pixel value at the position p ′ of the image after deformation.

変形後の三角形領域s’t’u’の画像中の各画素について上述のように画素値を算出
することにより、三角形領域stuの画像から三角形領域s’t’u’の画像への変形が
行われる。
By calculating the pixel value for each pixel in the image of the transformed triangular area s′t′u ′ as described above, the image of the triangular area stu can be transformed into the image of the triangular area s′t′u ′. Done.

即ちこの原理を補正値のマッピングに適用すれば、補正部52は、顔領域FAを、制御
点で三角形領域に分割するとともに、その顔領域FAの三角形領域毎に、その三角形領域
の画像中の各画素について、式(2)により、係数m1及び係数m2を算出する。そして
補正部52は、算出した係数m1及び係数m2を用いて、式(3)により、顔領域FAの
三角形領域に対応する補正強度モデルMAの三角形領域におけるベクトルstとベクトル
suとの和を算出することにより、顔領域FAの画素に対応する補正強度モデルMA上の
位置を求める。そして補正部52は、求めた位置にある区画の補正値又は求めた位置の周
囲の区画の補正値から得らた補正値を顔領域FAにマッピングする。
In other words, if this principle is applied to correction value mapping, the correction unit 52 divides the face area FA into triangular areas at the control points, and for each triangular area of the face area FA, For each pixel, the coefficient m1 and the coefficient m2 are calculated by Expression (2). Then, the correction unit 52 calculates the sum of the vector st and the vector su in the triangular area of the correction intensity model MA corresponding to the triangular area of the face area FA by using the calculated coefficient m1 and coefficient m2. Thus, the position on the correction intensity model MA corresponding to the pixel of the face area FA is obtained. Then, the correction unit 52 maps the correction value obtained from the correction value of the section at the obtained position or the correction value around the obtained position to the face area FA.

以上のようにして、補正値が顔領域FAにマッピングされる。   As described above, the correction value is mapped to the face area FA.

次にステップS24において(図10)、補正部52は、顔領域FAに対して、マッピ
ングされた補正値に応じた平滑化処理を実行する。
Next, in step S24 (FIG. 10), the correction unit 52 performs a smoothing process on the face area FA according to the mapped correction value.

具体的には、顔領域FAのRGB表色系の階調値で表されている初期画像データPID
が、L***表色系の階調値で表される画像データPIDLに変換される。そして画像
データPIDLの全画素の明度L*の平均値Laが計算される。その後、明度の調整量d
Lが式(1)により算出され、算出された調整量dLに基づいて、図7に示したようなト
ーンカーブが生成される。そしてトーンカーブに従って、画像データPIDLが求められ
る。
Specifically, initial image data PID represented by gradation values of the RGB color system of the face area FA
Are converted into image data PIDL represented by gradation values of the L * a * b * color system. Then, an average value La of the lightness L * of all the pixels of the image data PIDL is calculated. Then, the brightness adjustment amount d
L is calculated by equation (1), and a tone curve as shown in FIG. 7 is generated based on the calculated adjustment amount dL. Then, image data PIDL is obtained according to the tone curve.

ここまでは、図2の補正部24による処理と同様である。補正部52は、その後、顔領
域FAの各画素にマッピングされた補正値(図12)を、それぞれ読み出して、先に求め
た画像データPIDLに乗算し、その結果得られた明度で、顔領域FAの各画素の明度を
調整する。即ち補正値が大きな値である程、明度が大きく調整可能となる。そして補正部
52は、このようにして生成した画像データPIDLrを、RGB表色系の階調値(0〜
255)で表された画像データPIDrに変換する。
The processing up to this point is the same as the processing by the correction unit 24 in FIG. Thereafter, the correction unit 52 reads out the correction values (FIG. 12) mapped to the respective pixels of the face area FA, multiplies the image data PIDL previously obtained, and uses the brightness obtained as a result to determine the face area. The brightness of each pixel of FA is adjusted. That is, the greater the correction value, the greater the brightness can be adjusted. Then, the correction unit 52 converts the image data PIDLr generated in this way into RGB color system gradation values (0 to 0).
255) is converted into image data PIDr.

このようにして、顔領域FAに対して、マッピングされた補正値に応じた平滑化処理が
行われると、処理は、終了する。
In this way, when the smoothing process according to the mapped correction value is performed on the face area FA, the process ends.

以上のようにして、第2の美肌処理Z2が行われる。   As described above, the second skin beautification process Z2 is performed.

以上のように、顔領域FA内の部分によって異なる補正強度で顔領域FAを平滑化する
ようにしたので、顔領域FAのある部分については強い補正強度で平滑化処理を行い、あ
る部分については弱い補正強度で平滑化処理を行うことができる。即ち効果的な平滑化処
理を行うことができる。
As described above, since the face area FA is smoothed with different correction strength depending on the portion in the face area FA, smoothing processing is performed with strong correction strength for a part of the face area FA, and for certain parts. Smoothing processing can be performed with weak correction strength. That is, an effective smoothing process can be performed.

また以上のように、補正強度モデルMAを利用して顔領域FAに補正値をマッピングす
るようにしたので、簡単に平滑化処理の補正値を設定することができる。例えば実際に顔
領域FAから皺やシミを検出し、その濃さに応じた補正強度を算出することも可能である
が、本実施の形態によれば、補正強度モデルMAを顔領域FAにマスキングするだけで、
顔領域FAに補正値を設定することができる。
In addition, as described above, the correction value is mapped to the face area FA using the correction intensity model MA, so that the correction value for the smoothing process can be set easily. For example, it is possible to actually detect wrinkles and spots from the face area FA and calculate the correction intensity according to the density, but according to the present embodiment, the correction intensity model MA is masked to the face area FA. Just do
A correction value can be set for the face area FA.

また以上のように、三角形領域における画像変形の原理に基づいて、補正値をマッピン
グするようにしたので、例えば顔が正面ではなく、左、右、上、又は下を向いていた場合
においても、適切に補正値を顔領域FAに設定することができる。
Also, as described above, since the correction value is mapped based on the principle of image deformation in the triangular area, for example, even when the face is facing the left, right, up, or down instead of the front, A correction value can be appropriately set in the face area FA.

なお以上においては、1つの補正強度モデルMAが用いられている場合を例として説明
したが、例えば、年齢、性別、人種ごとに補正強度モデルMAを設けるようにすることも
できる。例えば年齢が高い人の顔には、若い人に比べ眼尻等に皺が多くあるので、眼尻部
分の補正強度をより強くするために、その部分に高い補正値が設定されている補正強度モ
デルMAを用意することができる。
In the above description, the case where one correction strength model MA is used has been described as an example. However, for example, a correction strength model MA may be provided for each age, sex, and race. For example, since the face of an older person has more wrinkles on the outer corner of the eye than a young person, a higher correction value is set for that area in order to increase the correction intensity of the outer corner. A model MA can be prepared.

なおこのように複数の補正強度モデルMAが用意されている場合は、ユーザからの年齢
、性別等の指令(例えば入力)に応じて、補正強度モデルMAが選択される。また画像処
理によりユーザの皺の量等を検出し、その検出結果に基づいて補正強度モデルMAが選択
されるようにすることもできる。
When a plurality of corrected intensity models MA are prepared as described above, the corrected intensity model MA is selected according to a command (for example, input) such as age and sex from the user. It is also possible to detect the amount of wrinkles of the user by image processing and select the correction strength model MA based on the detection result.

また以上においては、明度を調整して平滑化処理を行う場合を例として説明したが、明
度に限らず、彩度等の他のパラメータを利用した平滑化処理を行うこともできる。また何
らかの補正強度に応じて行うことができる画像処理であれば、平滑化処理に限らず、例え
ば歯の色を白くする処理や目の輪郭をはっきりさせる処理等においても、本発明を適用す
ることができる。
In the above description, the case of performing the smoothing process by adjusting the brightness has been described as an example. However, the smoothing process using other parameters such as the saturation can be performed without being limited to the brightness. Further, as long as the image processing can be performed according to some correction strength, the present invention is applied not only to the smoothing processing but also to the processing of whitening the teeth and the processing of clarifying the eye outline, for example. Can do.

また以上においては、非補正領域FBを器官の画像領域としたが、色調補正を施さない
他の領域を、非補正領域FBとすることができる。
In the above description, the non-correction area FB is the image area of the organ, but other areas that are not subjected to color tone correction can be set as the non-correction area FB.

また以上においては、インクジェット方式のプリンタ1を例として説明したが、インク
ジェット方式以外のプリンタにも適用できるとともに、画像をユーザに提示するものであ
れば、デジタルカメラやフォトビューアーにも適用することができる。
In the above description, the ink jet printer 1 has been described as an example. However, the present invention can be applied to a printer other than the ink jet method and can be applied to a digital camera or a photo viewer as long as the image is presented to the user. it can.

また以上においては、図3及び図10に示す処理を、プリンタ1において実行するよう
にしたが、例えば、プリンタ1に接続されているホストコンピュータにおいて実行するこ
とも可能である。
In the above, the processing shown in FIG. 3 and FIG. 10 is executed in the printer 1, but it can also be executed in a host computer connected to the printer 1, for example.

また上記の処理機能を、コンピュータによって実現することができる。その場合、プリ
ンタ1が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムを
コンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理
内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくこ
とができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディス
ク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置
(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、
DVD(Digital Versatile Disk)、DVD−RAM、CD−ROM(Compact Disk ROM
)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、M
O(Magneto-Optical disk)などがある。
The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the printer 1 should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic recording device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. On the optical disc
DVD (Digital Versatile Disk), DVD-RAM, CD-ROM (Compact Disk ROM
CD-R (Recordable) / RW (ReWritable). For magneto-optical recording media, M
O (Magneto-Optical disk).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD
−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの
記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュ
ータにそのプログラムを転送することもできる。
When distributing the program, for example, a DVD or CD on which the program is recorded
-Portable recording media such as ROM are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラ
ムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する
。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従
った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み
取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サ
ーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従っ
た処理を実行することもできる。
The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

なお上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウ
ェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の
一部をハードウェアに置き換えるようにしてもよい。
In the above embodiment, a part of the configuration realized by hardware may be replaced with software, and conversely, a part of the configuration realized by software may be replaced by hardware. .

本発明の実施の形態に係るプリンタのハードウェアの構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration example of a printer according to an embodiment of the present invention. 図1に示すプリンタにおいて第1の美肌処理を実行するためのプリンタの機能的構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration example of a printer for executing first skin beautification processing in the printer illustrated in FIG. 1. 図1に示すプリンタにおいて実行される第1の美肌処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the 1st skin beautification process performed in the printer shown in FIG. 図1に示すプリンタにおいて実行される統計的モデルにおける制御点の配置例を示す図であるIt is a figure which shows the example of arrangement | positioning of the control point in the statistical model performed in the printer shown in FIG. 図1に示すプリンタにおいて実行される顔領域の検出結果の例を示す図である。It is a figure which shows the example of the detection result of the face area | region performed in the printer shown in FIG. 図1に示すプリンタにおいて処理される際のマスク画像FMの例を示す図である。It is a figure which shows the example of the mask image FM at the time of processing in the printer shown in FIG. 図1に示すプリンタにおいて処理される際のトーンカーブを示す図である。It is a figure which shows the tone curve at the time of processing in the printer shown in FIG. 図1に示すプリンタにおいて処理される際のマスク画像FMの他の例を示す図である。It is a figure which shows the other example of the mask image FM at the time of processing in the printer shown in FIG. 図1に示すプリンタにおいて第2の美肌処理を実行するためのプリンタの機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the printer for performing the 2nd skin beautification process in the printer shown in FIG. 図1に示すプリンタにおいて実行される第2の美肌処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the 2nd skin beautification process performed in the printer shown in FIG. 図1に示すプリンタにおいて処理される際の補正強度モデルの例を示す図である。It is a figure which shows the example of the correction | amendment intensity | strength model at the time of processing in the printer shown in FIG. 図1に示すプリンタにおいて実行される顔領域FAへの補正値のマッピング結果の例を示す図である。It is a figure which shows the example of the mapping result of the correction value to the face area FA performed in the printer shown in FIG. 図1に示すプリンタにおいて実行される補正値のマッピング方法について説明する図である。It is a figure explaining the mapping method of the correction value performed in the printer shown in FIG.

符号の説明Explanation of symbols

1 プリンタ, 11 CPU, 12 内部メモリ, 13 操作部,14 表示部
, 15 プリンタエンジン, 16 カードI/F, 21 顔領域検出部, 22
非補正領域検出部, 23 補正領域特定部, 24 補正部, 25 出力制御部,
51 顔領域検出部(顔領域検出手段), 52 補正部(補正手段), 53 出力制
御部
DESCRIPTION OF SYMBOLS 1 Printer, 11 CPU, 12 Internal memory, 13 Operation part, 14 Display part, 15 Printer engine, 16 Card I / F, 21 Face area detection part, 22
Non-correction area detection unit, 23 correction area specifying unit, 24 correction unit, 25 output control unit,
51 Face Area Detection Unit (Face Area Detection Unit), 52 Correction Unit (Correction Unit), 53 Output Control Unit

Claims (7)

画像の色調を補正する画像処理装置であって、
上記画像における顔の画像を含む顔領域を検出する顔領域検出手段と、
上記画像の色調を所定の補正量で補正する補正手段と
を備え、
上記補正手段は、上記顔領域内の顔を表す画像領域における所定領域の位置に基づいて
上記補正量を特定する
画像処理装置。
An image processing apparatus for correcting the color tone of an image,
Face area detecting means for detecting a face area including a face image in the image;
Correction means for correcting the color tone of the image with a predetermined correction amount,
The image processing apparatus, wherein the correction unit specifies the correction amount based on a position of a predetermined area in an image area representing a face in the face area.
前記補正手段は、
顔形状を有する補正強度モデルであって、前記補正強度を表す補正値が設定されてい
る補正強度モデルを取得し、
上記補正強度モデルに設定されている上記補正値を、前記顔領域にマッピングし、マ
ッピングされた上記補正値で前記顔領域の色調を補正する
請求項1に記載の画像処理装置。
The correction means includes
A correction strength model having a face shape, wherein a correction strength model in which a correction value representing the correction strength is set is obtained,
The image processing apparatus according to claim 1, wherein the correction value set in the correction intensity model is mapped to the face area, and a color tone of the face area is corrected with the mapped correction value.
前記補正強度モデルには、顔の位置に応じた補正量が設定されている
請求項1又は請求項2のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein a correction amount according to a face position is set in the correction intensity model.
目の位置の補正量と頬の位置の補正量では、その大きさが異なる
請求項1、請求項2、又は請求項3のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the magnitudes of the eye position correction amount and the cheek position correction amount are different from each other.
前記補正手段は、前記顔領域の輪郭方向に向かって、色調の補正量を段階的に小さくす

請求項1、請求項2、請求項3、又は請求項4のいずれか1項に記載の画像処理装置。
The image according to any one of claims 1, 2, 3, and 4, wherein the correction unit gradually decreases a correction amount of a color tone in a contour direction of the face area. Processing equipment.
画像の色調を補正する画像処理装置の画像処理方法であって、
上記画像における顔の画像を含む顔領域を検出する顔領域検出ステップと、
上記画像の色調を所定の補正量で補正する補正ステップと
を含み、
上記補正ステップは、上記顔領域内の顔を表す画像領域における所定領域の位置に基づ
いて上記補正量を特定する
画像処理方法。
An image processing method of an image processing apparatus for correcting the color tone of an image, comprising:
A face area detecting step for detecting a face area including a face image in the image;
A correction step of correcting the color tone of the image with a predetermined correction amount,
The image processing method in which the correction step specifies the correction amount based on a position of a predetermined area in an image area representing a face in the face area.
画像の色調を補正する画像処理を、コンピュータに実行させるプログラムであって、
上記画像における顔の画像を含む顔領域を検出する顔領域検出ステップと、
上記画像の色調を所定の補正量で補正する補正ステップと
を含み、
上記補正ステップは、上記顔領域内の顔を表す画像領域における所定領域の位置に基づ
いて上記補正量を特定する
画像処理を、コンピュータに実行させるプログラム。
A program for causing a computer to execute image processing for correcting the color tone of an image,
A face area detecting step for detecting a face area including a face image in the image;
A correction step of correcting the color tone of the image with a predetermined correction amount,
The correction step is a program for causing a computer to execute image processing for specifying the correction amount based on a position of a predetermined area in an image area representing a face in the face area.
JP2008094748A 2008-04-01 2008-04-01 Image processing unit, image processing method, and program Withdrawn JP2009253324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008094748A JP2009253324A (en) 2008-04-01 2008-04-01 Image processing unit, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094748A JP2009253324A (en) 2008-04-01 2008-04-01 Image processing unit, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2009253324A true JP2009253324A (en) 2009-10-29

Family

ID=41313638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094748A Withdrawn JP2009253324A (en) 2008-04-01 2008-04-01 Image processing unit, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2009253324A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128946A (en) * 2012-12-28 2014-07-10 Sinfonia Technology Co Ltd Thermal printer and sticker printing device using thermal printer
JP2014216788A (en) * 2013-04-24 2014-11-17 株式会社メイクソフトウェア Image output device
KR101507410B1 (en) 2014-10-21 2015-03-31 주식회사 모리아타운 Live make-up photograpy method and apparatus of mobile terminal
JP2021170343A (en) * 2018-10-11 2021-10-28 カシオ計算機株式会社 Image processing device, image processing method, and program
JP7458281B2 (en) 2020-09-30 2024-03-29 日本放送協会 Color correction device and its program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128946A (en) * 2012-12-28 2014-07-10 Sinfonia Technology Co Ltd Thermal printer and sticker printing device using thermal printer
JP2014216788A (en) * 2013-04-24 2014-11-17 株式会社メイクソフトウェア Image output device
KR101507410B1 (en) 2014-10-21 2015-03-31 주식회사 모리아타운 Live make-up photograpy method and apparatus of mobile terminal
JP2021170343A (en) * 2018-10-11 2021-10-28 カシオ計算機株式会社 Image processing device, image processing method, and program
JP7279741B2 (en) 2018-10-11 2023-05-23 カシオ計算機株式会社 Image processing device, image processing method and program
JP7458281B2 (en) 2020-09-30 2024-03-29 日本放送協会 Color correction device and its program

Similar Documents

Publication Publication Date Title
KR101446975B1 (en) Automatic face and skin beautification using face detection
JP4924264B2 (en) Image processing apparatus, image processing method, and computer program
JP2001109907A (en) Three-dimensional model generation device, three- dimensional model generation method, and recording medium recording three-dimensional model generation program
JP2005327009A (en) Image correction device
JP2005310068A (en) Method for correcting white of eye, and device for executing the method
JP2010186288A (en) Image processing for changing predetermined texture characteristic amount of face image
JP2000261650A (en) Image processing unit
JP6417851B2 (en) Image processing apparatus and computer program
JP2007228131A (en) Correction of color of image data
JP2004147288A (en) Facial image correction method
US20090231628A1 (en) Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing
JP2007241424A (en) Image processor and image processing method
JP2009253324A (en) Image processing unit, image processing method, and program
JP2011053942A (en) Apparatus, method and program for processing image
JP4877074B2 (en) Image processing apparatus, image processing method, and computer program
JP5659228B2 (en) Character generation system, character generation method and program
JP2007066227A (en) Image processor, processing method and program
JP2006343863A (en) Image processor and image processing method
JP2006350769A (en) Image processing device, method and program
JP2009251634A (en) Image processor, image processing method, and program
JP2009223524A (en) Image processor, image processing method, and computer program for image processing
JP2007264828A (en) Image processing method and device and printer
JP2009231879A (en) Image processing unit and image processing method
JP2009253319A (en) Image processing unit, image processing method, and program
JP2010245721A (en) Face image processing

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607