JP2005216131A - Makeup simulation apparatus, method and program - Google Patents

Makeup simulation apparatus, method and program Download PDF

Info

Publication number
JP2005216131A
JP2005216131A JP2004023947A JP2004023947A JP2005216131A JP 2005216131 A JP2005216131 A JP 2005216131A JP 2004023947 A JP2004023947 A JP 2004023947A JP 2004023947 A JP2004023947 A JP 2004023947A JP 2005216131 A JP2005216131 A JP 2005216131A
Authority
JP
Japan
Prior art keywords
image
makeup
layer
transparency
mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004023947A
Other languages
Japanese (ja)
Other versions
JP4404650B2 (en
Inventor
Tomotaka Ogino
友隆 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Digital Fashion Ltd
Original Assignee
Digital Fashion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Fashion Ltd filed Critical Digital Fashion Ltd
Priority to JP2004023947A priority Critical patent/JP4404650B2/en
Priority to US10/583,619 priority patent/US20070019882A1/en
Priority to EP04793233A priority patent/EP1710746A1/en
Priority to CN 200480041041 priority patent/CN1906631A/en
Priority to PCT/JP2004/016125 priority patent/WO2005073909A1/en
Publication of JP2005216131A publication Critical patent/JP2005216131A/en
Application granted granted Critical
Publication of JP4404650B2 publication Critical patent/JP4404650B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display in a natural way the contours of makeup element images on an image to be simulated. <P>SOLUTION: This makeup simulation apparatus includes: a transparency normalizing part 107 that creates normal-transparency layer images each with normalized transparency on the basis of layer images included in a makeup-pattern image created for a still image, by reading the makeup-pattern image from a makeup-pattern-in-use image storage part 104; a color conversion process part 109 that subjects color components in the layer images and each frame image in an animation to a color conversion process; mesh setting parts 116, 117 that set meshes inside the contours of a face included in each frame image and the makeup-pattern image; a makeup element image deforming part 120 that calculates a difference between the apexes of the meshes set on both images and deforms the makeup element images in the normal-transparency layer images according to the difference so that the makeup element images match the frame images; and an image synthesis part 121 that synthesizes the color-converted layer images and each frame image through α-blending. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、顔画像を含むシミュレーション対象画像に対して仮想的に化粧を施す化粧シミュレーション技術に関するものである。   The present invention relates to a makeup simulation technique for virtually applying makeup to a simulation target image including a face image.

従来より、ペンタブレット等の入力装置と、市販のレタッチ画像処理ソフトウェア(例えば、アドビ社のフォトショップ等)がインストールされた市販のコンピュータとを用いて、ユーザからの描画指令を基に、ブラシで化粧を塗布するような描画処理を行い、顔の静止画像に対して仮想的に化粧を施す手法が知られている。   Conventionally, using an input device such as a pen tablet and a commercially available computer in which commercially available retouch image processing software (for example, Adobe Photoshop) is installed, a brush is created based on a drawing command from the user. There is known a technique of performing makeup processing for applying makeup and virtually applying makeup to a still image of a face.

また、顔の動画像の各フレームに対し、口及び目の位置を検出し、検出した位置を基に、口紅、チーク等の化粧を施す領域を特定し、指定した領域に色を付すことにより、顔の動画像に対してリアルタイムに化粧シミュレーションを行なう技術が知られている(特許文献1)。
特開2003−44837号公報
In addition, by detecting the position of the mouth and eyes for each frame of the moving image of the face, identifying the area to which makeup such as lipstick and teak is applied based on the detected position, and coloring the specified area A technique for performing makeup simulation on a moving image of a face in real time is known (Patent Document 1).
JP 2003-44837 A

しかしながら、上記静止画像に対して仮想的に化粧を施す手法では、作成されたシミュレーション画像は、単に顔画像上に領域が指定されて化粧の塗布領域(化粧要素画像)が定められているにすぎず、かかる画像を、同一人物で表情の異なる画像に適用する、あるいは、他人の画像に適用するというようなことはなされていなかった。   However, in the method of virtually applying makeup to the still image, the created simulation image is simply a region designated on the face image and a makeup application region (makeup element image) is defined. However, such an image has not been applied to an image of the same person with a different expression or applied to an image of another person.

また、特許文献1の発明は、化粧要素画像を数式で定義し、顔の表情の変化に応じて、数式のパラメータを調整し、シミュレーション画像を得るものであるが、かかるパラメータの調整には数学及びプログラム等の専門的な知識が要求される。そのため、専門的な知識を有さない多少絵心のあるユーザが、簡略化された操作によりシミュレーション画像を得ることは困難であるという問題があった。また、化粧要素画像が自由曲線から構成される場合、パラメータの調整は非常に複雑となり、数学及びプログラミングの知識を有する熟練者であっても、パラメータの調整には、多大な労力がかかるという問題があった。さらに、化粧画像が数式で定義されているため、演算に時間多大なる時間がかかるという問題があった。さらに、化粧要素画像を数式で近似するという方式であるため、実際に化粧を塗布したような高品質な画像を得ることが困難であった。   In the invention of Patent Document 1, a makeup element image is defined by a mathematical formula, and a parameter of the mathematical formula is adjusted according to a change in facial expression to obtain a simulation image. And specialized knowledge such as programs. For this reason, there is a problem that it is difficult for a user who does not have specialized knowledge and has a little imagination to obtain a simulation image by a simplified operation. In addition, when the makeup element image is composed of a free curve, the parameter adjustment becomes very complicated, and even a skilled person having knowledge of mathematics and programming takes a lot of labor to adjust the parameter. was there. Furthermore, since the makeup image is defined by a mathematical formula, there is a problem that it takes a long time for the calculation. Furthermore, since the makeup element image is approximated by a mathematical expression, it is difficult to obtain a high-quality image as if makeup was actually applied.

本発明は、上記課題を解決するためになされたものであり、専門的な知識を有する者でなくとも、簡略化された操作により高品質かつ高速にシミュレーション画像を得ることができる化粧シミュレーションに関する技術を提供することを目的とする。   The present invention has been made to solve the above-described problem, and is a technique related to a makeup simulation capable of obtaining a high-quality and high-speed simulation image by a simplified operation even if the person does not have specialized knowledge. The purpose is to provide.

本発明にかかる化粧シミュレーション装置は、操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得手段と、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段とを備えることを特徴とする。   A makeup simulation apparatus according to the present invention is created in advance based on a drawing command from a user input via an operation device, and includes at least one makeup element image having the same color in each layer, where n is a positive number A first image is created on the basis of reference image acquisition means for acquiring a reference image composed of a layer image composed of (integer) layers and a background image including a face image, and the transparency of each pixel of the layer image. First image creation means, simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated, and inside a contour of a face image included in each of the reference image and the simulation target image Mesh setting means for setting a mesh, and a message set for each of the reference image and the simulation target image. An image for calculating a difference between positions of corresponding vertices of the image and transforming a makeup element image included in the first image so as to be adapted to a face image in the simulation target image based on the calculated difference A second image creating unit that performs a color conversion process on the simulation target image using a color component of each layer image and creates a second image corresponding to each layer of the layer image; Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. Means.

また、前記第1の画像作成手段は、前記透明度を基に、透明度レイヤー画像を作成し、作成した透明度レイヤー画像の各画素の透明度を正規化し、得られた画像を前記第1の画像とし、前記画像合成手段は、αブレンディングにより、前記シミュレーション対象画像及び前記2の画像を合成することが好ましい。   The first image creating means creates a transparency layer image based on the transparency, normalizes the transparency of each pixel of the created transparency layer image, and sets the obtained image as the first image. Preferably, the image synthesizing unit synthesizes the simulation target image and the second image by α blending.

また、前記第2の画像作成手段は、各レイヤー画像の色成分及び前記シミュレーション対象画像の各々をRGB表色系からHSV表色系に変換し、変換された両色を式(A)〜式(C)を用いて合成し、合成した画像をHSV表色系からRGB表色系に変換し、得られた画像を、前記第2の画像とすることが好ましい。
r=Hc ・・・式(A)
r=0.8×Sf+0.2×Sc ・・・式(B)
r=0.8×Vf+0.2×Vc ・・・式(C)
但し、Hc、Sc、Vcはレイヤー画像の色成分のHSV値を示し、Sf、Vfはシミュレーション対象画像の各画素のHSV値を示し、Hr、Sr、Vrは第2の合成対象画像の各画素のHSV値を示している。
The second image creating means converts the color components of each layer image and each of the simulation target images from the RGB color system to the HSV color system, and the converted two colors are represented by the formulas (A) to (A) to (C). It is preferable to synthesize using (C), convert the synthesized image from the HSV color system to the RGB color system, and use the obtained image as the second image.
H r = H c Formula (A)
S r = 0.8 × S f + 0.2 × S c Formula (B)
V r = 0.8 × V f + 0.2 × V c Formula (C)
However, H c , S c , V c indicate HSV values of the color components of the layer image, S f , V f indicate HSV values of the respective pixels of the simulation target image, and H r , S r , V r are the first values. 2 shows the HSV value of each pixel of the composition target image 2.

また、顔の輪郭内部にメッシュが設定された初期メッシュを記憶する初期メッシュ記憶手段をさらに備え、前記初期メッシュの各頂点は、顔部品の輪郭上に位置する特徴頂点と、その他の浮動点とから構成され、前記メッシュ設定手段は、前記シミュレーション対象画像及び前記基準画像の各々から、前記顔部品の輪郭を抽出し、前記特徴頂点を、抽出した顔部品の輪郭上に移動させるとともに、前記初期メッシュの各頂点間の距離が保持されるように、前記浮動点を移動させ、前記シミュレーション対象画像及び前記基準画像の各々に、メッシュを設定することが好ましい。   The image processing apparatus further includes initial mesh storage means for storing an initial mesh in which a mesh is set inside the face contour, wherein each vertex of the initial mesh includes a feature vertex positioned on the contour of the face part, and other floating points. The mesh setting means extracts the outline of the facial part from each of the simulation target image and the reference image, moves the feature vertex onto the extracted facial part outline, and It is preferable that the floating point is moved so that the distance between the vertices of the mesh is maintained, and a mesh is set for each of the simulation target image and the reference image.

また、前記画像変形手段は、前記初期メッシュの各頂点を、画像面と直交する高さ成分が付与された3次元データとし、前記浮動点には、一定の値の高さ成分を付与し、前記特徴頂点は、前記画像面上に位置させ、前記各頂点に対し、式(D)及び式(E)で示す演算を所定回数適用することにより前記浮動点を移動させることが好ましい。   In addition, the image transformation means, each vertex of the initial mesh is set to three-dimensional data to which a height component orthogonal to the image plane is given, and a height component of a certain value is given to the floating point, It is preferable that the feature vertex is located on the image plane, and the floating point is moved by applying the calculation represented by the equations (D) and (E) a predetermined number of times to each vertex.

Figure 2005216131
Figure 2005216131

但し、Piベクトルは、メッシュの頂点の座標を示し、Pjベクトルは、Piベクトルに隣接するメッシュの頂点の座標を示し、Pi´ベクトルは演算が施されたPiベクトルを示し、Pj´ベクトルは演算が施されたPjベクトルを示し、lijはPiベクトル及びPjベクトルを結ぶ線分の長さを示し、λは定数値を示している。 However, P i vector, the coordinates of the vertices of the mesh, P j vector, the coordinates of the vertices of the mesh adjacent to the P i vector, P i 'vector represents the P i vector operation is performed, The P j ′ vector indicates the P j vector on which the operation has been performed, l ij indicates the length of the line segment connecting the P i vector and the P j vector, and λ indicates a constant value.

また、前記シミュレーション対象画像は、動画像中の各フレーム画像であることが好ましい。   Moreover, it is preferable that the said simulation object image is each frame image in a moving image.

本発明にかかる化粧シミュレーション方法は、コンピュータが、操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得ステップと、コンピュータが、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成ステップと、コンピュータが、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得ステップと、コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定ステップと、コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形ステップと、コンピュータが、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成ステップと、コンピュータが、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成ステップとを備えることを特徴とする。   In the makeup simulation method according to the present invention, the computer includes n (n) including at least one makeup element image having the same color in each layer, which is created in advance based on a drawing command from the user input via the operation device. Is a positive integer) a reference image acquisition step of acquiring a reference image composed of a layer image consisting of a hierarchy and a background image including a face image, and a computer, based on the transparency of each pixel of the layer image, A first image creation step of creating one image, a simulation target image acquisition step in which the computer acquires a simulation target image including a face image of a person to be simulated, and the computer includes the reference image and the simulation target A mesh setting that sets a mesh inside the contour of the face image included in each image And a computer calculates a difference between positions of corresponding vertices of the mesh set in each of the reference image and the simulation target image, and based on the calculated difference, the makeup included in the first image An image transformation step for transforming the element image so as to match the face image in the simulation target image, and the computer performs color conversion processing on the simulation target image using color components of each layer image, A second image creating step for creating a second image corresponding to each layer of the layer image; and a computer that determines the transparency of each of the second image and the simulation target image based on the first image. An image synthesis step for synthesizing the simulation target image and the second image using the determined transparency. Characterized in that it comprises and.

本発明にかかる化粧シミュレーションプログラムは、操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得手段と、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段としてコンピュータを機能させることを特徴とする。   A makeup simulation program according to the present invention is created in advance based on a drawing command from a user input via an operating device, and includes at least one makeup element image having the same color in each layer, where n is a positive number A first image is created on the basis of reference image acquisition means for acquiring a reference image composed of a layer image composed of (integer) layers and a background image including a face image, and the transparency of each pixel of the layer image. First image creation means, simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated, and inside a contour of a face image included in each of the reference image and the simulation target image A mesh setting means for setting a mesh, and each of the reference image and the simulation target image. An image for calculating a difference between positions of corresponding vertices of the mesh, and transforming a makeup element image included in the first image so as to match a face image in the simulation target image based on the calculated difference. A second image creating unit that performs a color conversion process on the simulation target image using a color component of each layer image and creates a second image corresponding to each layer of the layer image; Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. A computer is functioned as means.

請求項1記載の発明によれば、ペンタブレット等の操作装置を用いて顔の静止画像上に化粧要素画像が描画された基準画像と、シミュレーション対象画像とが取得され、基準画像を構成する各レイヤー画像の透明度を基に、第1の画像が作成され、基準画像の顔領域及びシミュレーション対象画像の顔領域の各々に対してメッシュが設定され、両メッシュの各頂点の差分を基に、第1の画像中の化粧要素画像が、シミュレーション対象画像中の顔領域に適合するように変形される。そして、シミュレーション対象画像が各レイヤー画像の色成分を用いて変換され、第2の画像が作成され、第1の画像を基に、第2の画像及びシミュレーション対象画像の透明度が決定され、決定された透明度により、第1の画像及びシミュレーション対象画像が合成される。   According to the first aspect of the present invention, the reference image in which the makeup element image is drawn on the still image of the face using the operation device such as a pen tablet and the simulation target image are acquired, and each of the reference images is configured. A first image is created based on the transparency of the layer image, a mesh is set for each of the face area of the reference image and the face area of the simulation target image, and the first image is created based on the difference between the vertices of both meshes. The makeup element image in one image is deformed so as to fit the face area in the simulation target image. Then, the simulation target image is converted using the color component of each layer image, a second image is created, and the transparency of the second image and the simulation target image is determined and determined based on the first image. The first image and the simulation target image are synthesized based on the transparency.

したがって、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。   Therefore, the user can obtain a high-quality makeup simulation image as if the makeup was actually applied at high speed only by performing a simplified operation such as operating an operation device such as a pen tablet. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.

請求項2記載の発明によれば、透明度レイヤー画像の各画素の透明度が正規化されているため、画像合成手段は、レイヤー画像の順序が入れ替わっても、同一の画像を生成することができる。   According to the invention described in claim 2, since the transparency of each pixel of the transparency layer image is normalized, the image composition means can generate the same image even if the order of the layer images is changed.

請求項3記載の発明によれば、シミュレーション対象画像の明度・彩度をある程度維持したまま、化粧要素画像の色相を変更することができるため、化粧要素画像をシミュレーション対象画像上に自然な状態で表すことができる。   According to the invention described in claim 3, since the hue of the makeup element image can be changed while maintaining the brightness and saturation of the simulation object image to some extent, the makeup element image can be displayed on the simulation object image in a natural state. Can be represented.

請求項4記載の発明によれば、初期メッシュの頂点同士の位置関係がバランスよく保持された状態で、基準画像及びシミュレーション対象画像にメッシュを設定することができる。   According to the fourth aspect of the present invention, it is possible to set the mesh in the reference image and the simulation target image in a state where the positional relationship between the vertices of the initial mesh is maintained in a well-balanced manner.

請求項5記載の発明によれば、初期メッシュの各頂点間の距離を保持しつつ、メッシュを構成するポリゴンの重なりの発生を防止することができる。   According to the fifth aspect of the present invention, it is possible to prevent the polygons constituting the mesh from overlapping while maintaining the distance between the vertices of the initial mesh.

請求項6記載の発明によれば、動画像に対して化粧シミュレーションを実行することができる。   According to the sixth aspect of the present invention, a makeup simulation can be executed on a moving image.

請求項7記載の発明によれば、ペンタブレット等の操作装置を用いて顔の静止画像上に化粧要素画像が描画された基準画像と、基準画像及びシミュレーション対象画像とが取得され、基準画像を構成する各レイヤー画像の透明度を基に、第1の画像が作成され、基準画像の顔領域及びシミュレーション対象の顔領域の各々に対してメッシュが設定され、両メッシュの各頂点の差分を基に、第1の画像中の化粧要素画像が、シミュレーション対象画像中の顔領域に適合するように変形される。そして、シミュレーション対象画像が各レイヤー画像の色成分を用いて変換され、第2の画像が作成され、第1の画像を基に、第2の画像及びシミュレーション対象画像の透明度が決定され、決定された透明度により、第1の画像及びシミュレーション対象画像が合成される。   According to the seventh aspect of the present invention, the reference image in which the makeup element image is drawn on the still image of the face using the operation device such as a pen tablet, the reference image, and the simulation target image are acquired. A first image is created based on the transparency of each layer image, and a mesh is set for each of the face area of the reference image and the face area to be simulated. Based on the difference between the vertices of both meshes The makeup element image in the first image is deformed so as to fit the face area in the simulation target image. Then, the simulation target image is converted using the color component of each layer image, a second image is created, and the transparency of the second image and the simulation target image is determined and determined based on the first image. The first image and the simulation target image are synthesized based on the transparency.

したがって、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。   Therefore, the user can obtain a high-quality makeup simulation image as if the makeup was actually applied at high speed only by performing a simplified operation such as operating an operation device such as a pen tablet. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.

請求項8記載の発明によれば、ペンタブレット等の操作装置を用いて顔の静止画像上に化粧要素画像が描画された基準画像と、基準画像及びシミュレーション対象画像とが取得され、基準画像を構成する各レイヤー画像の透明度を基に、第1の画像が作成され、基準画像の顔領域及びシミュレーション対象画像の顔領域の各々に対してメッシュが設定され、両メッシュの各頂点の差分を基に、第1の画像中の化粧要素画像が、シミュレーション対象画像中の顔領域に適合するように変形される。そして、シミュレーション対象画像が各レイヤー画像の色成分を用いて変換され、第2の画像が作成され、第1の画像を基に、第2の画像及びシミュレーション対象画像の透明度が決定され、決定された透明度により、第1の画像及びシミュレーション対象画像が合成される。   According to the eighth aspect of the present invention, the reference image in which the makeup element image is drawn on the still image of the face using the operation device such as a pen tablet, the reference image, and the simulation target image are acquired. A first image is created based on the transparency of each layer image, and a mesh is set for each of the face area of the reference image and the face area of the simulation target image, and the difference between the vertices of both meshes is set. In addition, the makeup element image in the first image is deformed so as to fit the face region in the simulation target image. Then, the simulation target image is converted using the color component of each layer image, a second image is created, and the transparency of the second image and the simulation target image is determined and determined based on the first image. The first image and the simulation target image are synthesized based on the transparency.

したがって、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。   Therefore, the user can obtain a high-quality makeup simulation image as if the makeup was actually applied at high speed only by performing a simplified operation such as operating an operation device such as a pen tablet. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.

以下、本発明の一実施の形態による化粧シミュレーション装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による化粧シミュレーション装置のハードウェア構成を示すブロック図である。   Hereinafter, a makeup simulation apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a hardware configuration of a makeup simulation apparatus according to an embodiment of the present invention.

図1に示す化粧シミュレーション装置は、通常のコンピュータ等から構成され、入力装置1、ROM(リードオンリメモリ)2、CPU(中央演算処理装置)3、RAM(ランダムアクセスメモリ)4、外部記憶装置5、表示装置6及び記録媒体駆動装置7を備える。各ブロックは内部のバスに接続され、このバスを介して種々のデータが入出力され、CPU3の制御の下、種々の処理が実行される。   The makeup simulation apparatus shown in FIG. 1 includes an ordinary computer or the like, and includes an input device 1, a ROM (read only memory) 2, a CPU (central processing unit) 3, a RAM (random access memory) 4, and an external storage device 5. And a display device 6 and a recording medium driving device 7. Each block is connected to an internal bus, and various data are input / output via this bus, and various processes are executed under the control of the CPU 3.

入力装置1は、キーボード、マウス及びペンタブレット等から構成され、操作者が種々のデータ及び操作指令等を入力するために使用される。   The input device 1 includes a keyboard, a mouse, a pen tablet, and the like, and is used by an operator to input various data and operation commands.

ROM2は、BIOS(Basic Input/Output System)等のシステムプログラム等を記憶する。RAM4は、CPU3の作業領域等として用いられる。   The ROM 2 stores system programs such as BIOS (Basic Input / Output System). The RAM 4 is used as a work area for the CPU 3.

外部記憶装置5は、ハードディスクドライブ等から構成され、所定のOS(Operating System)及び後述する化粧シミュレーションプログラム等を記憶する。   The external storage device 5 is composed of a hard disk drive or the like, and stores a predetermined OS (Operating System), a makeup simulation program described later, and the like.

表示装置6は、液晶表示装置、CRT(陰極線管)等から構成され、CPU3の制御の下、種々の画像を表示する。   The display device 6 includes a liquid crystal display device, a CRT (cathode ray tube), and the like, and displays various images under the control of the CPU 3.

記録媒体駆動装置7は、CD−ROMドライブ、フレキシブルディスクドライブ等から構成される。本実施形態では、化粧シミュレーションプログラムを記録する、CD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体8を、記録媒体駆動装置7に装填し、インストールすることにより、化粧シミュレーションプログラムを外部記憶装置5に格納している。   The recording medium driving device 7 includes a CD-ROM drive, a flexible disk drive, and the like. In the present embodiment, a computer-readable recording medium 8 such as a CD-ROM or a flexible disk that records a makeup simulation program is loaded into the recording medium driving device 7 and installed, whereby the makeup simulation program is stored in an external storage device. 5 is stored.

なお、インターネット上に接続されたWEBサーバに化粧シミュレーションプログラムを記憶させておき、WEBサーバからその化粧シミュレーションプログラムをダウンロードすることにより、コンピュータに化粧シミュレーションプログラムをインストールしてもよい。さらに、コンピュータに顔の動画像を取得させ、WEBサーバに送信し、WEBサーバ上で化粧シミュレーションの処理を実行し、その処理結果をパーソナルコンピュータに送信するというように、WEBサーバとコンピュータとで化粧シミュレーションプログラムを分散して実行させてもよい。   Note that the makeup simulation program may be installed in the computer by storing the makeup simulation program in a WEB server connected to the Internet and downloading the makeup simulation program from the WEB server. Furthermore, a makeup image is acquired between the WEB server and the computer such that the computer acquires a moving image of the face, transmits it to the WEB server, executes a makeup simulation process on the WEB server, and transmits the processing result to the personal computer. The simulation program may be distributed and executed.

動画カメラ10は、入出力インターフェイス(I/F)9を介してバスラインに接続され、例えばCCDエリアセンサにより、種々の動画像を所定のフレームレートで取得し、コンピュータに出力する。   The moving picture camera 10 is connected to a bus line via an input / output interface (I / F) 9 and acquires various moving images at a predetermined frame rate by, for example, a CCD area sensor, and outputs them to a computer.

静止画カメラ11は、入出I/F9を介してバスラインに接続され、例えばCCDエリアセンサにより、種々の静止画像を取得し、コンピュータに出力する。   The still image camera 11 is connected to the bus line via the input / output I / F 9 and acquires various still images by, for example, a CCD area sensor and outputs them to a computer.

本化粧シミュレーション装置は、ユーザによって予め作成されたメイクパターン画像を基に、動画像に対して化粧シミュレーションを実行する化粧シミュレーションモードと、上記メイクパターン画像を作成するメイクパターン作成モードとを備えている。まず、化粧シミュレーションモードについて説明する。   The makeup simulation apparatus includes a makeup simulation mode for executing makeup simulation on a moving image based on a makeup pattern image created in advance by a user, and a makeup pattern creation mode for creating the makeup pattern image. . First, the makeup simulation mode will be described.

(化粧シミュレーションモード)
図2は、本化粧シミュレーション装置の化粧シミュレーションモードの機能を示すブロック図を示している。メイクパターン画像記憶部101は、外部記憶装置5から構成され、メイクパターン作成モードにおいて作成された1又は複数種類のメイクパターン画像を記憶している。
(Makeup simulation mode)
FIG. 2 is a block diagram showing functions of the makeup simulation mode of the makeup simulation apparatus. The makeup pattern image storage unit 101 includes the external storage device 5 and stores one or a plurality of types of makeup pattern images created in the makeup pattern creation mode.

メイクパターン画像は、N(Nは正の整数)階層からなるレイヤー画像と、顔が表示された背景画像とから構成されている。背景画像は、人間を静止画カメラ11で撮影することで取得された画像である。レイヤー画像には、1種類の化粧要素画像が含まれる。ここで、化粧要素画像とは、口紅、チーク、アイシャドウ等、各化粧要素の形状及び色等が表された画像を示す。化粧要素画像は、入力装置1を操作することにより、ユーザによって仮想的に描画された画像である。メイクパターン作成モードでは、1種類の化粧要素画像が作成される毎に1つのレイヤー画像が作成されるため、レイヤー画像には1種類の化粧要素画像が含まれる。また、メイクパターン作成モードでは、1種類の化粧要素画像に対して、1色の色が設定される。   The makeup pattern image is composed of a layer image composed of N (N is a positive integer) layers and a background image on which a face is displayed. The background image is an image obtained by photographing a person with the still image camera 11. The layer image includes one type of makeup element image. Here, the makeup element image indicates an image in which the shape and color of each makeup element, such as lipstick, teak, and eye shadow, are represented. The makeup element image is an image virtually drawn by the user by operating the input device 1. In the makeup pattern creation mode, since one layer image is created every time one type of makeup element image is created, one type of makeup element image is included in the layer image. In the makeup pattern creation mode, one color is set for one type of makeup element image.

レイヤー画像は、R(赤),G(緑),B(青)値からなる色成分と、背景画像に対する各画素の透明度が示された透明度成分とから構成されている。1種類の化粧要素画像は、1色から構成されているため、1枚のレイヤー画像の色成分は、全画素において同じR,G,B値を有している。すなわち、1枚のレイヤー画像の色成分は、1種類のR,G,B値により表される。   The layer image is composed of a color component composed of R (red), G (green), and B (blue) values, and a transparency component indicating the transparency of each pixel with respect to the background image. Since one type of makeup element image is composed of one color, the color components of one layer image have the same R, G, and B values in all pixels. That is, the color component of one layer image is represented by one type of R, G, and B values.

透明度は、背景画像に対するレイヤー画像の表示の混合率を示すものである。最大値1では、レイヤー画像のみが表示され背景画像は表示されない。また、最小値0では、レイヤー画像が表示されず、背景画像のみが表示される。すなわち、i(1≦i≦n)番目のレイヤー画像のある画素の透明度をaiとするとき、背景画像の透明度は、1−aiとなる。なお、透明度は、ユーザによる化粧要素画像の描画時のペンタブレットの軌跡や筆圧等に応じて設定される。 The transparency indicates the mixing ratio of the display of the layer image with respect to the background image. At the maximum value 1, only the layer image is displayed and the background image is not displayed. At the minimum value 0, the layer image is not displayed and only the background image is displayed. That is, when the transparency of a pixel in the i (1 ≦ i ≦ n) th layer image is a i , the transparency of the background image is 1−a i . The transparency is set according to the locus of the pen tablet, the writing pressure, and the like when the user draws the makeup element image.

背景画像は、R,G,B値からなる色成分から構成されている。背景画像は、画素毎に色が異なるため、背景画像の色成分は、レイヤー画像とは異なり、画素毎に異なるR,G,B値を有している。背景画像自身は、透明度を有さないが、レイヤー画像の透明度によって、背景画像の透明度が規定される。   The background image is composed of color components composed of R, G, and B values. Since the background image has a different color for each pixel, the color component of the background image has different R, G, and B values for each pixel, unlike the layer image. The background image itself does not have transparency, but the transparency of the background image is defined by the transparency of the layer image.

操作部102は、入力装置1から構成され、ユーザが種々の操作指令を入力するために用いられる。   The operation unit 102 includes the input device 1 and is used by a user to input various operation commands.

初期設定部103は、CPU3から構成され、操作部102を介して入力されたユーザからの操作指令を基に、メイクパターン画像記憶部101に記憶された複数種類のメイクパターン画像の中から、化粧シミュレーションに使用する1種類のメイクパターン画像を決定し、当該メイクパターン画像を使用メイクパターン画像として、使用メイクパターン画像記憶部104に記憶させる。また、使用メイクパターン画像のうち、いずれか1又は複数のレイヤー画像を削除する指令が行なわれた場合、使用メイクパターン画像から当該レイヤー画像を削除し、使用メイクパターン画像を更新する。また、使用メイクパターン画像のうち、いずれか1又は複数枚のレイヤー画像に対し、色の指定が行なわれた場合、当該レイヤー画像の色成分の値を指定された色の値に変更し、使用メイクパターン画像を更新する。以下、使用化粧パターン画像は、n(n≦N)枚のレイヤー画像からなるものとする。   The initial setting unit 103 is composed of the CPU 3, and based on an operation command from the user input via the operation unit 102, a makeup pattern image stored in the makeup pattern image storage unit 101 is selected from a plurality of types of makeup pattern images. One type of makeup pattern image to be used for the simulation is determined, and the makeup pattern image is stored in the used makeup pattern image storage unit 104 as a used makeup pattern image. Further, when an instruction to delete any one or a plurality of layer images from the used makeup pattern image is issued, the layer image is deleted from the used makeup pattern image, and the used makeup pattern image is updated. In addition, when a color is specified for any one or a plurality of layer images among the used makeup pattern images, the value of the color component of the layer image is changed to the specified color value and used. Update the makeup pattern image. Hereinafter, it is assumed that the used makeup pattern image is composed of n (n ≦ N) layer images.

使用メイクパターン画像記憶部104は、RAM4から構成され、使用メイクパターン画像を記憶する。   The used makeup pattern image storage unit 104 includes a RAM 4 and stores a used makeup pattern image.

透明度レイヤー画像作成部105は、CPU3から構成され、各レイヤー画像の透明度成分を基に、レイヤー画像の各階層に対応する透明度レイヤー画像を作成する。レイヤー画像は、画素毎に異なる透明度を有しているため、透明度レイヤー画像は、透明度によって濃淡表示された化粧要素画像を含む画像となる。   The transparency layer image creating unit 105 is configured by the CPU 3 and creates a transparency layer image corresponding to each layer of the layer image based on the transparency component of each layer image. Since the layer image has different transparency for each pixel, the transparency layer image is an image including a makeup element image displayed in shades depending on the transparency.

色レイヤー作成部106は、CPU3から構成され、各レイヤー画像に設定された色成分を基に、レイヤー画像の各階層に対応する色レイヤーを作成する。各レイヤー画像の色成分は、1種類のR,G,B値から構成されるため、各色レイヤーは、1種類のR,G,B値から構成される。すなわち、色レイヤーは、R,G,B値からなるデータである。   The color layer creation unit 106 is configured by the CPU 3 and creates a color layer corresponding to each layer of the layer image based on the color components set in each layer image. Since the color component of each layer image is composed of one type of R, G, B value, each color layer is composed of one type of R, G, B value. That is, the color layer is data composed of R, G, and B values.

透明度正規化部107は、CPU3から構成され、透明度レイヤー画像作成部105によって作成された透明度レイヤー画像の各画素に対して、式(1)の演算を施すことにより各画素を正規化し、正規化透明度レイヤー画像を作成する。また、透明度正規化部107は、背景画像の各画素に対して、式(2)の演算を施すことにより、背景画像の透明度を正規化する。   The transparency normalization unit 107 is composed of the CPU 3 and normalizes each pixel by performing the operation of Expression (1) on each pixel of the transparency layer image created by the transparency layer image creation unit 105. Create a transparency layer image. Further, the transparency normalization unit 107 normalizes the transparency of the background image by performing the calculation of Expression (2) for each pixel of the background image.

Figure 2005216131
Figure 2005216131

但し、αiはi階層目の透明度レイヤー画像の各画素の透明度を示し、βiは正規化された透明度レイヤー画像の各画素の透明度を示し、γは正規化された背景画像の各画素の透明度を示し、式(1)及び式(2)の分母は1からn階層目までの透明度レイヤー画像の透明度の和を示している。 However, α i indicates the transparency of each pixel of the transparency layer image in the i- th layer, β i indicates the transparency of each pixel of the normalized transparency layer image, and γ indicates each pixel of the normalized background image The degree of transparency is shown, and the denominators of the expressions (1) and (2) indicate the sum of the transparency of the transparency layer images from the 1st to the nth hierarchy.

正規化透明度画像レイヤー記憶部108は、RAM4から構成され、透明度正規化部107によって作成された正規化透明度レイヤー画像及び背景画像の透明度を記憶する。   The normalized transparency image layer storage unit 108 includes the RAM 4 and stores the transparency of the normalized transparency layer image and the background image created by the transparency normalization unit 107.

色変換処理部109は、CPU3から構成され、フレーム画像抽出部112によって動画像から抽出された1枚のフレーム画像の各画素のR,G,B値と、色レイヤーのR,G,B値とをHSV表色系に変換した後、式(3)〜式(5)に示す色変換処理を実行し、得られた画像をさらにR,G,B表色系に変換することにより、色変換レイヤー画像を作成する。なお、HSV表色系は、各画素が色相(H)、彩度(S)及び強度(V)の成分で表される表色系である。
r=Hc ・・・式(3)
r=0.8×Sf+0.2×Sc ・・・式(4)
r=0.8×Vf+0.2×Vc ・・・式(5)
但し、Hc、Sc、Vcは色レイヤーのH,S,V値を示し、Sf、Vfはフレーム画像1画素のH,S,V値を示し、Hr、Sr、Vrは色変換処理後の各画素のHSV値を示している。なお、色レイヤーはn階層からなるため、作成される色変換レイヤー画像はn階層からなる。
The color conversion processing unit 109 is composed of the CPU 3, and the R, G, and B values of each pixel of one frame image extracted from the moving image by the frame image extraction unit 112 and the R, G, and B values of the color layer Are converted into the HSV color system, color conversion processing shown in equations (3) to (5) is executed, and the resulting image is further converted into the R, G, B color system, Create a conversion layer image. The HSV color system is a color system in which each pixel is represented by components of hue (H), saturation (S), and intensity (V).
H r = H c Formula (3)
S r = 0.8 × S f + 0.2 × S c Formula (4)
V r = 0.8 × V f + 0.2 × V c (5)
However, H c , S c , V c indicate H, S, V values of the color layer, S f , V f indicate H, S, V values of one pixel of the frame image, and H r , S r , V r indicates the HSV value of each pixel after color conversion processing. Since the color layer has n layers, the created color conversion layer image has n layers.

色変換レイヤー画像記憶部110は、RAM4から構成され、色変換処理部109によって作成されたn階層からなる色変換レイヤー画像を記憶する。   The color conversion layer image storage unit 110 includes a RAM 4 and stores a color conversion layer image including n layers created by the color conversion processing unit 109.

動画像取得部111は、動画カメラ10から構成され、人間の顔の動画像を取得する。被写体となる人間は、化粧シミュレーションが適用される人間であり、使用メイクパターン画像のモデルとなる人間と同一人であってもよいし、別人であってもよい。   The moving image acquisition unit 111 includes the moving image camera 10 and acquires a moving image of a human face. The person who is the subject is the person to whom the makeup simulation is applied, and may be the same person as the person who becomes the model of the used makeup pattern image, or may be a different person.

フレーム画像抽出部112は、動画像取得部111によって取得された動画像から1枚のフレーム画像を順次抽出する。   The frame image extraction unit 112 sequentially extracts one frame image from the moving image acquired by the moving image acquisition unit 111.

特徴量抽出部113は、CPU3から構成され、使用メイクパターン画像記憶部104に記憶された使用メイクパターン画像から、顔の特徴量を抽出する。なお、特徴量とは、目、眉頭、目頭、目尻、鼻及び口等の特徴点と、顔、眉、目及び口の輪郭を表す特徴エッジと、肌、髪、背景の各領域を示す特徴クラスタ画像とが含まれる。これら特徴点、特徴エッジ及び特徴クラスタの抽出手法は、本出願人が出願した特開2003−44837号公報に開示されているため、説明を省略する。   The feature amount extraction unit 113 includes the CPU 3 and extracts a facial feature amount from the used makeup pattern image stored in the used makeup pattern image storage unit 104. The feature amount is a feature point indicating feature points such as eyes, eyebrows, eyes head, corners of eyes, nose and mouth, feature edges representing outlines of the face, eyebrows, eyes and mouth, and skin, hair and background regions. And cluster images. Since the feature point, feature edge, and feature cluster extraction method is disclosed in Japanese Patent Application Laid-Open No. 2003-44837 filed by the present applicant, description thereof is omitted.

特徴量抽出部114は、CPU3から構成され、特徴量抽出部113と同様にして、フレーム画像抽出部112によって抽出されたフレーム画像の特徴量を抽出する。   The feature amount extraction unit 114 includes the CPU 3 and extracts the feature amount of the frame image extracted by the frame image extraction unit 112 in the same manner as the feature amount extraction unit 113.

初期メッシュ記憶部115は、外部記憶装置5から構成され、人間の顔の輪郭内部にメッシュを設定する際に用いられる初期メッシュを記憶する。この初期メッシュは、ある人間の顔画像に基づいて予め作成されたものであり、一部のメッシュの頂点が、当該人間の顔、眉、目及び口の各輪郭を示す特徴エッジ上に位置するように、顔の輪郭内部にメッシュの各頂点が設定されている。本実施形態では、メッシュを三角形のポリゴンで構成しているが、これに限定されず、四角形、五角形等のポリゴンを用いても良い。以下、初期メッシュにおいて、特徴量に一致するように設定されたメッシュの頂点を「特徴頂点」と称し、特徴頂点以外のメッシュの頂点を「浮動点」と称する。本実施形態では、初期メッシュは、シェアウェアであるメタセコイアを用いて作成した。   The initial mesh storage unit 115 includes the external storage device 5 and stores an initial mesh used when setting a mesh inside the contour of a human face. This initial mesh is created in advance based on a certain human face image, and the vertices of a part of the mesh are located on characteristic edges indicating the contours of the human face, eyebrows, eyes, and mouth. In this way, each vertex of the mesh is set inside the contour of the face. In this embodiment, the mesh is composed of triangular polygons, but the present invention is not limited to this, and polygons such as quadrangles and pentagons may be used. Hereinafter, in the initial mesh, the vertices of the mesh set to match the feature amount are referred to as “feature vertices”, and the vertices of the mesh other than the feature vertices are referred to as “floating points”. In the present embodiment, the initial mesh is created using metasequoia that is shareware.

メッシュ設定部116は、CPU3から構成され、初期メッシュの特徴頂点を、使用メイクパターン粧画像から抽出された特徴エッジ上の対応する位置(移動対象位置)に移動させた後、初期メッシュの各頂点間の距離を一定に保ち(長さ制約)、かつ、メッシュを構成するポリゴンの重なりが生じないという制約条件を満たすように、上記特徴頂点の移動量に応じて、浮動点を移動させ、使用メイクパターン粧画像の顔の輪郭内部にメッシュを設定する。このメッシュの頂点の移動の詳細については後述する。   The mesh setting unit 116 is configured by the CPU 3 and moves the feature vertices of the initial mesh to corresponding positions (movement target positions) on the feature edges extracted from the used makeup pattern makeup image, and then each vertex of the initial mesh. The floating point is moved and used according to the amount of movement of the above feature vertices so that the distance between them is kept constant (length constraint) and the constraint condition that the polygons constituting the mesh do not overlap is satisfied. Makeup pattern A mesh is set inside the face contour of the makeup image. Details of the movement of the mesh vertices will be described later.

メッシュ設定部117は、CPU3から構成され、初期メッシュ記憶部115に記憶された初期メッシュを、メッシュ設定部116と同一の手法により変形させ、フレーム画像中の顔の輪郭内部にメッシュを設定する。   The mesh setting unit 117 is constituted by the CPU 3 and deforms the initial mesh stored in the initial mesh storage unit 115 by the same method as the mesh setting unit 116, and sets the mesh inside the face contour in the frame image.

座標計算部118は、CPU3から構成され、フレーム画像に設定されたメッシュの各頂点と、使用メイクパターン画像に設定されたメッシュの各頂点とにおいて、対応する頂点同士の位置の差分から各頂点の差分ベクトルを算出し、座標変換テーブルを作成する。座標変換テーブルは、例えば、メッシュに含まれる全ての頂点と、各頂点の差分ベクトルとを対応づけて記憶している。   The coordinate calculation unit 118 is configured by the CPU 3, and for each vertex of the mesh set in the frame image and each vertex of the mesh set in the use makeup pattern image, the coordinate calculation unit 118 calculates each vertex from the difference in position between corresponding vertices. A difference vector is calculated and a coordinate conversion table is created. The coordinate conversion table stores, for example, all vertices included in the mesh and the difference vector of each vertex in association with each other.

座標変換テーブル記憶部119は、RAM4から構成され、座標計算部118によって作成された座標変換テーブルを記憶する。   The coordinate conversion table storage unit 119 is composed of the RAM 4 and stores the coordinate conversion table created by the coordinate calculation unit 118.

化粧要素画像変形部120は、CPU3から構成され、使用メイクパターン画像に設定されたメッシュを正規化透明度レイヤー画像に張り、座標変換テーブルを参照することにより、正規化透明度レイヤー画像に張られたメッシュの各頂点を、フレーム画像に設定された対応するメッシュの頂点の位置に移動させて正規化透明度レイヤー画像に張られたメッシュを変形させ、その変形量に応じて、メッシュを構成する各ポリゴン内の画像を変形させ、正規化透明度レイヤー画像中の化粧要素画像を変形させる。   The makeup element image deformation unit 120 is configured by the CPU 3 and applies a mesh set to the use makeup pattern image to the normalized transparency layer image, and refers to the coordinate conversion table to thereby apply the mesh applied to the normalized transparency layer image. Each vertex of is moved to the position of the corresponding mesh vertex set in the frame image, and the mesh stretched on the normalized transparency layer image is deformed, and within each polygon constituting the mesh according to the deformation amount And the makeup element image in the normalized transparency layer image is transformed.

画像合成部121は、CPU3から構成され、化粧要素画像変形部120によって変形された化粧要素画像を含む正規化透明度レイヤー画像の各画素の透明度(上記βi)を色変換レイヤー画像の各画素のα値とし、背景画像の正規化された各画素の透明度(上記γ)をフレーム画像のα値とし、αブレンディングにより、フレーム画像と、色変換レイヤー画像とを合成する。αブレンディングは、式(6)によって示される。 The image composition unit 121 includes the CPU 3 and determines the transparency (the above β i ) of each pixel of the normalized transparency layer image including the makeup element image transformed by the makeup element image transformation unit 120 for each pixel of the color conversion layer image. An α value is used, and the transparency of each pixel normalized in the background image (γ described above) is used as an α value of the frame image, and the frame image and the color conversion layer image are synthesized by α blending. α blending is shown by equation (6).

Figure 2005216131
Figure 2005216131

但し、Crベクトルは、合成後のR,G,B値を示し、Cfベクトルはフレーム画像の各画素のR,G,B値を示し、Ciベクトルは色変換レイヤー画像の各画素のR,G,B値を示している。また、βiは式(1)で表され、γは式(2)で表される。 However, C r vector, R after the synthesis, G, and B values indicated, C f vector represents each pixel of the frame image R, G, and B values of each pixel of the C i vector color conversion layer image R, G, and B values are shown. In addition, β i is expressed by equation (1), and γ is expressed by equation (2).

表示部122は、表示装置6から構成され、画像合成部121によって合成された画像、すなわち、仮想的に化粧が施された顔の動画像を表示する。   The display unit 122 includes the display device 6 and displays an image synthesized by the image synthesis unit 121, that is, a moving image of a face that is virtually decorated.

なお、本実施形態では、透明度レイヤー画像作成部105及び透明度正規化部107及び正規化透明度レイヤー画像記憶部108が第1の画像作成手段に相当し、色レイヤー作成部106、色変換処理部109及び色変換レイヤー画像記憶部110が第2の画像作成手段に相当し、使用メイクパターン画像が基準画像に相当し、動画像がシミュレーション対象画像に相当し、特徴量抽出部113、特徴量抽出部114、初期メッシュ記憶部115、メッシュ設定部116及び初期メッシュ設定部117が、メッシュ設定手段に相当し、座標計算部118、座標変換テーブル記憶部119及び化粧要素画像変形部120がメッシュ変形手段に相当し、画像合成部121が画像合成手段に相当する。   In this embodiment, the transparency layer image creation unit 105, the transparency normalization unit 107, and the normalized transparency layer image storage unit 108 correspond to a first image creation unit, and a color layer creation unit 106, a color conversion processing unit 109, and the like. The color conversion layer image storage unit 110 corresponds to the second image creation unit, the used makeup pattern image corresponds to the reference image, the moving image corresponds to the simulation target image, the feature amount extraction unit 113, the feature amount extraction unit 114, the initial mesh storage unit 115, the mesh setting unit 116, and the initial mesh setting unit 117 correspond to the mesh setting unit, and the coordinate calculation unit 118, the coordinate conversion table storage unit 119, and the makeup element image deformation unit 120 serve as the mesh deformation unit. The image composition unit 121 corresponds to an image composition unit.

次に、図3及び図4に示すフローチャートにしたがって、本化粧シミュレーション装置の動作について説明する。   Next, the operation of the present makeup simulation apparatus will be described with reference to the flowcharts shown in FIGS.

まず、ステップS1において、初期設定部103は、ユーザによって選択された1種類のメイクパターン画像を使用メイクパターン画像として決定し、使用メイクパターン画像記憶部104に記憶させる。この場合、初期設定部103により、メイクパターン画像記憶部101に記憶されているメイクパターン画像の一覧画像が、表示部122に表示される。そして、ユーザによって、一覧画像の中からクリックされたメイクパターン画像が使用メイクパターン画像として決定される。   First, in step S <b> 1, the initial setting unit 103 determines one type of makeup pattern image selected by the user as a used makeup pattern image and stores it in the used makeup pattern image storage unit 104. In this case, the initial setting unit 103 displays a list image of makeup pattern images stored in the makeup pattern image storage unit 101 on the display unit 122. Then, the makeup pattern image clicked from the list image by the user is determined as the use makeup pattern image.

さらに、ユーザにより、使用メイクパターン画像のうち、いずれかのメイクパターン画像を化粧シミュレーションに使用しない指令がされると、当該レイヤー画像を使用メイクパターン画像から削除し、使用メイクパターン画像を更新する。このとき、更新された使用メイクパターン画像は、表示部122に表示される。また、化粧シミュレーションに使用するレイヤー画像のうち、いずれかのレイヤー画像に対する色の指定が行なわれた場合、当該レイヤー画像の色成分の値を指定された色の値に変更し、使用メイクパターン画像を更新する。このとき、更新された使用メイクパターン画像は、表示部122に表示される。ある化粧要素画像に対する色の変更は、まず、ユーザにより、表示部122に表示された使用メイクパターン画像のうち、色の変更を希望する化粧要素画像をクリックさせて選択させる。そして、表示部122に表示された複数の色からなるカラーパレットの中から、いずれかの色がクリックされると、当該色が化粧要素画像の色として設定され、化粧要素画像の色が変更される。   Further, when the user gives an instruction not to use any makeup pattern image in the makeup simulation among the used makeup pattern images, the layer image is deleted from the used makeup pattern image and the used makeup pattern image is updated. At this time, the updated use makeup pattern image is displayed on the display unit 122. In addition, when a color is specified for any one of the layer images used for the makeup simulation, the value of the color component of the layer image is changed to the specified color value, and the used makeup pattern image Update. At this time, the updated use makeup pattern image is displayed on the display unit 122. In order to change the color of a certain makeup element image, first, the user clicks and selects a makeup element image whose color is desired to be changed from the used makeup pattern images displayed on the display unit 122. Then, when any color is clicked from the color palette composed of a plurality of colors displayed on the display unit 122, the color is set as the color of the makeup element image, and the color of the makeup element image is changed. The

ステップS2において、透明度レイヤー画像作成部105は、使用メイクパターン画像記憶部104から使用メイクパターン画像を読み出し、使用メイクパターン画像を構成するレイヤー画像の透明度成分から透明度レイヤー画像を作成する。   In step S2, the transparency layer image creating unit 105 reads the used makeup pattern image from the used makeup pattern image storage unit 104, and creates a transparency layer image from the transparency component of the layer image constituting the used makeup pattern image.

ステップS3において、色レイヤー作成部106は、使用メイクパターン画像記憶部104から使用メイクパターン画像を読み出し、使用メイクパターン画像を構成するレイヤー画像の色成分から色レイヤーを作成する。   In step S3, the color layer creating unit 106 reads the used make pattern image from the used make pattern image storage unit 104, and creates a color layer from the color components of the layer image constituting the used make pattern image.

ステップS4において、透明度レイヤー画像作成部105は、透明度レイヤー画像を式(1)を用いて正規化し正規化透明度レイヤー画像を作成するとともに、式(2)を用いて背景画像の透明度を正規化する。図5は、式(1)及び式(2)を説明するための図である。図5では、1〜n番目のレイヤーに対応するグラフが示されており、各グラフは、透明度レイヤー画像の透明度と、対応する階層の背景画像の透明度との関係が示されている。例えば、レイヤー1のグラフにおいて右側の領域R1には、1階層目の透明度レイヤー画像の透明度が示され、左側の領域R2には、1階層目の背景画像の透明度が示されている。   In step S4, the transparency layer image creation unit 105 normalizes the transparency layer image using Expression (1) to create a normalized transparency layer image, and also normalizes the transparency of the background image using Expression (2). . FIG. 5 is a diagram for explaining the equations (1) and (2). FIG. 5 shows graphs corresponding to the 1st to nth layers, and each graph shows the relationship between the transparency of the transparency layer image and the transparency of the background image of the corresponding hierarchy. For example, in the layer 1 graph, the right region R1 shows the transparency of the first layer transparency layer image, and the left region R2 shows the transparency of the first layer background image.

各グラフの右側に示された数式は、1からn階層目までの透明度レイヤー画像の透明度α1〜αnの和に対する、各透明度レイヤー画像の透明度αiの比率を示している。この比率を透明度αiにかけあわせると上記式(1)が得られる。 The mathematical formula shown on the right side of each graph indicates the ratio of the transparency α i of each transparency layer image to the sum of the transparency α 1 to α n of the transparency layer images from the first to the nth layer. By multiplying this ratio by the transparency α i , the above formula (1) is obtained.

また、グラフの右側に示された比率を背景画像の透明度1−αiにかけあわせ、全レイヤーについての総和をとると、上記式(2)が得られる。そして、βi及びγは、Σβi+γ=1の関係を有している。正規化する理由については後述する。但し、Σβi=β1+β2+・・・+βnである。 Further, when the ratio shown on the right side of the graph is multiplied by the transparency 1-α i of the background image and the sum of all layers is taken, the above equation (2) is obtained. Β i and γ have a relationship of Σβ i + γ = 1. The reason for normalization will be described later. However, Σβ i = β 1 + β 2 +... + Β n .

図3に示すステップS5において、特徴量抽出部113は、使用メイクパターン画像から特徴量を抽出する。図6は、使用メイクパターン画像から抽出される特徴量を示した図である。図6に示すように、化粧要素画像ME1〜ME4が表示された使用メイクパターン画像から顔、眉、目及び口の輪郭を示す特徴エッジE1〜E4と、○で示す目頭、眉尻等の特徴点TPと、髪、肌、背景の各領域を示す特徴クラスタHC、SC、BCとが抽出されていることが分かる。なお、特徴エッジE1〜E4としては、顔、眉、目及び口の輪郭に限定されず、他の顔部品、例えば鼻等の輪郭を特徴エッジとしてもよいし、上記4種類の特徴エッジE1〜E4のうち、いずれかの特徴エッジを省いてもよい。図6では、目に関しては、目の上側のエッジの頂点、目の下側の輪郭の頂点、目頭、目尻及び目の瞳の中心が特徴点TPとして抽出されている。また、眉に関しては、眉頭及び眉尻が特徴点TPとして抽出されている。また、口に関しては、唇の外周上の、上唇と下唇との2つのつなぎ目が特徴点TPとされている。また、鼻に関しては、両鼻の穴の間が特徴点TPとされている。また、顔の輪郭に関しては、目付近の点、下あごの頂点、頬の付近の顔の輪郭の傾きが大きく変化する点が特徴点TPとされている。ただし、これらの特徴点TPは、一例であって、いずれかの特徴点TPを省略してもよいし、新たに特徴点TPを追加してもよく、図6の○で示す点に限定されない。   In step S5 shown in FIG. 3, the feature amount extraction unit 113 extracts a feature amount from the use makeup pattern image. FIG. 6 is a diagram showing feature amounts extracted from the used makeup pattern image. As shown in FIG. 6, feature edges E <b> 1 to E <b> 4 indicating the contours of the face, eyebrows, eyes, and mouth from the use makeup pattern image on which the makeup element images ME <b> 1 to ME <b> 4 are displayed, and features such as the eye head and the eyebrow ass It can be seen that the point TP and the feature clusters HC, SC, BC indicating the regions of hair, skin, and background are extracted. Note that the feature edges E1 to E4 are not limited to the contours of the face, eyebrows, eyes, and mouth, and other facial parts, for example, the contours of the nose, etc. may be used as the feature edges. Any feature edge of E4 may be omitted. In FIG. 6, for the eyes, the vertexes of the upper edge of the eye, the vertices of the contour of the lower side of the eye, the eyes, the corners of the eyes, and the centers of the eyes are extracted as the feature points TP. As for the eyebrows, the eyebrow head and the buttocks are extracted as feature points TP. As for the mouth, the two joints of the upper lip and the lower lip on the outer periphery of the lip are set as the feature points TP. As for the nose, a feature point TP is defined between the holes of both noses. Further, regarding the face outline, the point near the eye, the vertex of the lower chin, and the point where the inclination of the face outline near the cheek changes greatly is the feature point TP. However, these feature points TP are examples, and any one of the feature points TP may be omitted, or a new feature point TP may be added, and the feature points TP are not limited to the points indicated by ○ in FIG. .

図3に示すステップS6において、メッシュ設定部117は、初期メッシュを変形させることにより、使用メイクパターン画像の顔の輪郭内部にメッシュを設定する。図7は、初期メッシュの一例を示した図である。図7に示すように初期メッシュは、一部の頂点が、顔、眉、目及び口の輪郭を示す特徴エッジE1´、E2´、E3´、E4´及び特徴点TP上に位置していることが分かる。これらの頂点を初期メッシュの特徴頂点と称する。そして、メッシュ設定部116は、この初期メッシュを図6に示す使用メイクパターン画像に重ね、初期メッシュの特徴頂点を、使用メイクパターン画像の対応する移動対象位置に移動させる。具体的には、初期メッシュの特徴点上の特徴頂点は、使用メイクパターン画像の対応する特徴点上に移動させる。また、特徴エッジ上であって、特徴点以外の初期メッシュの特徴頂点は、使用メイクパターン画像の対応する特徴エッジ上において、各点の内分比が一致するように移動させる。   In step S6 shown in FIG. 3, the mesh setting unit 117 sets the mesh inside the face contour of the used makeup pattern image by deforming the initial mesh. FIG. 7 is a diagram showing an example of the initial mesh. As shown in FIG. 7, in the initial mesh, some vertices are located on feature edges E1 ′, E2 ′, E3 ′, E4 ′ and feature points TP indicating the contours of the face, eyebrows, eyes, and mouth. I understand that. These vertices are referred to as initial mesh feature vertices. Then, the mesh setting unit 116 superimposes this initial mesh on the used makeup pattern image shown in FIG. 6, and moves the feature vertex of the initial mesh to the corresponding movement target position of the used makeup pattern image. Specifically, the feature vertex on the feature point of the initial mesh is moved onto the corresponding feature point of the used makeup pattern image. On the feature edge, the feature vertices of the initial mesh other than the feature points are moved so that the internal ratios of the points coincide on the corresponding feature edges of the used makeup pattern image.

次に、メッシュ設定部116は、初期メッシュの各頂点に一定の高さ成分(Z成分)を与えて3次元データとし、各頂点に対して式(7)及び式(8)の演算を繰り返し適用することにより、各浮動点を移動させる。これにより、使用メイクパターン画像に対して、上述した長さ制約を満たし、かつ、メッシュを構成するポリゴンの重なりが生じないようなメッシュが設定されることとなる。   Next, the mesh setting unit 116 gives a certain height component (Z component) to each vertex of the initial mesh to obtain three-dimensional data, and repeats the calculations of Expressions (7) and (8) for each vertex. Move each floating point by applying. As a result, a mesh that satisfies the length restriction described above and that does not cause overlapping of the polygons constituting the mesh is set for the used makeup pattern image.

Figure 2005216131
Figure 2005216131

ただし、Piベクトルは、メッシュの頂点の座標を示し、Pjベクトルは、Piベクトルに隣接するメッシュの頂点の座標を示し、Pi´ベクトルは演算が施されたPiベクトルを示し、Pj´ベクトルは演算が施されたPjベクトルを示し、lijは初期メッシュにおけるPiベクトル及びPjベクトルを結ぶ線分の長さを示し、λは定数値を示している。 However, P i vector, the coordinates of the vertices of the mesh, P j vector, the coordinates of the vertices of the mesh adjacent to the P i vector, P i 'vector represents the P i vector operation is performed, The P j ′ vector indicates the P j vector on which the operation has been performed, l ij indicates the length of the line segment connecting the P i vector and the P j vector in the initial mesh, and λ indicates a constant value.

図8は、初期メッシュの特徴頂点を使用メイクパターン画像の対応する移動対象位置に移動させ、浮動点に一定の高さ成分を付与した直後の使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。各浮動点は、(b)に示すように、Z方向に一定の距離ずらされていることが分かる。また、各特徴頂点は、XY平面上に位置していることが分かる。そして、メッシュ設定部116は、各頂点に対し式(7)及び式(8)の演算を順次適用していく。   FIG. 8 is a diagram showing the mesh set in the used makeup pattern image immediately after the feature vertex of the initial mesh is moved to the corresponding movement target position of the used makeup pattern image and a certain height component is given to the floating point. (A) shows a mesh viewed in the Z direction, and (b) shows a mesh viewed in the oblique direction. It can be seen that each floating point is shifted by a certain distance in the Z direction, as shown in FIG. It can also be seen that each feature vertex is located on the XY plane. Then, the mesh setting unit 116 sequentially applies the calculations of Expressions (7) and (8) to each vertex.

図9は、図8に示す各頂点に対し、式(7)及び式(8)の演算を1回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。図9(b)に示すように各浮動点は、図8(b)の場合に比べ、Z成分の値が少し小さくなっていること分かる。また、図9(a)に示すように各浮動点は、図8(b)の場合に比べ、メッシュを構成するポリゴンの重なりが多少改善されていることが分かる。   FIG. 9 is a diagram showing a mesh set in the use makeup pattern image when the operations of Expressions (7) and (8) are applied once to each vertex shown in FIG. Indicates a mesh viewed in the Z direction, and (b) indicates a mesh viewed in the oblique direction. As shown in FIG. 9B, it can be seen that the value of the Z component is slightly smaller at each floating point than in the case of FIG. 8B. Further, as shown in FIG. 9A, it can be seen that each floating point has a slightly improved overlap of polygons constituting the mesh as compared with the case of FIG. 8B.

図10〜図14は、図8に示す各浮動点に対し、式(7)及び式(8)の演算をそれぞれ5回、10回、20回、30回、60回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、図10〜図14のいずれにおいても(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。図10(b)〜図14(b)に示すように、各頂点に対して式(7)及び式(8)の演算を適用する回数を増加させると、各浮動点の高さ成分の値が全体的に低くなっていき、図14(b)に示す式(5)の演算を60回適用したときのメッシュに至っては、各浮動点の高さ成分がほぼ0になっていることが分かる。また、これに伴い、図10(a)〜図14(a)に示すように、式(7)及び式(8)の演算を適用する回数が増大するにつれてメッシュを構成するポリゴンの重なりが解消されていることが分かる。   10 to 14 show the use makeup when the operations of the equations (7) and (8) are applied 5, 10, 20, 30 and 60 times to the floating points shown in FIG. It is the figure which showed the mesh set to the pattern image, (a) shows the mesh of Z direction view, and (b) has shown the mesh of diagonal direction view in any of FIGS. As shown in FIGS. 10 (b) to 14 (b), when the number of times of applying the expressions (7) and (8) is increased for each vertex, the value of the height component of each floating point is increased. As a whole, the height component of each floating point is almost zero when the mesh obtained when the calculation of Expression (5) shown in FIG. I understand. As a result, as shown in FIGS. 10A to 14A, overlapping of polygons constituting the mesh is eliminated as the number of times of applying the expressions (7) and (8) is increased. You can see that.

高さを導入せずとも画像平面状において、長さ制約を満たすように、初期メッシュを変形させれば、ある程度、変形前のメッシュの頂点同士の位置関係をバランスよく保持した状態で顔の輪郭内部にメッシュを設定することも可能である。   If the initial mesh is deformed so as to satisfy the length constraint in the image plane without introducing the height, the contour of the face is maintained in a state where the positional relationship between the vertices of the mesh before the deformation is maintained in a balanced manner. It is also possible to set a mesh inside.

しかしながら、高さを導入しない画像平面状において長さ制約のみを加味して、初期メッシュを変形させた場合、メッシュを構成するポリゴンの重なりが生じる可能性が高くなる。かかるポリゴンの重なりは、初期メッシュ全体のサイズよりも小さな顔の輪郭に初期メッシュを適用した場合に発生する。これは、実際の布を本来の大きさより小さく縮め、床に押し付けた場合に生じる皺に例えることができる。   However, if the initial mesh is deformed in consideration of only the length constraint in an image plane shape that does not introduce height, there is a high possibility that polygons constituting the mesh will overlap. Such overlapping of polygons occurs when the initial mesh is applied to a face outline smaller than the size of the entire initial mesh. This can be compared to a wrinkle that occurs when an actual cloth is shrunk smaller than the original size and pressed against the floor.

図15は、メッシュを構成するポリゴンの重なりが生じている画像に対して、化粧要素画像を合成したときの一例を示す画面図である。図15の場合、口紅の輪郭K1が不自然な形状となっており、唇からはみ出た口紅K2が表示されていることが分かる。このようにメッシュを構成するポリゴンの重なりが生じると、顔の画像に対して化粧要素画像を違和感なく自然な状態で合成することができなくなる。   FIG. 15 is a screen diagram illustrating an example when a makeup element image is combined with an image in which polygons constituting a mesh are overlapped. In the case of FIG. 15, it can be seen that the outline K1 of the lipstick has an unnatural shape, and the lipstick K2 protruding from the lips is displayed. If the polygons constituting the mesh overlap in this way, the makeup element image cannot be synthesized with the face image in a natural state without a sense of incongruity.

そこで、メッシュ設定部116は、各頂点に高さ成分を与え、式(7)及び式(8)を用いて3次元的に浮動点の位置を算出することにより、使用メイクパターン画像に対し、メッシュが重なって設定されることを防止している。   Therefore, the mesh setting unit 116 gives a height component to each vertex, and calculates the position of the floating point three-dimensionally using Equations (7) and (8), thereby using the makeup pattern image to be used. This prevents the meshes from being overlapped.

図16は、図6に示す使用メイクパターン画像の顔の輪郭内部に設定されたメッシュを示した図である。図16に示すように、メッシュを構成するポリゴンの重なりが発生することなく、顔の輪郭(特徴エッジE1)内部にバランスよくメッシュが設定されていることが分かる。また、特徴エッジE1〜E4上のメッシュの頂点が位置していることが分かる。   FIG. 16 is a diagram showing a mesh set within the face contour of the used makeup pattern image shown in FIG. As shown in FIG. 16, it can be seen that the mesh is set in a well-balanced manner inside the face outline (feature edge E1) without overlapping of the polygons constituting the mesh. Moreover, it turns out that the vertex of the mesh on the feature edges E1-E4 is located.

図3に示すステップS7において、動画像取得部111は、人間の顔の動画像を取得する。ステップS8において、フレーム画像抽出部112は、動画像取得部111によって取得された動画像から1枚のフレーム画像を抽出する。図4に示すステップS9において、特徴量抽出部114は、フレーム画像から特徴量を抽出する。この場合、図6に示す使用メイクパターン画像から抽出された特徴量E1〜E4、TP、HC、BC、SCと同じような特徴量がフレーム画像から抽出される。なお、フレーム画像抽出部112は、動画像を構成する各フレーム画像を順次抽出してもよいし、所定のコマ間隔でフレーム画像を順次抽出していってもよい。   In step S7 illustrated in FIG. 3, the moving image acquisition unit 111 acquires a moving image of a human face. In step S8, the frame image extraction unit 112 extracts one frame image from the moving image acquired by the moving image acquisition unit 111. In step S9 shown in FIG. 4, the feature amount extraction unit 114 extracts a feature amount from the frame image. In this case, feature amounts similar to the feature amounts E1 to E4, TP, HC, BC, and SC extracted from the use makeup pattern image shown in FIG. 6 are extracted from the frame image. Note that the frame image extraction unit 112 may sequentially extract the frame images constituting the moving image, or may sequentially extract the frame images at a predetermined frame interval.

ステップS10において、メッシュ設定部116は、ステップS6で示した手法と同じ手法で初期メッシュを変形させることにより特徴量が抽出されたフレーム画像にメッシュを設定する。   In step S10, the mesh setting unit 116 sets a mesh in the frame image from which the feature amount is extracted by deforming the initial mesh by the same method as that shown in step S6.

図17は、フレーム画像の顔の輪郭内部に設定されたメッシュを示した図である。図17に示すフレーム画像は、図6に示す使用メイクパターン画像に対して多少顔の表情が変化していることが分かる。そして、このように顔の表情が変化した場合でも、メッシュを構成するポリゴンの重なりが生じないように顔の輪郭内部にバランス良くメッシュが設定されていることが分かる。また、特徴エッジE1〜E4上にメッシュの頂点が位置していることが分かる。   FIG. 17 is a diagram showing a mesh set inside the face outline of the frame image. In the frame image shown in FIG. 17, it can be seen that the facial expression is slightly changed from the used makeup pattern image shown in FIG. It can be seen that even when the facial expression changes in this way, the mesh is set in a well-balanced manner inside the face contour so that the polygons constituting the mesh do not overlap. Further, it can be seen that the vertexes of the mesh are located on the feature edges E1 to E4.

ステップS11において、座標計算部118は、使用メイクパターン画像に設定されたメッシュ及びフレーム画像に設定されたメッシュの対応する頂点同士の位置の差分を算出し、座標変換テーブルを作成し、座標変換テーブル記憶部119に記憶させる。この座標変換テーブルはフレーム画像毎に更新される。   In step S11, the coordinate calculation unit 118 calculates the difference between the positions of the meshes set in the use makeup pattern image and the corresponding vertices of the mesh set in the frame image, creates a coordinate conversion table, and generates the coordinate conversion table. The data is stored in the storage unit 119. This coordinate conversion table is updated for each frame image.

ステップS12において、化粧要素画像変形部120は、座標変換テーブルを参照し、正規化透明度レイヤー画像中の化粧要素画像を変形させる。図18は、化粧要素画像が、化粧要素画像変形部120によって変形される様子を示した図であり、(a)は変形前を示し、(b)は変形後を示している。図18(a)に示す化粧要素画像G1が描画されたメッシュを構成するポリゴンPR1が、(b)に示すポリゴンPR2に変形したとすると、化粧要素画像変形部120は、メッシュを構成するポリゴンPR1の変形量に応じて、ポリゴンPR1内に描画された化粧要素画像G1をポリゴンPR2上に写し、化粧要素画像G1を化粧要素画像G2に変形させる。   In step S12, the makeup element image deformation unit 120 refers to the coordinate conversion table and deforms the makeup element image in the normalized transparency layer image. FIGS. 18A and 18B are diagrams showing a state in which the makeup element image is deformed by the makeup element image deformation unit 120. FIG. 18A shows a state before deformation, and FIG. 18B shows a state after deformation. If the polygon PR1 constituting the mesh on which the makeup element image G1 shown in FIG. 18A is drawn is transformed into the polygon PR2 shown in FIG. 18B, the makeup element image deforming unit 120 creates the polygon PR1 constituting the mesh. The makeup element image G1 drawn in the polygon PR1 is copied onto the polygon PR2 in accordance with the amount of deformation, and the makeup element image G1 is transformed into the makeup element image G2.

図4に示すステップS13において、色変換処理部109は、ステップS8で抽出されたフレーム画像と、色レイヤー作成部106によって作成された色レイヤーとに対し、式(3)〜式(5)に示す色変換処理を施し、n階層の色変換レイヤー画像を作成し、色変換レイヤー画像記憶部110に記憶させる。   In step S13 illustrated in FIG. 4, the color conversion processing unit 109 applies Equations (3) to (5) to the frame image extracted in Step S8 and the color layer created by the color layer creation unit 106. The color conversion process shown is performed, an n-level color conversion layer image is created, and stored in the color conversion layer image storage unit 110.

ステップS14において、画像合成部121は、ステップS8で抽出されたフレーム画像と、色合成部により作成された色変換レイヤー画像とを式(6)を用いて合成する。   In step S14, the image synthesis unit 121 synthesizes the frame image extracted in step S8 and the color conversion layer image created by the color synthesis unit using Expression (6).

次に、透明度正規化部107が透明度αi及び透明度1−αiを正規化する理由について説明する。式(9)〜式(11)は、αブレンディングの一般的な数式を示している。 Next, the reason why the transparency normalizing unit 107 normalizes the transparency α i and the transparency 1-α i will be described. Expressions (9) to (11) show general mathematical expressions for α blending.

Figure 2005216131
Figure 2005216131

但し、Crベクトルは合成後の各画素のR,G,B値を示し、Cfベクトルは背景画像の各画素のR,G,B値を示し、Ciベクトルはi階層目のレイヤー画像の各画素のR,G,B値を示している。また、式(9)は、1枚のレイヤー画像を背景画像に合成する場合を示し、式(10)は2枚のレイヤー画像を背景画像に合成する場合を示し、式(11)はn枚のレイヤー画像を背景画像に合成する場合を示している。式(11)に示すようにレイヤーの順番を入れ替えると、式(11)の第2項が入れ替えに応じて異なる値となってしまうため、Crベクトルの値がレイヤーの順番に依存してしまう。そこで、本化粧シミュレーション装置は、レイヤーの順序を入れ替えても、同一のCrベクトルの値を得るために、透明度レイヤー画像の各画素の透明度αi及び背景画像の各画素の透明度1−αiを式(1)及び式(2)を用いて正規化してβi及びγとし、βiをαブレンディングにおけるレイヤー画像のα値とし、γをαブレンディングにおける背景画像のα値として用いることにより、Crベクトルの値がレイヤーの順番に依存することを防止している。 However, Cr vector represents R of each pixel after synthesized, G, B values, C f vector represents the R, G, B values of each pixel of the background image, the C i vectors i tier layer image The R, G, and B values of each pixel are shown. Expression (9) indicates a case where one layer image is combined with a background image, Expression (10) indicates a case where two layer images are combined with a background image, and Expression (11) indicates n sheets. This shows a case where the layer image is combined with the background image. When changing the order of layers as shown in equation (11), the second term of Formula (11) becomes a value different depending on the interchange, the value of C r vector will depend on the layer order . Therefore, in order to obtain the same value of the Cr vector even if the order of the layers is changed, the present makeup simulation apparatus uses the transparency α i of each pixel of the transparency layer image and the transparency 1-α i of each pixel of the background image. Is normalized using equations (1) and (2) to be β i and γ, β i is the α value of the layer image in α blending, and γ is used as the α value of the background image in α blending, the value of C r vector is prevented from being dependent on the layer order.

ステップS15において、表示部122は、合成された画像を表示する。図19は、画像合成部121による合成の結果、得られた画像を示している。図19に示すように、図6に示す使用メイクパターン画像に含まれる化粧要素画像ME1〜ME4が、図17に示すフレーム画像に適合するように変形され、フレーム画像上に違和感のない自然な状態で表示されていることが分かる。   In step S15, the display unit 122 displays the synthesized image. FIG. 19 shows an image obtained as a result of the composition by the image composition unit 121. As shown in FIG. 19, the makeup element images ME1 to ME4 included in the use makeup pattern image shown in FIG. 6 are deformed to fit the frame image shown in FIG. 17, and the frame image has a natural state with no sense of incongruity. It can be seen that is displayed.

なお、図6及び図17に示す化粧要素画像ME1〜ME4は、一例にすぎず、他の化粧要素画像を含んでも良いし、いずれかの化粧要素画像を省略してもよい。   Note that makeup element images ME1 to ME4 shown in FIGS. 6 and 17 are merely examples, and may include other makeup element images, or any makeup element image may be omitted.

図4に示すステップS16において、フレーム画像抽出部112は、全てのフレーム画像の抽出が終了したか否かを判定し、全てのフレーム画像の抽出が終了している場合(ステップS16でYES)、処理を終了する。一方、ステップS16において、全てのフレーム画像の抽出が終了していない場合(ステップS16でNO)、ステップS17に進み、次のフレーム画像を抽出し、ステップS9に戻る。   In step S16 shown in FIG. 4, the frame image extraction unit 112 determines whether or not extraction of all frame images has been completed, and when extraction of all frame images has been completed (YES in step S16), End the process. On the other hand, if extraction of all the frame images has not been completed in step S16 (NO in step S16), the process proceeds to step S17, the next frame image is extracted, and the process returns to step S9.

(メイクパターン作成モード)
次に、メイクパターン作成モードについて説明する。図20は、メイクパターン作成モードにおける化粧シミュレーション装置の機能を示すブロック図である。
(Make pattern creation mode)
Next, the makeup pattern creation mode will be described. FIG. 20 is a block diagram illustrating functions of the makeup simulation apparatus in the makeup pattern creation mode.

静止画像取得部201は、静止画カメラ11から構成され、メイクパターン画像のモデルとなる人間の顔の静止画像を取得する。   The still image acquisition unit 201 includes a still image camera 11 and acquires a still image of a human face that is a model of a makeup pattern image.

操作部202は、入力装置1から構成され、ユーザからの種々の操作指令を入力するために用いられる。   The operation unit 202 includes the input device 1 and is used to input various operation commands from the user.

レイヤー画像作成部203は、ユーザにより顔の静止画像上に1種類の化粧要素画像が描画される毎にその化粧要素画像を含む1枚のレイヤー画像を作成する。レイヤー画像は、上述したように、R,G,B値からなる色成分と各画素の透明度を示す透明度成分とから構成される。透明度は、静止画像を背景画像としたときの各レイヤー画像の背景画像に対する透明度を示す。   The layer image creation unit 203 creates one layer image including a makeup element image each time one type of makeup element image is drawn on the still image of the face by the user. As described above, the layer image is composed of a color component composed of R, G, and B values and a transparency component that indicates the transparency of each pixel. The transparency indicates the transparency of each layer image with respect to the background image when the still image is used as the background image.

透明度レイヤー画像作成部204は、透明度レイヤー画像作成部105と同様に、レイヤー画像の透明度成分を基に、レイヤー画像の各階層に対応する透明度レイヤー画像を作成する。   Similar to the transparency layer image creation unit 105, the transparency layer image creation unit 204 creates a transparency layer image corresponding to each layer of the layer image based on the transparency component of the layer image.

色レイヤー作成部205は、色レイヤー作成部106と同様に、レイヤー画像の色成分を基に、レイヤー画像の各階層に対応する色レイヤーを作成する。   Similar to the color layer creation unit 106, the color layer creation unit 205 creates a color layer corresponding to each layer of the layer image based on the color components of the layer image.

透明度正規化部206は、透明度正規化部107と同様に、透明度レイヤー画像の各画素に対し、上記式(1)の演算を施し、正規化透明度レイヤー画像を作成するとともに、背景画像である顔の静止画像の各画素に対し式(2)の演算を施し、背景画像の各画素の透明度を正規化する。   Similar to the transparency normalization unit 107, the transparency normalization unit 206 performs the calculation of the above equation (1) on each pixel of the transparency layer image to create a normalized transparency layer image and a face that is a background image. The calculation of Expression (2) is performed on each pixel of the still image to normalize the transparency of each pixel of the background image.

正規化透明度レイヤー画像記憶部207は、RAM4から構成され、正規化透明度レイヤー画像及び正規化された背景画像の各画素の透明度を記憶する。   The normalized transparency layer image storage unit 207 includes a RAM 4 and stores the transparency of each pixel of the normalized transparency layer image and the normalized background image.

色変換処理部208は、色変換処理部109と同様に、色レイヤーのR,G,B値及び静止画像の各画素のR,G,B値をそれぞれHSV表色系に変換した後、上記式(3)〜式(5)に示す色変換処理を実行し、得られた画像をさらに、R,G,B表色系に変換することにより、レイヤー画像の各階層に対応する色変換レイヤー画像作成する。   Similar to the color conversion processing unit 109, the color conversion processing unit 208 converts the R, G, and B values of the color layer and the R, G, and B values of each pixel of the still image into the HSV color system, and then A color conversion layer corresponding to each layer of the layer image is obtained by executing the color conversion processing shown in Expressions (3) to (5) and further converting the obtained image into the R, G, B color system. Create an image.

色変換レイヤー画像記憶部209は、RAM4から構成され、色変換処理部208によって作成された色変換レイヤー画像を記憶する。   The color conversion layer image storage unit 209 is composed of the RAM 4 and stores the color conversion layer image created by the color conversion processing unit 208.

画像合成部210は、画像合成部121と同様に、正規化透明度レイヤー画像の各画素の透明度を色変換レイヤー画像の各画素のα値とし、背景画像の各画素の透明度を顔の静止画像のα値とし、色変換レイヤー画像と顔の静止画像とをαブレンディングによって合成する。   Similar to the image composition unit 121, the image composition unit 210 sets the transparency of each pixel of the normalized transparency layer image as the α value of each pixel of the color conversion layer image, and the transparency of each pixel of the background image of the still image of the face. An α value is used, and the color conversion layer image and the face still image are combined by α blending.

表示部211は、表示装置6から構成され、画像合成部210によって合成された画像を表示する。   The display unit 211 includes the display device 6 and displays the image synthesized by the image synthesis unit 210.

メイクパターン画像作成部212は、レイヤー画像作成部203によって作成されたレイヤー画像と静止画像取得部201によって取得された静止画像とを、メイクパターン画像として、メイクパターン画像記憶部101に記憶させる。   The makeup pattern image creation unit 212 causes the makeup pattern image storage unit 101 to store the layer image created by the layer image creation unit 203 and the still image obtained by the still image acquisition unit 201 as a makeup pattern image.

次に、メイクパターン作成モードにおける化粧シミュレーション装置の動作について、図21に示すフローチャートを用いて説明する。まず、ステップS101において、静止画像取得部201は、メイクパターン画像のモデルとなる人間の顔の静止画像を取得する。この場合、例えば、図6に示すような人間の顔の静止画像が取得される。   Next, the operation of the makeup simulation apparatus in the makeup pattern creation mode will be described using the flowchart shown in FIG. First, in step S101, the still image acquisition unit 201 acquires a still image of a human face that is a model of a makeup pattern image. In this case, for example, a still image of a human face as shown in FIG. 6 is acquired.

ステップS102において、レイヤー画像作成部203は、操作部202を介して、ユーザによる化粧要素画像の描画入力を受け付け、ステップS103において、1種類の化粧要素画像の描画入力を受け付ける毎に、各化粧要素画像を含むレイヤー画像を作成する。   In step S102, the layer image creating unit 203 receives a drawing input of a makeup element image by the user via the operation unit 202. Each time a makeup input of one type of makeup element image is received in step S103, each makeup element image is received. Create a layer image that includes an image.

この場合、レイヤー画像作成部203は、静止画像取得部201によって取得された顔の静止画像を表示部211に表示させ、表示された静止画像上に化粧要素画像をペンタブレットを用いて描画させることにより、化粧要素画像の描画入力を受け付ける。描画された化粧要素画像は、表示部211に表示される。また、1種類の化粧要素画像の入力が終了したか否かの判断はユーザの指示によって行なわれる。   In this case, the layer image creation unit 203 displays the still image of the face acquired by the still image acquisition unit 201 on the display unit 211, and causes the makeup element image to be drawn on the displayed still image using a pen tablet. Thus, the drawing input of the makeup element image is accepted. The drawn makeup element image is displayed on the display unit 211. Further, whether or not the input of one type of makeup element image has been completed is determined by a user instruction.

この段階において、表示部211には、透明度成分と、単色の色成分とによって表された化粧要素画像が、静止画像上に単に重ねて合わせて表示されているだけの画像が表示されており、化粧要素画像が人の顔に対して、違和感のある不自然な状態で表示されている。   At this stage, the display unit 211 displays an image in which the makeup element image represented by the transparency component and the monochromatic color component is simply superimposed and displayed on the still image. The makeup element image is displayed in an unnatural state with a sense of incongruity on the human face.

ステップS104において、ユーザによりステップS103で作成されたレイヤー画像を静止画像に合成する指示が入力されると(ステップS104でYES)、ステップS106に進む。一方、ステップS104において、レイヤー画像を静止画像に合成する指示が入力されない場合は(ステップS104でNO)、ステップS105に進む。   In step S104, when the user inputs an instruction to combine the layer image created in step S103 with a still image (YES in step S104), the process proceeds to step S106. On the other hand, if an instruction to synthesize a layer image with a still image is not input in step S104 (NO in step S104), the process proceeds to step S105.

ステップS105において、ユーザによりメイクパターン作成モードの終了の指示がされた場合(ステップS105でYES)、処理を終了する。一方、ステップS105において、ユーザによりメイクパターン作成モードの終了の指示がされなかった場合(ステップS105でNO)、ステップS102に戻る。   In step S105, if the user gives an instruction to end the makeup pattern creation mode (YES in step S105), the process ends. On the other hand, if the user has not instructed the end of the makeup pattern creation mode in step S105 (NO in step S105), the process returns to step S102.

ステップS106において、透明度レイヤー画像作成部204は、レイヤー画像の透明度成分を基に、レイヤー画像の各階層に対応する透明度レイヤー画像を作成する。ステップS107において、色レイヤー作成部205は、レイヤー画像の色成分を基に、レイヤー画像の各階層に対応する色レイヤーを作成する。   In step S106, the transparency layer image creation unit 204 creates a transparency layer image corresponding to each layer of the layer image based on the transparency component of the layer image. In step S107, the color layer creation unit 205 creates a color layer corresponding to each layer of the layer image based on the color components of the layer image.

ステップS108において、透明度正規化部206は、透明度レイヤー画像の各画素の透明度を正規化し、正規化透明度レイヤー画像を作成し、正規化透明度レイヤー画像記憶部207に記憶させるとともに、静止画像の各画素の透明度を正規化し、正規化透明度レイヤー画像記憶部207に記憶させる。   In step S108, the transparency normalization unit 206 normalizes the transparency of each pixel of the transparency layer image, creates a normalized transparency layer image, stores it in the normalized transparency layer image storage unit 207, and stores each pixel of the still image. Is normalized and stored in the normalized transparency layer image storage unit 207.

ステップS109において、色変換処理部208は、色レイヤーと静止画像とを基に、レイヤー画像の各階層に対応する色変換レイヤー画像を作成し、色変換レイヤー画像記憶部209に記憶させる。   In step S109, the color conversion processing unit 208 creates a color conversion layer image corresponding to each layer of the layer image based on the color layer and the still image, and stores the color conversion layer image in the color conversion layer image storage unit 209.

ステップS110において、画像合成部210は、静止画像と、色変換レイヤー画像とをαブレンディングにより合成させる。ステップS111において、表示部211は、画像合成部210によって合成された画像を表示する。この場合、ステップS102の段階で、静止画像上に違和感なく不自然な状態で表示されていた化粧要素画像が違和感のない自然な状態で静止画像上に表示されることとなる。   In step S110, the image composition unit 210 synthesizes the still image and the color conversion layer image by α blending. In step S <b> 111, the display unit 211 displays the image synthesized by the image synthesis unit 210. In this case, in the step S102, the makeup element image displayed in the unnatural state without any sense of incongruity on the still image is displayed on the still image in the natural state without any sense of incongruity.

ステップS112において、ユーザによりメイクパターン画像の作成指示がされると(ステップS112でYES)、ステップS113に進み、メイクパターン画像作成部212は、レイヤー画像作成部203によって作成されたレイヤー画像と静止画像取得部201によって取得された静止画像とを合成してメイクパターン画像を作成し、メイクパターン画像記憶部101に記憶させ、メイクパターン作成モードを終了する。   In step S112, when the user gives an instruction to create a makeup pattern image (YES in step S112), the process proceeds to step S113, where makeup pattern image creation unit 212 creates a layer image and a still image created by layer image creation unit 203. A makeup pattern image is created by combining the still image acquired by the acquisition unit 201 and stored in the makeup pattern image storage unit 101, and the makeup pattern generation mode ends.

一方、ステップS112において、ユーザによりメイクパターン画像の作成指示がされない場合(ステップS113でNO)、ステップS102に戻る。   On the other hand, if the user does not instruct the creation of a makeup pattern image in step S112 (NO in step S113), the process returns to step S102.

このように、本化粧シミュレーション装置によれば、ペンタブレット等を操作することによりユーザにより予め作成されたメイクパターン画像に含まれる化粧要素画像をフレーム画像に適合するように変形させ、フレーム画像上に表示させているため、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。   As described above, according to the present makeup simulation apparatus, the makeup element image included in the makeup pattern image created in advance by the user by operating a pen tablet or the like is deformed to fit the frame image, and is displayed on the frame image. Because it is displayed, the user can quickly obtain a high-quality makeup simulation image as if the makeup was actually applied by simply performing a simplified operation such as operating an operation device such as a pen tablet. Can do. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.

さらに、透明度レイヤー画像の各画素の透明度及び背景画像の各画素の透明度を正規化しているため、レイヤーの順序に依存しないαブレンディングが可能となる。さらに、初期メッシュの長さ制約を満たし、かつ、メッシュを構成するポリゴンの重なりが生じないように、メイクパターン画像及びフレーム画像の顔の輪郭内部にメッシュを設定しているため、化粧要素画像をフレーム画像上により違和感なく自然な状態で表示することができる。色変換レイヤー画像をαブレンディングの背景画像として用いているため、フレーム画像または静止画像に対してより違和感なく自然な状態で化粧要素画像を表示することができる。   Furthermore, since the transparency of each pixel of the transparency layer image and the transparency of each pixel of the background image are normalized, α blending independent of the layer order is possible. Furthermore, since the mesh is set inside the face contour of the makeup pattern image and the frame image so that the length restriction of the initial mesh is satisfied and the polygons constituting the mesh do not overlap, the makeup element image is displayed. The frame image can be displayed in a natural state without a sense of incongruity. Since the color conversion layer image is used as the background image of the α blending, the makeup element image can be displayed in a natural state without a sense of incongruity with respect to the frame image or the still image.

なお、本発明は、以下の態様を採用してもよい。   The present invention may adopt the following aspects.

(1)上記実施の形態では、化粧シミュレーションプログラムをコンピュータにインストールすることにより、コンピュータを化粧シミュレーション装置として機能させていたが、これに限定されず、専用のハードウェア回路を用いて、化粧シミュレーション装置を構成してもよい。   (1) In the above embodiment, the makeup simulation program is installed in the computer so that the computer functions as the makeup simulation device. However, the present invention is not limited to this, and the makeup simulation device uses a dedicated hardware circuit. May be configured.

(2)上記実施の形態では、レイヤー画像は、1種類の化粧要素画像を含むものとしたが、これに限定されず、色成分が一致する複数の化粧要素画像を1枚のレイヤー画像中に含ませても良い。   (2) In the above embodiment, the layer image includes one type of makeup element image. However, the present invention is not limited to this, and a plurality of makeup element images having the same color component are included in one layer image. It may be included.

(3)上記実施の形態では、静止画像を静止画カメラ11で取得していたが、これに限定されず、動画カメラにより撮影された動画像の1枚のフレーム画像を静止画像として取得してもよい。これにより、静止画カメラ11が不要となる。   (3) In the above embodiment, the still image is acquired by the still image camera 11. However, the present invention is not limited to this, and one frame image of a moving image captured by the video camera is acquired as a still image. Also good. Thereby, the still image camera 11 becomes unnecessary.

(4)上記実施の形態では、化粧シミュレーションモードは、顔画像を含む背景画像とレイヤー画像とからなるメイクパターン画像を基に、化粧シミュレーションを実行していたが、これに限定されず、メイクパターン作成モードにおいて、透明度正規化部206で作成された正規化透明度レイヤー画像と、色変換処理部208で作成された色変換レイヤー画像と、顔画像を含む背景画像とからなる画像をメイクパターン画像として、化粧シミュレーションを実行してもよい。この場合、予め、色変換レイヤー画像と、正規化透明度レイヤー画像とが作成されているため、透明度レイヤー画像作成部105、透明度正規化部107、色レイヤー作成部106及び色変換処理部109は不要となる。ただし、メイクパターン画像記憶部101及び使用メイクパターン画像記憶部104の使用メモリの節約という観点からは、顔画像を含む背景画像と、レイヤー画像とをメイクパターン画像とすることが好ましい。   (4) In the above-described embodiment, the makeup simulation mode executes the makeup simulation based on the makeup pattern image including the background image including the face image and the layer image. In the creation mode, an image composed of a normalized transparency layer image created by the transparency normalization unit 206, a color conversion layer image created by the color conversion processing unit 208, and a background image including a face image is used as a makeup pattern image. A makeup simulation may be executed. In this case, since the color conversion layer image and the normalized transparency layer image are created in advance, the transparency layer image creation unit 105, the transparency normalization unit 107, the color layer creation unit 106, and the color conversion processing unit 109 are unnecessary. It becomes. However, from the viewpoint of saving the used memory of the makeup pattern image storage unit 101 and the used makeup pattern image storage unit 104, the background image including the face image and the layer image are preferably used as the makeup pattern image.

本発明の一実施の形態による化粧シミュレーション装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the makeup | decoration simulation apparatus by one embodiment of this invention. 本化粧シミュレーション装置の化粧シミュレーションモードの機能を示すブロック図を示している。The block diagram which shows the function of the makeup | decoration simulation mode of this makeup | decoration simulation apparatus is shown. 本化粧シミュレーション装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of this makeup | decoration simulation apparatus. 本化粧シミュレーション装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of this makeup | decoration simulation apparatus. 式(1)及び式(2)を説明するための図である。It is a figure for demonstrating Formula (1) and Formula (2). 使用メイクパターン画像から抽出される特徴量を示した図である。It is the figure which showed the feature-value extracted from the use makeup pattern image. 初期メッシュの一例を示した図である。It is the figure which showed an example of the initial mesh. 初期メッシュの特徴頂点を使用メイクパターン画像の対応する移動対象位置に移動させ、浮動点に一定の高さ成分を付与した直後の使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。It is the figure which showed the mesh set to the use makeup pattern image immediately after moving the characteristic vertex of the initial mesh to the corresponding movement object position of the use makeup pattern image, and giving a fixed height component to a floating point, ( a) shows a mesh viewed in the Z direction, and (b) shows a mesh viewed in the oblique direction. 図8に示す各頂点に対し、式(7)及び式(8)の演算を1回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。It is the figure which showed the mesh set to the use makeup pattern image when the calculation of Formula (7) and Formula (8) is applied once with respect to each vertex shown in FIG. 8, (a) is Z direction view. (B) shows a mesh viewed in an oblique direction. 図8に示す各頂点に対し、式(7)及び式(8)の演算を5回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。It is the figure which showed the mesh set to the use makeup pattern image when calculation of Formula (7) and Formula (8) is applied 5 times with respect to each vertex shown in FIG. 8, (a) is Z direction view. (B) shows a mesh viewed in an oblique direction. 図8に示す各頂点に対し、式(7)及び式(8)の演算を10回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。It is the figure which showed the mesh set to the use makeup pattern image when the calculation of Formula (7) and Formula (8) is applied 10 times with respect to each vertex shown in FIG. 8, (a) is Z direction view. (B) shows a mesh viewed in an oblique direction. 図8に示す各頂点に対し、式(7)及び式(8)の演算を20回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。It is the figure which showed the mesh set to the use makeup pattern image when the calculation of Formula (7) and Formula (8) is applied 20 times with respect to each vertex shown in FIG. 8, (a) is Z direction view. (B) shows a mesh viewed in an oblique direction. 図8に示す各頂点に対し、式(7)及び式(8)の演算を30回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。It is the figure which showed the mesh set to the use makeup pattern image when the calculation of Formula (7) and Formula (8) is applied 30 times with respect to each vertex shown in FIG. 8, (a) is Z direction view. (B) shows a mesh viewed obliquely. 図8に示す各頂点に対し、式(7)及び式(8)の演算を30回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。It is the figure which showed the mesh set to the use makeup pattern image when the calculation of Formula (7) and Formula (8) is applied 30 times with respect to each vertex shown in FIG. 8, (a) is Z direction view. (B) shows a mesh viewed obliquely. メッシュを構成するポリゴンの重なりが生じている画像に対して、化粧要素画像を合成したときの一例を示す画面図である。It is a screen figure which shows an example when a makeup | decoration element image is synthesize | combined with respect to the image with which the polygon which comprises a mesh has produced. 図6に示す使用メイクパターン画像の顔の輪郭内部に設定されたメッシュを示した図である。It is the figure which showed the mesh set inside the outline of the face of the use makeup pattern image shown in FIG. フレーム画像の顔の輪郭内部に設定されたメッシュを示した図である。It is the figure which showed the mesh set inside the outline of the face of a frame image. 化粧要素画像が、変形される様子を示した図であり、(a)は変形前を示し、(b)は変形後を示している。It is the figure which showed a mode that a makeup | decoration element image was deform | transformed, (a) shows before a deformation | transformation, (b) has shown after a deformation | transformation. 画像合成部による合成の結果、得られた画像を示している。An image obtained as a result of the composition by the image composition unit is shown. メイクパターン作成モードにおける化粧シミュレーション装置の機能を示すブロック図である。It is a block diagram which shows the function of the makeup | decoration simulation apparatus in makeup pattern creation mode. メイクパターン作成モードにおける化粧シミュレーション装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the makeup | decoration simulation apparatus in makeup pattern creation mode.

符号の説明Explanation of symbols

101 メイクパターン画像記憶部
102 操作部
103 初期設定部
104 使用メイクパターン画像記憶部
105 透明度レイヤー画像作成部
106 色レイヤー作成部
107 透明度正規化部
108 正規化透明度画像レイヤー記憶部
109 色変換処理部
110 色変換レイヤー画像記憶部
111 動画像取得部
112 フレーム画像抽出部
113 特徴量抽出部
114 特徴量抽出部
115 初期メッシュ記憶部
116 メッシュ設定部
117 メッシュ設定部
118 座標計算部
119 座標変換テーブル記憶部
120 化粧要素画像変形部
121 画像合成部
122 表示部
201 静止画像取得部
202 操作部
203 レイヤー画像作成部
204 透明度レイヤー画像作成部
205 色レイヤー作成部
206 透明度正規化部
207 正規化透明度レイヤー画像記憶部
208 色変換処理部
209 色変換レイヤー画像記憶部
210 画像合成部
211 表示部
212 メイクパターン画像作成部
101 makeup pattern image storage unit 102 operation unit 103 initial setting unit 104 use makeup pattern image storage unit 105 transparency layer image creation unit 106 color layer creation unit 107 transparency normalization unit 108 normalized transparency image layer storage unit 109 color conversion processing unit 110 Color conversion layer image storage unit 111 Moving image acquisition unit 112 Frame image extraction unit 113 Feature amount extraction unit 114 Feature amount extraction unit 115 Initial mesh storage unit 116 Mesh setting unit 117 Mesh setting unit 118 Coordinate calculation unit 119 Coordinate conversion table storage unit 120 Makeup element image deformation unit 121 Image composition unit 122 Display unit 201 Still image acquisition unit 202 Operation unit 203 Layer image creation unit 204 Transparency layer image creation unit 205 Color layer creation unit 206 Transparency normalization unit 207 Normalized transparency layer image description Part 208 color conversion processing section 209 color conversion layer image storage unit 210 the image combining unit 211 display unit 212 make the pattern image generating unit

Claims (8)

操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得手段と、
前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、
シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、
前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、
前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、
前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、
前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段とを備えることを特徴とする化粧シミュレーション装置。
A layer image composed of n layers (n is a positive integer) that is created in advance based on a drawing command from the user input via the operation device and includes at least one makeup element image composed of the same color in each layer; Reference image acquisition means for acquiring a reference image composed of a background image including a face image;
First image creating means for creating a first image based on the transparency of each pixel of the layer image;
Simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated;
Mesh setting means for setting a mesh inside the contour of the face image included in each of the reference image and the simulation target image;
A difference between positions of corresponding vertices of meshes set in each of the reference image and the simulation target image is calculated, and a makeup element image included in the first image is calculated based on the calculated difference. Image deformation means for deforming the image to match the face image in the target image;
A second image creating means for performing a color conversion process on the simulation target image using a color component of each layer image and creating a second image corresponding to each layer of the layer image;
Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. And a makeup simulation apparatus.
前記第1の画像作成手段は、前記透明度を基に、透明度レイヤー画像を作成し、作成した透明度レイヤー画像の各画素の透明度を正規化し、得られた画像を前記第1の画像とし、
前記画像合成手段は、αブレンディングにより、前記シミュレーション対象画像及び前記2の画像を合成することを特徴とする請求項1記載の化粧シミュレーション装置。
The first image creating means creates a transparency layer image based on the transparency, normalizes the transparency of each pixel of the created transparency layer image, and sets the obtained image as the first image,
2. The makeup simulation apparatus according to claim 1, wherein the image synthesizing unit synthesizes the simulation target image and the second image by α blending.
前記第2の画像作成手段は、各レイヤー画像の色成分及び前記シミュレーション対象画像の各々をRGB表色系からHSV表色系に変換し、変換された両色を式(A)〜式(C)に示す色変換処理を実行し、得られた画像をHSV表色系からRGB表色系に変換し、前記第2の画像を作成することを特徴とする請求項2記載の化粧シミュレーション装置。
r=Hc ・・・式(A)
r=0.8×Sf+0.2×Sc ・・・式(B)
r=0.8×Vf+0.2×Vc ・・・式(C)
但し、Hc、Sc、Vcはレイヤー画像の色成分のHSV値を示し、Sf、Vfはシミュレーション対象画像の各画素のHSV値を示し、Hr、Sr、Vrは第2の合成対象画像の各画素のHSV値を示している。
The second image creating means converts the color component of each layer image and each of the simulation target images from the RGB color system to the HSV color system, and the converted two colors are represented by equations (A) to (C 3. The makeup simulation apparatus according to claim 2, wherein the second image is created by converting the obtained image from the HSV color system to the RGB color system, and executing the color conversion process shown in FIG.
H r = H c Formula (A)
S r = 0.8 × S f + 0.2 × S c Formula (B)
V r = 0.8 × V f + 0.2 × V c Formula (C)
However, H c , S c , V c indicate HSV values of the color components of the layer image, S f , V f indicate HSV values of the respective pixels of the simulation target image, and H r , S r , V r are the first values. 2 shows the HSV value of each pixel of the composition target image 2.
顔の輪郭内部にメッシュが設定された初期メッシュを記憶する初期メッシュ記憶手段をさらに備え、
前記初期メッシュの各頂点は、顔部品の輪郭上に位置する特徴頂点と、その他の浮動点とから構成され、
前記メッシュ設定手段は、前記シミュレーション対象画像及び前記基準画像の各々から、前記顔部品の輪郭を抽出し、前記特徴頂点を、抽出した顔部品の輪郭上に移動させるとともに、前記初期メッシュの各頂点間の距離が保持されるように、前記浮動点を移動させ、前記シミュレーション対象画像及び前記基準画像の各々に、メッシュを設定することを特徴とする請求項1〜3のいずれかに記載の化粧シミュレーション装置。
An initial mesh storage means for storing an initial mesh in which a mesh is set inside the face contour;
Each vertex of the initial mesh is composed of feature vertices located on the contour of the facial part and other floating points,
The mesh setting means extracts the outline of the facial part from each of the simulation target image and the reference image, moves the feature vertex on the extracted facial part outline, and each vertex of the initial mesh The makeup according to any one of claims 1 to 3, wherein the floating point is moved so that a distance between the meshes is maintained, and a mesh is set for each of the simulation target image and the reference image. Simulation device.
前記画像変形手段は、前記初期メッシュの各頂点を、画像面と直交する高さ成分が付与された3次元データとし、前記浮動点には、一定の値の高さ成分を付与し、前記特徴頂点は、前記画像面上に位置させ、前記各頂点に対し、式(D)及び式(E)で示す演算を所定回数適用することにより前記浮動点を移動させることを特徴とする請求項4記載の化粧シミュレーション装置。
Figure 2005216131
但し、Piベクトルは、メッシュの頂点の座標を示し、Pjベクトルは、Piベクトルに隣接するメッシュの頂点の座標を示し、Pi´ベクトルは演算が施されたPiベクトルを示し、Pj´ベクトルは演算が施されたPjベクトルを示し、lijはPiベクトル及びPjベクトルを結ぶ線分の長さを示し、λは定数値を示している。
The image transformation means uses each vertex of the initial mesh as three-dimensional data to which a height component orthogonal to the image plane is added, and assigns a certain height component to the floating point. 5. The vertex is located on the image plane, and the floating point is moved by applying the calculation represented by the equations (D) and (E) a predetermined number of times to each vertex. The makeup simulation apparatus described.
Figure 2005216131
However, P i vector, the coordinates of the vertices of the mesh, P j vector, the coordinates of the vertices of the mesh adjacent to the P i vector, P i 'vector represents the P i vector operation is performed, The P j ′ vector indicates the P j vector on which the operation has been performed, l ij indicates the length of the line segment connecting the P i vector and the P j vector, and λ indicates a constant value.
前記シミュレーション対象画像は、動画像中の各フレーム画像であることを特徴とする請求項1〜5のいずれかに記載の化粧シミュレーション装置。   The makeup simulation apparatus according to claim 1, wherein the simulation target image is each frame image in a moving image. コンピュータが、操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得ステップと、
コンピュータが、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成ステップと、
コンピュータが、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得ステップと、
コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定ステップと、
コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形ステップと、
コンピュータが、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成ステップと、
コンピュータが、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成ステップとを備えることを特徴とする化粧シミュレーション方法。
A layer composed of n layers (n is a positive integer) including at least one makeup element image having the same color in each layer, which is created in advance by a computer based on a drawing command from the user input via the operation device A reference image acquisition step of acquiring a reference image composed of an image and a background image including a face image;
A first image creating step in which a computer creates a first image based on the transparency of each pixel of the layer image;
A simulation target image acquisition step in which a computer acquires a simulation target image including a face image of a person to be simulated;
A mesh setting step in which a computer sets a mesh inside an outline of a face image included in each of the reference image and the simulation target image;
The computer calculates a difference between positions of corresponding vertices of the mesh set in each of the reference image and the simulation target image, and based on the calculated difference, a makeup element image included in the first image is calculated. , An image deformation step for deforming to match the face image in the simulation target image;
A second image creation step in which the computer executes a color conversion process on the simulation target image using a color component of each layer image, and creates a second image corresponding to each layer of the layer image;
The computer determines the transparency of each of the second image and the simulation target image based on the first image, and uses the determined transparency to synthesize the simulation target image and the second image. And a makeup simulation method comprising:
操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得手段と、
前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、
シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、
前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、
前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、
前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、
前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段としてコンピュータを機能させることを特徴とする化粧シミュレーションプログラム。
A layer image composed of n layers (n is a positive integer) that is created in advance based on a drawing command from the user input via the operation device and includes at least one makeup element image composed of the same color in each layer; Reference image acquisition means for acquiring a reference image composed of a background image including a face image;
First image creating means for creating a first image based on the transparency of each pixel of the layer image;
Simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated;
Mesh setting means for setting a mesh inside the contour of the face image included in each of the reference image and the simulation target image;
A difference between positions of corresponding vertices of meshes set in each of the reference image and the simulation target image is calculated, and a makeup element image included in the first image is calculated based on the calculated difference. Image deformation means for deforming the image to match the face image in the target image;
A second image creating means for performing a color conversion process on the simulation target image using a color component of each layer image and creating a second image corresponding to each layer of the layer image;
Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. A makeup simulation program characterized by causing a computer to function as means.
JP2004023947A 2004-01-30 2004-01-30 Makeup simulation device, makeup simulation method, makeup simulation program Expired - Fee Related JP4404650B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004023947A JP4404650B2 (en) 2004-01-30 2004-01-30 Makeup simulation device, makeup simulation method, makeup simulation program
US10/583,619 US20070019882A1 (en) 2004-01-30 2004-10-29 Makeup simulation program, makeup simulation device, and makeup simulation method
EP04793233A EP1710746A1 (en) 2004-01-30 2004-10-29 Makeup simulation program, makeup simulation device, and makeup simulation method
CN 200480041041 CN1906631A (en) 2004-01-30 2004-10-29 Makeup simulation program, makeup simulation device, and makeup simulation method
PCT/JP2004/016125 WO2005073909A1 (en) 2004-01-30 2004-10-29 Makeup simulation program, makeup simulation device, and makeup simulation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004023947A JP4404650B2 (en) 2004-01-30 2004-01-30 Makeup simulation device, makeup simulation method, makeup simulation program

Publications (2)

Publication Number Publication Date
JP2005216131A true JP2005216131A (en) 2005-08-11
JP4404650B2 JP4404650B2 (en) 2010-01-27

Family

ID=34906800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004023947A Expired - Fee Related JP4404650B2 (en) 2004-01-30 2004-01-30 Makeup simulation device, makeup simulation method, makeup simulation program

Country Status (2)

Country Link
JP (1) JP4404650B2 (en)
CN (1) CN1906631A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097950A (en) * 2005-10-06 2007-04-19 Shiseido Co Ltd Lip makeup method
JP2007209557A (en) * 2006-02-09 2007-08-23 Shiseido Co Ltd Drawing method of eyebrow and eyebrow scale used for the same
JP2007293649A (en) * 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc Makeup assist device and eyebrow drawing assist device
WO2009093617A1 (en) * 2008-01-22 2009-07-30 Shiseido Company, Ltd. Makeup method, makeup simulation device, and makeup simulation program
JP2011259243A (en) * 2010-06-09 2011-12-22 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2012088926A (en) * 2010-10-19 2012-05-10 Canon Inc Image processor and image processing method
JP2013101633A (en) * 2006-01-17 2013-05-23 Shiseido Co Ltd Makeup simulation system
US8698747B1 (en) 2009-10-12 2014-04-15 Mattel, Inc. Hand-activated controller
WO2014171142A1 (en) * 2013-04-17 2014-10-23 パナソニックIpマネジメント株式会社 Image processing method and image processing device
WO2015029371A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance method, and makeup assistance program
WO2015029372A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
CN105631065A (en) * 2014-10-31 2016-06-01 北京临近空间飞行器系统工程研究所 Background grid based moving grid method
WO2017013925A1 (en) * 2015-07-21 2017-01-26 ソニー株式会社 Information processing device, information processing method, and program
KR101752701B1 (en) * 2012-12-14 2017-06-30 한국전자통신연구원 Method for recreating makeup on image
JP2019037741A (en) * 2017-08-24 2019-03-14 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and eye shadow analysis method thereof
JP2019037742A (en) * 2017-08-24 2019-03-14 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and lip-makeup analysis method thereof
CN112308944A (en) * 2019-07-29 2021-02-02 丽宝大数据股份有限公司 Augmented reality display method of simulated lip makeup

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102012620B (en) * 2010-10-28 2013-06-05 鸿富锦精密工业(深圳)有限公司 Electronic cosmetic box
CN102682420A (en) * 2012-03-31 2012-09-19 北京百舜华年文化传播有限公司 Method and device for converting real character image to cartoon-style image
CN104599297B (en) * 2013-10-31 2018-07-10 厦门美图网科技有限公司 A kind of image processing method for going up blush automatically to face
JP6348791B2 (en) * 2014-07-16 2018-06-27 クラリオン株式会社 Display control apparatus and display control method
CN109299636A (en) * 2017-07-25 2019-02-01 丽宝大数据股份有限公司 The biological information analytical equipment in signable blush region
CN112949495A (en) * 2021-03-04 2021-06-11 安徽师范大学 Intelligent identification system based on big data

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097950A (en) * 2005-10-06 2007-04-19 Shiseido Co Ltd Lip makeup method
JP2013101633A (en) * 2006-01-17 2013-05-23 Shiseido Co Ltd Makeup simulation system
JP2007209557A (en) * 2006-02-09 2007-08-23 Shiseido Co Ltd Drawing method of eyebrow and eyebrow scale used for the same
JP2007293649A (en) * 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc Makeup assist device and eyebrow drawing assist device
WO2009093617A1 (en) * 2008-01-22 2009-07-30 Shiseido Company, Ltd. Makeup method, makeup simulation device, and makeup simulation program
JP2009199587A (en) * 2008-01-22 2009-09-03 Shiseido Co Ltd Makeup method, makeup simulation device, and makeup simulation program
US8698747B1 (en) 2009-10-12 2014-04-15 Mattel, Inc. Hand-activated controller
US9101832B2 (en) 2010-06-09 2015-08-11 Nintendo Co., Ltd. Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
JP2011259243A (en) * 2010-06-09 2011-12-22 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2012088926A (en) * 2010-10-19 2012-05-10 Canon Inc Image processor and image processing method
KR101752701B1 (en) * 2012-12-14 2017-06-30 한국전자통신연구원 Method for recreating makeup on image
JPWO2014171142A1 (en) * 2013-04-17 2017-02-16 パナソニックIpマネジメント株式会社 Image processing method and image processing apparatus
US9968176B2 (en) 2013-04-17 2018-05-15 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing device
WO2014171142A1 (en) * 2013-04-17 2014-10-23 パナソニックIpマネジメント株式会社 Image processing method and image processing device
JPWO2015029372A1 (en) * 2013-08-30 2017-03-02 パナソニックIpマネジメント株式会社 Makeup support device, makeup support system, makeup support method, and makeup support program
WO2015029371A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance method, and makeup assistance program
WO2015029372A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
CN105631065A (en) * 2014-10-31 2016-06-01 北京临近空间飞行器系统工程研究所 Background grid based moving grid method
CN105631065B (en) * 2014-10-31 2019-05-10 北京临近空间飞行器系统工程研究所 A kind of Dynamic Mesh based on background grid
WO2017013925A1 (en) * 2015-07-21 2017-01-26 ソニー株式会社 Information processing device, information processing method, and program
JPWO2017013925A1 (en) * 2015-07-21 2018-05-10 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2019037741A (en) * 2017-08-24 2019-03-14 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and eye shadow analysis method thereof
JP2019037742A (en) * 2017-08-24 2019-03-14 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and lip-makeup analysis method thereof
CN112308944A (en) * 2019-07-29 2021-02-02 丽宝大数据股份有限公司 Augmented reality display method of simulated lip makeup

Also Published As

Publication number Publication date
CN1906631A (en) 2007-01-31
JP4404650B2 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4404650B2 (en) Makeup simulation device, makeup simulation method, makeup simulation program
WO2005073909A1 (en) Makeup simulation program, makeup simulation device, and makeup simulation method
JP2603445B2 (en) Hair image adaptation method and computer system
US8139068B2 (en) Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
JP3912834B2 (en) Face image correction method, makeup simulation method, makeup method, makeup support apparatus, and foundation transfer film
WO2018221092A1 (en) Image processing device, image processing system, image processing method, and program
JP4753025B2 (en) Makeup simulation method
US6828972B2 (en) System and method for expression mapping
US20050180657A1 (en) System and method for image-based surface detail transfer
US20100189357A1 (en) Method and device for the virtual simulation of a sequence of video images
JPH1011609A (en) Device and method for generating animation character
JP2011107877A (en) Image processing apparatus, image processing method, and program
WO2005024728A1 (en) Form changing device, object action encoding device, and object action decoding device
JP2011048586A (en) Image processing apparatus, image processing method and program
JP3626144B2 (en) Method and program for generating 2D image of cartoon expression from 3D object data
CA2236388A1 (en) Method and apparatus for creating facial images
JPH11143352A (en) Method and device for automatically plotting makeup simulation
JP2021144582A (en) Makeup simulation device, makeup simulation method and program
JP4372494B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2017157014A (en) Image processing device, image processing method, image processing system and program
JP2007144194A (en) Method for face image modification, method for makeup simulation, method for makeup, support equipment for makeup and cosmetic foundation transcription film
JP7251003B2 (en) Face mesh deformation with fine wrinkles
JP2000279228A (en) Rouge makeup simulation system
JPH08297751A (en) Method and device for three-dimensional model generation
CA2635068A1 (en) Emulating cosmetic facial treatments with digital images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091102

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees