JP2005216131A - Makeup simulation apparatus, method and program - Google Patents
Makeup simulation apparatus, method and program Download PDFInfo
- Publication number
- JP2005216131A JP2005216131A JP2004023947A JP2004023947A JP2005216131A JP 2005216131 A JP2005216131 A JP 2005216131A JP 2004023947 A JP2004023947 A JP 2004023947A JP 2004023947 A JP2004023947 A JP 2004023947A JP 2005216131 A JP2005216131 A JP 2005216131A
- Authority
- JP
- Japan
- Prior art keywords
- image
- makeup
- layer
- transparency
- mesh
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、顔画像を含むシミュレーション対象画像に対して仮想的に化粧を施す化粧シミュレーション技術に関するものである。 The present invention relates to a makeup simulation technique for virtually applying makeup to a simulation target image including a face image.
従来より、ペンタブレット等の入力装置と、市販のレタッチ画像処理ソフトウェア(例えば、アドビ社のフォトショップ等)がインストールされた市販のコンピュータとを用いて、ユーザからの描画指令を基に、ブラシで化粧を塗布するような描画処理を行い、顔の静止画像に対して仮想的に化粧を施す手法が知られている。 Conventionally, using an input device such as a pen tablet and a commercially available computer in which commercially available retouch image processing software (for example, Adobe Photoshop) is installed, a brush is created based on a drawing command from the user. There is known a technique of performing makeup processing for applying makeup and virtually applying makeup to a still image of a face.
また、顔の動画像の各フレームに対し、口及び目の位置を検出し、検出した位置を基に、口紅、チーク等の化粧を施す領域を特定し、指定した領域に色を付すことにより、顔の動画像に対してリアルタイムに化粧シミュレーションを行なう技術が知られている(特許文献1)。
しかしながら、上記静止画像に対して仮想的に化粧を施す手法では、作成されたシミュレーション画像は、単に顔画像上に領域が指定されて化粧の塗布領域(化粧要素画像)が定められているにすぎず、かかる画像を、同一人物で表情の異なる画像に適用する、あるいは、他人の画像に適用するというようなことはなされていなかった。 However, in the method of virtually applying makeup to the still image, the created simulation image is simply a region designated on the face image and a makeup application region (makeup element image) is defined. However, such an image has not been applied to an image of the same person with a different expression or applied to an image of another person.
また、特許文献1の発明は、化粧要素画像を数式で定義し、顔の表情の変化に応じて、数式のパラメータを調整し、シミュレーション画像を得るものであるが、かかるパラメータの調整には数学及びプログラム等の専門的な知識が要求される。そのため、専門的な知識を有さない多少絵心のあるユーザが、簡略化された操作によりシミュレーション画像を得ることは困難であるという問題があった。また、化粧要素画像が自由曲線から構成される場合、パラメータの調整は非常に複雑となり、数学及びプログラミングの知識を有する熟練者であっても、パラメータの調整には、多大な労力がかかるという問題があった。さらに、化粧画像が数式で定義されているため、演算に時間多大なる時間がかかるという問題があった。さらに、化粧要素画像を数式で近似するという方式であるため、実際に化粧を塗布したような高品質な画像を得ることが困難であった。
In the invention of
本発明は、上記課題を解決するためになされたものであり、専門的な知識を有する者でなくとも、簡略化された操作により高品質かつ高速にシミュレーション画像を得ることができる化粧シミュレーションに関する技術を提供することを目的とする。 The present invention has been made to solve the above-described problem, and is a technique related to a makeup simulation capable of obtaining a high-quality and high-speed simulation image by a simplified operation even if the person does not have specialized knowledge. The purpose is to provide.
本発明にかかる化粧シミュレーション装置は、操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得手段と、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段とを備えることを特徴とする。 A makeup simulation apparatus according to the present invention is created in advance based on a drawing command from a user input via an operation device, and includes at least one makeup element image having the same color in each layer, where n is a positive number A first image is created on the basis of reference image acquisition means for acquiring a reference image composed of a layer image composed of (integer) layers and a background image including a face image, and the transparency of each pixel of the layer image. First image creation means, simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated, and inside a contour of a face image included in each of the reference image and the simulation target image Mesh setting means for setting a mesh, and a message set for each of the reference image and the simulation target image. An image for calculating a difference between positions of corresponding vertices of the image and transforming a makeup element image included in the first image so as to be adapted to a face image in the simulation target image based on the calculated difference A second image creating unit that performs a color conversion process on the simulation target image using a color component of each layer image and creates a second image corresponding to each layer of the layer image; Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. Means.
また、前記第1の画像作成手段は、前記透明度を基に、透明度レイヤー画像を作成し、作成した透明度レイヤー画像の各画素の透明度を正規化し、得られた画像を前記第1の画像とし、前記画像合成手段は、αブレンディングにより、前記シミュレーション対象画像及び前記2の画像を合成することが好ましい。 The first image creating means creates a transparency layer image based on the transparency, normalizes the transparency of each pixel of the created transparency layer image, and sets the obtained image as the first image. Preferably, the image synthesizing unit synthesizes the simulation target image and the second image by α blending.
また、前記第2の画像作成手段は、各レイヤー画像の色成分及び前記シミュレーション対象画像の各々をRGB表色系からHSV表色系に変換し、変換された両色を式(A)〜式(C)を用いて合成し、合成した画像をHSV表色系からRGB表色系に変換し、得られた画像を、前記第2の画像とすることが好ましい。
Hr=Hc ・・・式(A)
Sr=0.8×Sf+0.2×Sc ・・・式(B)
Vr=0.8×Vf+0.2×Vc ・・・式(C)
但し、Hc、Sc、Vcはレイヤー画像の色成分のHSV値を示し、Sf、Vfはシミュレーション対象画像の各画素のHSV値を示し、Hr、Sr、Vrは第2の合成対象画像の各画素のHSV値を示している。
The second image creating means converts the color components of each layer image and each of the simulation target images from the RGB color system to the HSV color system, and the converted two colors are represented by the formulas (A) to (A) to (C). It is preferable to synthesize using (C), convert the synthesized image from the HSV color system to the RGB color system, and use the obtained image as the second image.
H r = H c Formula (A)
S r = 0.8 × S f + 0.2 × S c Formula (B)
V r = 0.8 × V f + 0.2 × V c Formula (C)
However, H c , S c , V c indicate HSV values of the color components of the layer image, S f , V f indicate HSV values of the respective pixels of the simulation target image, and H r , S r , V r are the first values. 2 shows the HSV value of each pixel of the
また、顔の輪郭内部にメッシュが設定された初期メッシュを記憶する初期メッシュ記憶手段をさらに備え、前記初期メッシュの各頂点は、顔部品の輪郭上に位置する特徴頂点と、その他の浮動点とから構成され、前記メッシュ設定手段は、前記シミュレーション対象画像及び前記基準画像の各々から、前記顔部品の輪郭を抽出し、前記特徴頂点を、抽出した顔部品の輪郭上に移動させるとともに、前記初期メッシュの各頂点間の距離が保持されるように、前記浮動点を移動させ、前記シミュレーション対象画像及び前記基準画像の各々に、メッシュを設定することが好ましい。 The image processing apparatus further includes initial mesh storage means for storing an initial mesh in which a mesh is set inside the face contour, wherein each vertex of the initial mesh includes a feature vertex positioned on the contour of the face part, and other floating points. The mesh setting means extracts the outline of the facial part from each of the simulation target image and the reference image, moves the feature vertex onto the extracted facial part outline, and It is preferable that the floating point is moved so that the distance between the vertices of the mesh is maintained, and a mesh is set for each of the simulation target image and the reference image.
また、前記画像変形手段は、前記初期メッシュの各頂点を、画像面と直交する高さ成分が付与された3次元データとし、前記浮動点には、一定の値の高さ成分を付与し、前記特徴頂点は、前記画像面上に位置させ、前記各頂点に対し、式(D)及び式(E)で示す演算を所定回数適用することにより前記浮動点を移動させることが好ましい。 In addition, the image transformation means, each vertex of the initial mesh is set to three-dimensional data to which a height component orthogonal to the image plane is given, and a height component of a certain value is given to the floating point, It is preferable that the feature vertex is located on the image plane, and the floating point is moved by applying the calculation represented by the equations (D) and (E) a predetermined number of times to each vertex.
但し、Piベクトルは、メッシュの頂点の座標を示し、Pjベクトルは、Piベクトルに隣接するメッシュの頂点の座標を示し、Pi´ベクトルは演算が施されたPiベクトルを示し、Pj´ベクトルは演算が施されたPjベクトルを示し、lijはPiベクトル及びPjベクトルを結ぶ線分の長さを示し、λは定数値を示している。 However, P i vector, the coordinates of the vertices of the mesh, P j vector, the coordinates of the vertices of the mesh adjacent to the P i vector, P i 'vector represents the P i vector operation is performed, The P j ′ vector indicates the P j vector on which the operation has been performed, l ij indicates the length of the line segment connecting the P i vector and the P j vector, and λ indicates a constant value.
また、前記シミュレーション対象画像は、動画像中の各フレーム画像であることが好ましい。 Moreover, it is preferable that the said simulation object image is each frame image in a moving image.
本発明にかかる化粧シミュレーション方法は、コンピュータが、操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得ステップと、コンピュータが、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成ステップと、コンピュータが、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得ステップと、コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定ステップと、コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形ステップと、コンピュータが、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成ステップと、コンピュータが、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成ステップとを備えることを特徴とする。 In the makeup simulation method according to the present invention, the computer includes n (n) including at least one makeup element image having the same color in each layer, which is created in advance based on a drawing command from the user input via the operation device. Is a positive integer) a reference image acquisition step of acquiring a reference image composed of a layer image consisting of a hierarchy and a background image including a face image, and a computer, based on the transparency of each pixel of the layer image, A first image creation step of creating one image, a simulation target image acquisition step in which the computer acquires a simulation target image including a face image of a person to be simulated, and the computer includes the reference image and the simulation target A mesh setting that sets a mesh inside the contour of the face image included in each image And a computer calculates a difference between positions of corresponding vertices of the mesh set in each of the reference image and the simulation target image, and based on the calculated difference, the makeup included in the first image An image transformation step for transforming the element image so as to match the face image in the simulation target image, and the computer performs color conversion processing on the simulation target image using color components of each layer image, A second image creating step for creating a second image corresponding to each layer of the layer image; and a computer that determines the transparency of each of the second image and the simulation target image based on the first image. An image synthesis step for synthesizing the simulation target image and the second image using the determined transparency. Characterized in that it comprises and.
本発明にかかる化粧シミュレーションプログラムは、操作装置を介して入力されたユーザからの描画指令に基づいて予め作成され、各階層に同一色からなる少なくとも1つの化粧要素画像を含むn(nは正の整数)階層からなるレイヤー画像と、顔画像を含む背景画像とから構成される基準画像を取得する基準画像取得手段と、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段としてコンピュータを機能させることを特徴とする。 A makeup simulation program according to the present invention is created in advance based on a drawing command from a user input via an operating device, and includes at least one makeup element image having the same color in each layer, where n is a positive number A first image is created on the basis of reference image acquisition means for acquiring a reference image composed of a layer image composed of (integer) layers and a background image including a face image, and the transparency of each pixel of the layer image. First image creation means, simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated, and inside a contour of a face image included in each of the reference image and the simulation target image A mesh setting means for setting a mesh, and each of the reference image and the simulation target image. An image for calculating a difference between positions of corresponding vertices of the mesh, and transforming a makeup element image included in the first image so as to match a face image in the simulation target image based on the calculated difference. A second image creating unit that performs a color conversion process on the simulation target image using a color component of each layer image and creates a second image corresponding to each layer of the layer image; Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. A computer is functioned as means.
請求項1記載の発明によれば、ペンタブレット等の操作装置を用いて顔の静止画像上に化粧要素画像が描画された基準画像と、シミュレーション対象画像とが取得され、基準画像を構成する各レイヤー画像の透明度を基に、第1の画像が作成され、基準画像の顔領域及びシミュレーション対象画像の顔領域の各々に対してメッシュが設定され、両メッシュの各頂点の差分を基に、第1の画像中の化粧要素画像が、シミュレーション対象画像中の顔領域に適合するように変形される。そして、シミュレーション対象画像が各レイヤー画像の色成分を用いて変換され、第2の画像が作成され、第1の画像を基に、第2の画像及びシミュレーション対象画像の透明度が決定され、決定された透明度により、第1の画像及びシミュレーション対象画像が合成される。 According to the first aspect of the present invention, the reference image in which the makeup element image is drawn on the still image of the face using the operation device such as a pen tablet and the simulation target image are acquired, and each of the reference images is configured. A first image is created based on the transparency of the layer image, a mesh is set for each of the face area of the reference image and the face area of the simulation target image, and the first image is created based on the difference between the vertices of both meshes. The makeup element image in one image is deformed so as to fit the face area in the simulation target image. Then, the simulation target image is converted using the color component of each layer image, a second image is created, and the transparency of the second image and the simulation target image is determined and determined based on the first image. The first image and the simulation target image are synthesized based on the transparency.
したがって、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。 Therefore, the user can obtain a high-quality makeup simulation image as if the makeup was actually applied at high speed only by performing a simplified operation such as operating an operation device such as a pen tablet. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.
請求項2記載の発明によれば、透明度レイヤー画像の各画素の透明度が正規化されているため、画像合成手段は、レイヤー画像の順序が入れ替わっても、同一の画像を生成することができる。
According to the invention described in
請求項3記載の発明によれば、シミュレーション対象画像の明度・彩度をある程度維持したまま、化粧要素画像の色相を変更することができるため、化粧要素画像をシミュレーション対象画像上に自然な状態で表すことができる。
According to the invention described in
請求項4記載の発明によれば、初期メッシュの頂点同士の位置関係がバランスよく保持された状態で、基準画像及びシミュレーション対象画像にメッシュを設定することができる。 According to the fourth aspect of the present invention, it is possible to set the mesh in the reference image and the simulation target image in a state where the positional relationship between the vertices of the initial mesh is maintained in a well-balanced manner.
請求項5記載の発明によれば、初期メッシュの各頂点間の距離を保持しつつ、メッシュを構成するポリゴンの重なりの発生を防止することができる。 According to the fifth aspect of the present invention, it is possible to prevent the polygons constituting the mesh from overlapping while maintaining the distance between the vertices of the initial mesh.
請求項6記載の発明によれば、動画像に対して化粧シミュレーションを実行することができる。 According to the sixth aspect of the present invention, a makeup simulation can be executed on a moving image.
請求項7記載の発明によれば、ペンタブレット等の操作装置を用いて顔の静止画像上に化粧要素画像が描画された基準画像と、基準画像及びシミュレーション対象画像とが取得され、基準画像を構成する各レイヤー画像の透明度を基に、第1の画像が作成され、基準画像の顔領域及びシミュレーション対象の顔領域の各々に対してメッシュが設定され、両メッシュの各頂点の差分を基に、第1の画像中の化粧要素画像が、シミュレーション対象画像中の顔領域に適合するように変形される。そして、シミュレーション対象画像が各レイヤー画像の色成分を用いて変換され、第2の画像が作成され、第1の画像を基に、第2の画像及びシミュレーション対象画像の透明度が決定され、決定された透明度により、第1の画像及びシミュレーション対象画像が合成される。 According to the seventh aspect of the present invention, the reference image in which the makeup element image is drawn on the still image of the face using the operation device such as a pen tablet, the reference image, and the simulation target image are acquired. A first image is created based on the transparency of each layer image, and a mesh is set for each of the face area of the reference image and the face area to be simulated. Based on the difference between the vertices of both meshes The makeup element image in the first image is deformed so as to fit the face area in the simulation target image. Then, the simulation target image is converted using the color component of each layer image, a second image is created, and the transparency of the second image and the simulation target image is determined and determined based on the first image. The first image and the simulation target image are synthesized based on the transparency.
したがって、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。 Therefore, the user can obtain a high-quality makeup simulation image as if the makeup was actually applied at high speed only by performing a simplified operation such as operating an operation device such as a pen tablet. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.
請求項8記載の発明によれば、ペンタブレット等の操作装置を用いて顔の静止画像上に化粧要素画像が描画された基準画像と、基準画像及びシミュレーション対象画像とが取得され、基準画像を構成する各レイヤー画像の透明度を基に、第1の画像が作成され、基準画像の顔領域及びシミュレーション対象画像の顔領域の各々に対してメッシュが設定され、両メッシュの各頂点の差分を基に、第1の画像中の化粧要素画像が、シミュレーション対象画像中の顔領域に適合するように変形される。そして、シミュレーション対象画像が各レイヤー画像の色成分を用いて変換され、第2の画像が作成され、第1の画像を基に、第2の画像及びシミュレーション対象画像の透明度が決定され、決定された透明度により、第1の画像及びシミュレーション対象画像が合成される。 According to the eighth aspect of the present invention, the reference image in which the makeup element image is drawn on the still image of the face using the operation device such as a pen tablet, the reference image, and the simulation target image are acquired. A first image is created based on the transparency of each layer image, and a mesh is set for each of the face area of the reference image and the face area of the simulation target image, and the difference between the vertices of both meshes is set. In addition, the makeup element image in the first image is deformed so as to fit the face region in the simulation target image. Then, the simulation target image is converted using the color component of each layer image, a second image is created, and the transparency of the second image and the simulation target image is determined and determined based on the first image. The first image and the simulation target image are synthesized based on the transparency.
したがって、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。 Therefore, the user can obtain a high-quality makeup simulation image as if the makeup was actually applied at high speed only by performing a simplified operation such as operating an operation device such as a pen tablet. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.
以下、本発明の一実施の形態による化粧シミュレーション装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による化粧シミュレーション装置のハードウェア構成を示すブロック図である。 Hereinafter, a makeup simulation apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a hardware configuration of a makeup simulation apparatus according to an embodiment of the present invention.
図1に示す化粧シミュレーション装置は、通常のコンピュータ等から構成され、入力装置1、ROM(リードオンリメモリ)2、CPU(中央演算処理装置)3、RAM(ランダムアクセスメモリ)4、外部記憶装置5、表示装置6及び記録媒体駆動装置7を備える。各ブロックは内部のバスに接続され、このバスを介して種々のデータが入出力され、CPU3の制御の下、種々の処理が実行される。
The makeup simulation apparatus shown in FIG. 1 includes an ordinary computer or the like, and includes an
入力装置1は、キーボード、マウス及びペンタブレット等から構成され、操作者が種々のデータ及び操作指令等を入力するために使用される。
The
ROM2は、BIOS(Basic Input/Output System)等のシステムプログラム等を記憶する。RAM4は、CPU3の作業領域等として用いられる。
The
外部記憶装置5は、ハードディスクドライブ等から構成され、所定のOS(Operating System)及び後述する化粧シミュレーションプログラム等を記憶する。
The
表示装置6は、液晶表示装置、CRT(陰極線管)等から構成され、CPU3の制御の下、種々の画像を表示する。
The
記録媒体駆動装置7は、CD−ROMドライブ、フレキシブルディスクドライブ等から構成される。本実施形態では、化粧シミュレーションプログラムを記録する、CD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体8を、記録媒体駆動装置7に装填し、インストールすることにより、化粧シミュレーションプログラムを外部記憶装置5に格納している。
The recording
なお、インターネット上に接続されたWEBサーバに化粧シミュレーションプログラムを記憶させておき、WEBサーバからその化粧シミュレーションプログラムをダウンロードすることにより、コンピュータに化粧シミュレーションプログラムをインストールしてもよい。さらに、コンピュータに顔の動画像を取得させ、WEBサーバに送信し、WEBサーバ上で化粧シミュレーションの処理を実行し、その処理結果をパーソナルコンピュータに送信するというように、WEBサーバとコンピュータとで化粧シミュレーションプログラムを分散して実行させてもよい。 Note that the makeup simulation program may be installed in the computer by storing the makeup simulation program in a WEB server connected to the Internet and downloading the makeup simulation program from the WEB server. Furthermore, a makeup image is acquired between the WEB server and the computer such that the computer acquires a moving image of the face, transmits it to the WEB server, executes a makeup simulation process on the WEB server, and transmits the processing result to the personal computer. The simulation program may be distributed and executed.
動画カメラ10は、入出力インターフェイス(I/F)9を介してバスラインに接続され、例えばCCDエリアセンサにより、種々の動画像を所定のフレームレートで取得し、コンピュータに出力する。
The moving
静止画カメラ11は、入出I/F9を介してバスラインに接続され、例えばCCDエリアセンサにより、種々の静止画像を取得し、コンピュータに出力する。
The
本化粧シミュレーション装置は、ユーザによって予め作成されたメイクパターン画像を基に、動画像に対して化粧シミュレーションを実行する化粧シミュレーションモードと、上記メイクパターン画像を作成するメイクパターン作成モードとを備えている。まず、化粧シミュレーションモードについて説明する。 The makeup simulation apparatus includes a makeup simulation mode for executing makeup simulation on a moving image based on a makeup pattern image created in advance by a user, and a makeup pattern creation mode for creating the makeup pattern image. . First, the makeup simulation mode will be described.
(化粧シミュレーションモード)
図2は、本化粧シミュレーション装置の化粧シミュレーションモードの機能を示すブロック図を示している。メイクパターン画像記憶部101は、外部記憶装置5から構成され、メイクパターン作成モードにおいて作成された1又は複数種類のメイクパターン画像を記憶している。
(Makeup simulation mode)
FIG. 2 is a block diagram showing functions of the makeup simulation mode of the makeup simulation apparatus. The makeup pattern
メイクパターン画像は、N(Nは正の整数)階層からなるレイヤー画像と、顔が表示された背景画像とから構成されている。背景画像は、人間を静止画カメラ11で撮影することで取得された画像である。レイヤー画像には、1種類の化粧要素画像が含まれる。ここで、化粧要素画像とは、口紅、チーク、アイシャドウ等、各化粧要素の形状及び色等が表された画像を示す。化粧要素画像は、入力装置1を操作することにより、ユーザによって仮想的に描画された画像である。メイクパターン作成モードでは、1種類の化粧要素画像が作成される毎に1つのレイヤー画像が作成されるため、レイヤー画像には1種類の化粧要素画像が含まれる。また、メイクパターン作成モードでは、1種類の化粧要素画像に対して、1色の色が設定される。
The makeup pattern image is composed of a layer image composed of N (N is a positive integer) layers and a background image on which a face is displayed. The background image is an image obtained by photographing a person with the
レイヤー画像は、R(赤),G(緑),B(青)値からなる色成分と、背景画像に対する各画素の透明度が示された透明度成分とから構成されている。1種類の化粧要素画像は、1色から構成されているため、1枚のレイヤー画像の色成分は、全画素において同じR,G,B値を有している。すなわち、1枚のレイヤー画像の色成分は、1種類のR,G,B値により表される。 The layer image is composed of a color component composed of R (red), G (green), and B (blue) values, and a transparency component indicating the transparency of each pixel with respect to the background image. Since one type of makeup element image is composed of one color, the color components of one layer image have the same R, G, and B values in all pixels. That is, the color component of one layer image is represented by one type of R, G, and B values.
透明度は、背景画像に対するレイヤー画像の表示の混合率を示すものである。最大値1では、レイヤー画像のみが表示され背景画像は表示されない。また、最小値0では、レイヤー画像が表示されず、背景画像のみが表示される。すなわち、i(1≦i≦n)番目のレイヤー画像のある画素の透明度をaiとするとき、背景画像の透明度は、1−aiとなる。なお、透明度は、ユーザによる化粧要素画像の描画時のペンタブレットの軌跡や筆圧等に応じて設定される。
The transparency indicates the mixing ratio of the display of the layer image with respect to the background image. At the
背景画像は、R,G,B値からなる色成分から構成されている。背景画像は、画素毎に色が異なるため、背景画像の色成分は、レイヤー画像とは異なり、画素毎に異なるR,G,B値を有している。背景画像自身は、透明度を有さないが、レイヤー画像の透明度によって、背景画像の透明度が規定される。 The background image is composed of color components composed of R, G, and B values. Since the background image has a different color for each pixel, the color component of the background image has different R, G, and B values for each pixel, unlike the layer image. The background image itself does not have transparency, but the transparency of the background image is defined by the transparency of the layer image.
操作部102は、入力装置1から構成され、ユーザが種々の操作指令を入力するために用いられる。
The
初期設定部103は、CPU3から構成され、操作部102を介して入力されたユーザからの操作指令を基に、メイクパターン画像記憶部101に記憶された複数種類のメイクパターン画像の中から、化粧シミュレーションに使用する1種類のメイクパターン画像を決定し、当該メイクパターン画像を使用メイクパターン画像として、使用メイクパターン画像記憶部104に記憶させる。また、使用メイクパターン画像のうち、いずれか1又は複数のレイヤー画像を削除する指令が行なわれた場合、使用メイクパターン画像から当該レイヤー画像を削除し、使用メイクパターン画像を更新する。また、使用メイクパターン画像のうち、いずれか1又は複数枚のレイヤー画像に対し、色の指定が行なわれた場合、当該レイヤー画像の色成分の値を指定された色の値に変更し、使用メイクパターン画像を更新する。以下、使用化粧パターン画像は、n(n≦N)枚のレイヤー画像からなるものとする。
The
使用メイクパターン画像記憶部104は、RAM4から構成され、使用メイクパターン画像を記憶する。
The used makeup pattern
透明度レイヤー画像作成部105は、CPU3から構成され、各レイヤー画像の透明度成分を基に、レイヤー画像の各階層に対応する透明度レイヤー画像を作成する。レイヤー画像は、画素毎に異なる透明度を有しているため、透明度レイヤー画像は、透明度によって濃淡表示された化粧要素画像を含む画像となる。
The transparency layer
色レイヤー作成部106は、CPU3から構成され、各レイヤー画像に設定された色成分を基に、レイヤー画像の各階層に対応する色レイヤーを作成する。各レイヤー画像の色成分は、1種類のR,G,B値から構成されるため、各色レイヤーは、1種類のR,G,B値から構成される。すなわち、色レイヤーは、R,G,B値からなるデータである。
The color
透明度正規化部107は、CPU3から構成され、透明度レイヤー画像作成部105によって作成された透明度レイヤー画像の各画素に対して、式(1)の演算を施すことにより各画素を正規化し、正規化透明度レイヤー画像を作成する。また、透明度正規化部107は、背景画像の各画素に対して、式(2)の演算を施すことにより、背景画像の透明度を正規化する。
The
但し、αiはi階層目の透明度レイヤー画像の各画素の透明度を示し、βiは正規化された透明度レイヤー画像の各画素の透明度を示し、γは正規化された背景画像の各画素の透明度を示し、式(1)及び式(2)の分母は1からn階層目までの透明度レイヤー画像の透明度の和を示している。 However, α i indicates the transparency of each pixel of the transparency layer image in the i- th layer, β i indicates the transparency of each pixel of the normalized transparency layer image, and γ indicates each pixel of the normalized background image The degree of transparency is shown, and the denominators of the expressions (1) and (2) indicate the sum of the transparency of the transparency layer images from the 1st to the nth hierarchy.
正規化透明度画像レイヤー記憶部108は、RAM4から構成され、透明度正規化部107によって作成された正規化透明度レイヤー画像及び背景画像の透明度を記憶する。
The normalized transparency image
色変換処理部109は、CPU3から構成され、フレーム画像抽出部112によって動画像から抽出された1枚のフレーム画像の各画素のR,G,B値と、色レイヤーのR,G,B値とをHSV表色系に変換した後、式(3)〜式(5)に示す色変換処理を実行し、得られた画像をさらにR,G,B表色系に変換することにより、色変換レイヤー画像を作成する。なお、HSV表色系は、各画素が色相(H)、彩度(S)及び強度(V)の成分で表される表色系である。
Hr=Hc ・・・式(3)
Sr=0.8×Sf+0.2×Sc ・・・式(4)
Vr=0.8×Vf+0.2×Vc ・・・式(5)
但し、Hc、Sc、Vcは色レイヤーのH,S,V値を示し、Sf、Vfはフレーム画像1画素のH,S,V値を示し、Hr、Sr、Vrは色変換処理後の各画素のHSV値を示している。なお、色レイヤーはn階層からなるため、作成される色変換レイヤー画像はn階層からなる。
The color
H r = H c Formula (3)
S r = 0.8 × S f + 0.2 × S c Formula (4)
V r = 0.8 × V f + 0.2 × V c (5)
However, H c , S c , V c indicate H, S, V values of the color layer, S f , V f indicate H, S, V values of one pixel of the frame image, and H r , S r , V r indicates the HSV value of each pixel after color conversion processing. Since the color layer has n layers, the created color conversion layer image has n layers.
色変換レイヤー画像記憶部110は、RAM4から構成され、色変換処理部109によって作成されたn階層からなる色変換レイヤー画像を記憶する。
The color conversion layer
動画像取得部111は、動画カメラ10から構成され、人間の顔の動画像を取得する。被写体となる人間は、化粧シミュレーションが適用される人間であり、使用メイクパターン画像のモデルとなる人間と同一人であってもよいし、別人であってもよい。
The moving
フレーム画像抽出部112は、動画像取得部111によって取得された動画像から1枚のフレーム画像を順次抽出する。
The frame
特徴量抽出部113は、CPU3から構成され、使用メイクパターン画像記憶部104に記憶された使用メイクパターン画像から、顔の特徴量を抽出する。なお、特徴量とは、目、眉頭、目頭、目尻、鼻及び口等の特徴点と、顔、眉、目及び口の輪郭を表す特徴エッジと、肌、髪、背景の各領域を示す特徴クラスタ画像とが含まれる。これら特徴点、特徴エッジ及び特徴クラスタの抽出手法は、本出願人が出願した特開2003−44837号公報に開示されているため、説明を省略する。
The feature
特徴量抽出部114は、CPU3から構成され、特徴量抽出部113と同様にして、フレーム画像抽出部112によって抽出されたフレーム画像の特徴量を抽出する。
The feature
初期メッシュ記憶部115は、外部記憶装置5から構成され、人間の顔の輪郭内部にメッシュを設定する際に用いられる初期メッシュを記憶する。この初期メッシュは、ある人間の顔画像に基づいて予め作成されたものであり、一部のメッシュの頂点が、当該人間の顔、眉、目及び口の各輪郭を示す特徴エッジ上に位置するように、顔の輪郭内部にメッシュの各頂点が設定されている。本実施形態では、メッシュを三角形のポリゴンで構成しているが、これに限定されず、四角形、五角形等のポリゴンを用いても良い。以下、初期メッシュにおいて、特徴量に一致するように設定されたメッシュの頂点を「特徴頂点」と称し、特徴頂点以外のメッシュの頂点を「浮動点」と称する。本実施形態では、初期メッシュは、シェアウェアであるメタセコイアを用いて作成した。
The initial
メッシュ設定部116は、CPU3から構成され、初期メッシュの特徴頂点を、使用メイクパターン粧画像から抽出された特徴エッジ上の対応する位置(移動対象位置)に移動させた後、初期メッシュの各頂点間の距離を一定に保ち(長さ制約)、かつ、メッシュを構成するポリゴンの重なりが生じないという制約条件を満たすように、上記特徴頂点の移動量に応じて、浮動点を移動させ、使用メイクパターン粧画像の顔の輪郭内部にメッシュを設定する。このメッシュの頂点の移動の詳細については後述する。
The
メッシュ設定部117は、CPU3から構成され、初期メッシュ記憶部115に記憶された初期メッシュを、メッシュ設定部116と同一の手法により変形させ、フレーム画像中の顔の輪郭内部にメッシュを設定する。
The
座標計算部118は、CPU3から構成され、フレーム画像に設定されたメッシュの各頂点と、使用メイクパターン画像に設定されたメッシュの各頂点とにおいて、対応する頂点同士の位置の差分から各頂点の差分ベクトルを算出し、座標変換テーブルを作成する。座標変換テーブルは、例えば、メッシュに含まれる全ての頂点と、各頂点の差分ベクトルとを対応づけて記憶している。
The coordinate
座標変換テーブル記憶部119は、RAM4から構成され、座標計算部118によって作成された座標変換テーブルを記憶する。
The coordinate conversion
化粧要素画像変形部120は、CPU3から構成され、使用メイクパターン画像に設定されたメッシュを正規化透明度レイヤー画像に張り、座標変換テーブルを参照することにより、正規化透明度レイヤー画像に張られたメッシュの各頂点を、フレーム画像に設定された対応するメッシュの頂点の位置に移動させて正規化透明度レイヤー画像に張られたメッシュを変形させ、その変形量に応じて、メッシュを構成する各ポリゴン内の画像を変形させ、正規化透明度レイヤー画像中の化粧要素画像を変形させる。
The makeup element
画像合成部121は、CPU3から構成され、化粧要素画像変形部120によって変形された化粧要素画像を含む正規化透明度レイヤー画像の各画素の透明度(上記βi)を色変換レイヤー画像の各画素のα値とし、背景画像の正規化された各画素の透明度(上記γ)をフレーム画像のα値とし、αブレンディングにより、フレーム画像と、色変換レイヤー画像とを合成する。αブレンディングは、式(6)によって示される。
The
但し、Crベクトルは、合成後のR,G,B値を示し、Cfベクトルはフレーム画像の各画素のR,G,B値を示し、Ciベクトルは色変換レイヤー画像の各画素のR,G,B値を示している。また、βiは式(1)で表され、γは式(2)で表される。 However, C r vector, R after the synthesis, G, and B values indicated, C f vector represents each pixel of the frame image R, G, and B values of each pixel of the C i vector color conversion layer image R, G, and B values are shown. In addition, β i is expressed by equation (1), and γ is expressed by equation (2).
表示部122は、表示装置6から構成され、画像合成部121によって合成された画像、すなわち、仮想的に化粧が施された顔の動画像を表示する。
The
なお、本実施形態では、透明度レイヤー画像作成部105及び透明度正規化部107及び正規化透明度レイヤー画像記憶部108が第1の画像作成手段に相当し、色レイヤー作成部106、色変換処理部109及び色変換レイヤー画像記憶部110が第2の画像作成手段に相当し、使用メイクパターン画像が基準画像に相当し、動画像がシミュレーション対象画像に相当し、特徴量抽出部113、特徴量抽出部114、初期メッシュ記憶部115、メッシュ設定部116及び初期メッシュ設定部117が、メッシュ設定手段に相当し、座標計算部118、座標変換テーブル記憶部119及び化粧要素画像変形部120がメッシュ変形手段に相当し、画像合成部121が画像合成手段に相当する。
In this embodiment, the transparency layer
次に、図3及び図4に示すフローチャートにしたがって、本化粧シミュレーション装置の動作について説明する。 Next, the operation of the present makeup simulation apparatus will be described with reference to the flowcharts shown in FIGS.
まず、ステップS1において、初期設定部103は、ユーザによって選択された1種類のメイクパターン画像を使用メイクパターン画像として決定し、使用メイクパターン画像記憶部104に記憶させる。この場合、初期設定部103により、メイクパターン画像記憶部101に記憶されているメイクパターン画像の一覧画像が、表示部122に表示される。そして、ユーザによって、一覧画像の中からクリックされたメイクパターン画像が使用メイクパターン画像として決定される。
First, in step S <b> 1, the
さらに、ユーザにより、使用メイクパターン画像のうち、いずれかのメイクパターン画像を化粧シミュレーションに使用しない指令がされると、当該レイヤー画像を使用メイクパターン画像から削除し、使用メイクパターン画像を更新する。このとき、更新された使用メイクパターン画像は、表示部122に表示される。また、化粧シミュレーションに使用するレイヤー画像のうち、いずれかのレイヤー画像に対する色の指定が行なわれた場合、当該レイヤー画像の色成分の値を指定された色の値に変更し、使用メイクパターン画像を更新する。このとき、更新された使用メイクパターン画像は、表示部122に表示される。ある化粧要素画像に対する色の変更は、まず、ユーザにより、表示部122に表示された使用メイクパターン画像のうち、色の変更を希望する化粧要素画像をクリックさせて選択させる。そして、表示部122に表示された複数の色からなるカラーパレットの中から、いずれかの色がクリックされると、当該色が化粧要素画像の色として設定され、化粧要素画像の色が変更される。
Further, when the user gives an instruction not to use any makeup pattern image in the makeup simulation among the used makeup pattern images, the layer image is deleted from the used makeup pattern image and the used makeup pattern image is updated. At this time, the updated use makeup pattern image is displayed on the
ステップS2において、透明度レイヤー画像作成部105は、使用メイクパターン画像記憶部104から使用メイクパターン画像を読み出し、使用メイクパターン画像を構成するレイヤー画像の透明度成分から透明度レイヤー画像を作成する。
In step S2, the transparency layer
ステップS3において、色レイヤー作成部106は、使用メイクパターン画像記憶部104から使用メイクパターン画像を読み出し、使用メイクパターン画像を構成するレイヤー画像の色成分から色レイヤーを作成する。
In step S3, the color
ステップS4において、透明度レイヤー画像作成部105は、透明度レイヤー画像を式(1)を用いて正規化し正規化透明度レイヤー画像を作成するとともに、式(2)を用いて背景画像の透明度を正規化する。図5は、式(1)及び式(2)を説明するための図である。図5では、1〜n番目のレイヤーに対応するグラフが示されており、各グラフは、透明度レイヤー画像の透明度と、対応する階層の背景画像の透明度との関係が示されている。例えば、レイヤー1のグラフにおいて右側の領域R1には、1階層目の透明度レイヤー画像の透明度が示され、左側の領域R2には、1階層目の背景画像の透明度が示されている。
In step S4, the transparency layer
各グラフの右側に示された数式は、1からn階層目までの透明度レイヤー画像の透明度α1〜αnの和に対する、各透明度レイヤー画像の透明度αiの比率を示している。この比率を透明度αiにかけあわせると上記式(1)が得られる。 The mathematical formula shown on the right side of each graph indicates the ratio of the transparency α i of each transparency layer image to the sum of the transparency α 1 to α n of the transparency layer images from the first to the nth layer. By multiplying this ratio by the transparency α i , the above formula (1) is obtained.
また、グラフの右側に示された比率を背景画像の透明度1−αiにかけあわせ、全レイヤーについての総和をとると、上記式(2)が得られる。そして、βi及びγは、Σβi+γ=1の関係を有している。正規化する理由については後述する。但し、Σβi=β1+β2+・・・+βnである。 Further, when the ratio shown on the right side of the graph is multiplied by the transparency 1-α i of the background image and the sum of all layers is taken, the above equation (2) is obtained. Β i and γ have a relationship of Σβ i + γ = 1. The reason for normalization will be described later. However, Σβ i = β 1 + β 2 +... + Β n .
図3に示すステップS5において、特徴量抽出部113は、使用メイクパターン画像から特徴量を抽出する。図6は、使用メイクパターン画像から抽出される特徴量を示した図である。図6に示すように、化粧要素画像ME1〜ME4が表示された使用メイクパターン画像から顔、眉、目及び口の輪郭を示す特徴エッジE1〜E4と、○で示す目頭、眉尻等の特徴点TPと、髪、肌、背景の各領域を示す特徴クラスタHC、SC、BCとが抽出されていることが分かる。なお、特徴エッジE1〜E4としては、顔、眉、目及び口の輪郭に限定されず、他の顔部品、例えば鼻等の輪郭を特徴エッジとしてもよいし、上記4種類の特徴エッジE1〜E4のうち、いずれかの特徴エッジを省いてもよい。図6では、目に関しては、目の上側のエッジの頂点、目の下側の輪郭の頂点、目頭、目尻及び目の瞳の中心が特徴点TPとして抽出されている。また、眉に関しては、眉頭及び眉尻が特徴点TPとして抽出されている。また、口に関しては、唇の外周上の、上唇と下唇との2つのつなぎ目が特徴点TPとされている。また、鼻に関しては、両鼻の穴の間が特徴点TPとされている。また、顔の輪郭に関しては、目付近の点、下あごの頂点、頬の付近の顔の輪郭の傾きが大きく変化する点が特徴点TPとされている。ただし、これらの特徴点TPは、一例であって、いずれかの特徴点TPを省略してもよいし、新たに特徴点TPを追加してもよく、図6の○で示す点に限定されない。
In step S5 shown in FIG. 3, the feature
図3に示すステップS6において、メッシュ設定部117は、初期メッシュを変形させることにより、使用メイクパターン画像の顔の輪郭内部にメッシュを設定する。図7は、初期メッシュの一例を示した図である。図7に示すように初期メッシュは、一部の頂点が、顔、眉、目及び口の輪郭を示す特徴エッジE1´、E2´、E3´、E4´及び特徴点TP上に位置していることが分かる。これらの頂点を初期メッシュの特徴頂点と称する。そして、メッシュ設定部116は、この初期メッシュを図6に示す使用メイクパターン画像に重ね、初期メッシュの特徴頂点を、使用メイクパターン画像の対応する移動対象位置に移動させる。具体的には、初期メッシュの特徴点上の特徴頂点は、使用メイクパターン画像の対応する特徴点上に移動させる。また、特徴エッジ上であって、特徴点以外の初期メッシュの特徴頂点は、使用メイクパターン画像の対応する特徴エッジ上において、各点の内分比が一致するように移動させる。
In step S6 shown in FIG. 3, the
次に、メッシュ設定部116は、初期メッシュの各頂点に一定の高さ成分(Z成分)を与えて3次元データとし、各頂点に対して式(7)及び式(8)の演算を繰り返し適用することにより、各浮動点を移動させる。これにより、使用メイクパターン画像に対して、上述した長さ制約を満たし、かつ、メッシュを構成するポリゴンの重なりが生じないようなメッシュが設定されることとなる。
Next, the
ただし、Piベクトルは、メッシュの頂点の座標を示し、Pjベクトルは、Piベクトルに隣接するメッシュの頂点の座標を示し、Pi´ベクトルは演算が施されたPiベクトルを示し、Pj´ベクトルは演算が施されたPjベクトルを示し、lijは初期メッシュにおけるPiベクトル及びPjベクトルを結ぶ線分の長さを示し、λは定数値を示している。 However, P i vector, the coordinates of the vertices of the mesh, P j vector, the coordinates of the vertices of the mesh adjacent to the P i vector, P i 'vector represents the P i vector operation is performed, The P j ′ vector indicates the P j vector on which the operation has been performed, l ij indicates the length of the line segment connecting the P i vector and the P j vector in the initial mesh, and λ indicates a constant value.
図8は、初期メッシュの特徴頂点を使用メイクパターン画像の対応する移動対象位置に移動させ、浮動点に一定の高さ成分を付与した直後の使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。各浮動点は、(b)に示すように、Z方向に一定の距離ずらされていることが分かる。また、各特徴頂点は、XY平面上に位置していることが分かる。そして、メッシュ設定部116は、各頂点に対し式(7)及び式(8)の演算を順次適用していく。
FIG. 8 is a diagram showing the mesh set in the used makeup pattern image immediately after the feature vertex of the initial mesh is moved to the corresponding movement target position of the used makeup pattern image and a certain height component is given to the floating point. (A) shows a mesh viewed in the Z direction, and (b) shows a mesh viewed in the oblique direction. It can be seen that each floating point is shifted by a certain distance in the Z direction, as shown in FIG. It can also be seen that each feature vertex is located on the XY plane. Then, the
図9は、図8に示す各頂点に対し、式(7)及び式(8)の演算を1回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。図9(b)に示すように各浮動点は、図8(b)の場合に比べ、Z成分の値が少し小さくなっていること分かる。また、図9(a)に示すように各浮動点は、図8(b)の場合に比べ、メッシュを構成するポリゴンの重なりが多少改善されていることが分かる。 FIG. 9 is a diagram showing a mesh set in the use makeup pattern image when the operations of Expressions (7) and (8) are applied once to each vertex shown in FIG. Indicates a mesh viewed in the Z direction, and (b) indicates a mesh viewed in the oblique direction. As shown in FIG. 9B, it can be seen that the value of the Z component is slightly smaller at each floating point than in the case of FIG. 8B. Further, as shown in FIG. 9A, it can be seen that each floating point has a slightly improved overlap of polygons constituting the mesh as compared with the case of FIG. 8B.
図10〜図14は、図8に示す各浮動点に対し、式(7)及び式(8)の演算をそれぞれ5回、10回、20回、30回、60回適用したときの使用メイクパターン画像に設定されたメッシュを示した図であり、図10〜図14のいずれにおいても(a)はZ方向視のメッシュを示し、(b)は斜め方向視のメッシュを示している。図10(b)〜図14(b)に示すように、各頂点に対して式(7)及び式(8)の演算を適用する回数を増加させると、各浮動点の高さ成分の値が全体的に低くなっていき、図14(b)に示す式(5)の演算を60回適用したときのメッシュに至っては、各浮動点の高さ成分がほぼ0になっていることが分かる。また、これに伴い、図10(a)〜図14(a)に示すように、式(7)及び式(8)の演算を適用する回数が増大するにつれてメッシュを構成するポリゴンの重なりが解消されていることが分かる。 10 to 14 show the use makeup when the operations of the equations (7) and (8) are applied 5, 10, 20, 30 and 60 times to the floating points shown in FIG. It is the figure which showed the mesh set to the pattern image, (a) shows the mesh of Z direction view, and (b) has shown the mesh of diagonal direction view in any of FIGS. As shown in FIGS. 10 (b) to 14 (b), when the number of times of applying the expressions (7) and (8) is increased for each vertex, the value of the height component of each floating point is increased. As a whole, the height component of each floating point is almost zero when the mesh obtained when the calculation of Expression (5) shown in FIG. I understand. As a result, as shown in FIGS. 10A to 14A, overlapping of polygons constituting the mesh is eliminated as the number of times of applying the expressions (7) and (8) is increased. You can see that.
高さを導入せずとも画像平面状において、長さ制約を満たすように、初期メッシュを変形させれば、ある程度、変形前のメッシュの頂点同士の位置関係をバランスよく保持した状態で顔の輪郭内部にメッシュを設定することも可能である。 If the initial mesh is deformed so as to satisfy the length constraint in the image plane without introducing the height, the contour of the face is maintained in a state where the positional relationship between the vertices of the mesh before the deformation is maintained in a balanced manner. It is also possible to set a mesh inside.
しかしながら、高さを導入しない画像平面状において長さ制約のみを加味して、初期メッシュを変形させた場合、メッシュを構成するポリゴンの重なりが生じる可能性が高くなる。かかるポリゴンの重なりは、初期メッシュ全体のサイズよりも小さな顔の輪郭に初期メッシュを適用した場合に発生する。これは、実際の布を本来の大きさより小さく縮め、床に押し付けた場合に生じる皺に例えることができる。 However, if the initial mesh is deformed in consideration of only the length constraint in an image plane shape that does not introduce height, there is a high possibility that polygons constituting the mesh will overlap. Such overlapping of polygons occurs when the initial mesh is applied to a face outline smaller than the size of the entire initial mesh. This can be compared to a wrinkle that occurs when an actual cloth is shrunk smaller than the original size and pressed against the floor.
図15は、メッシュを構成するポリゴンの重なりが生じている画像に対して、化粧要素画像を合成したときの一例を示す画面図である。図15の場合、口紅の輪郭K1が不自然な形状となっており、唇からはみ出た口紅K2が表示されていることが分かる。このようにメッシュを構成するポリゴンの重なりが生じると、顔の画像に対して化粧要素画像を違和感なく自然な状態で合成することができなくなる。 FIG. 15 is a screen diagram illustrating an example when a makeup element image is combined with an image in which polygons constituting a mesh are overlapped. In the case of FIG. 15, it can be seen that the outline K1 of the lipstick has an unnatural shape, and the lipstick K2 protruding from the lips is displayed. If the polygons constituting the mesh overlap in this way, the makeup element image cannot be synthesized with the face image in a natural state without a sense of incongruity.
そこで、メッシュ設定部116は、各頂点に高さ成分を与え、式(7)及び式(8)を用いて3次元的に浮動点の位置を算出することにより、使用メイクパターン画像に対し、メッシュが重なって設定されることを防止している。
Therefore, the
図16は、図6に示す使用メイクパターン画像の顔の輪郭内部に設定されたメッシュを示した図である。図16に示すように、メッシュを構成するポリゴンの重なりが発生することなく、顔の輪郭(特徴エッジE1)内部にバランスよくメッシュが設定されていることが分かる。また、特徴エッジE1〜E4上のメッシュの頂点が位置していることが分かる。 FIG. 16 is a diagram showing a mesh set within the face contour of the used makeup pattern image shown in FIG. As shown in FIG. 16, it can be seen that the mesh is set in a well-balanced manner inside the face outline (feature edge E1) without overlapping of the polygons constituting the mesh. Moreover, it turns out that the vertex of the mesh on the feature edges E1-E4 is located.
図3に示すステップS7において、動画像取得部111は、人間の顔の動画像を取得する。ステップS8において、フレーム画像抽出部112は、動画像取得部111によって取得された動画像から1枚のフレーム画像を抽出する。図4に示すステップS9において、特徴量抽出部114は、フレーム画像から特徴量を抽出する。この場合、図6に示す使用メイクパターン画像から抽出された特徴量E1〜E4、TP、HC、BC、SCと同じような特徴量がフレーム画像から抽出される。なお、フレーム画像抽出部112は、動画像を構成する各フレーム画像を順次抽出してもよいし、所定のコマ間隔でフレーム画像を順次抽出していってもよい。
In step S7 illustrated in FIG. 3, the moving
ステップS10において、メッシュ設定部116は、ステップS6で示した手法と同じ手法で初期メッシュを変形させることにより特徴量が抽出されたフレーム画像にメッシュを設定する。
In step S10, the
図17は、フレーム画像の顔の輪郭内部に設定されたメッシュを示した図である。図17に示すフレーム画像は、図6に示す使用メイクパターン画像に対して多少顔の表情が変化していることが分かる。そして、このように顔の表情が変化した場合でも、メッシュを構成するポリゴンの重なりが生じないように顔の輪郭内部にバランス良くメッシュが設定されていることが分かる。また、特徴エッジE1〜E4上にメッシュの頂点が位置していることが分かる。 FIG. 17 is a diagram showing a mesh set inside the face outline of the frame image. In the frame image shown in FIG. 17, it can be seen that the facial expression is slightly changed from the used makeup pattern image shown in FIG. It can be seen that even when the facial expression changes in this way, the mesh is set in a well-balanced manner inside the face contour so that the polygons constituting the mesh do not overlap. Further, it can be seen that the vertexes of the mesh are located on the feature edges E1 to E4.
ステップS11において、座標計算部118は、使用メイクパターン画像に設定されたメッシュ及びフレーム画像に設定されたメッシュの対応する頂点同士の位置の差分を算出し、座標変換テーブルを作成し、座標変換テーブル記憶部119に記憶させる。この座標変換テーブルはフレーム画像毎に更新される。
In step S11, the coordinate
ステップS12において、化粧要素画像変形部120は、座標変換テーブルを参照し、正規化透明度レイヤー画像中の化粧要素画像を変形させる。図18は、化粧要素画像が、化粧要素画像変形部120によって変形される様子を示した図であり、(a)は変形前を示し、(b)は変形後を示している。図18(a)に示す化粧要素画像G1が描画されたメッシュを構成するポリゴンPR1が、(b)に示すポリゴンPR2に変形したとすると、化粧要素画像変形部120は、メッシュを構成するポリゴンPR1の変形量に応じて、ポリゴンPR1内に描画された化粧要素画像G1をポリゴンPR2上に写し、化粧要素画像G1を化粧要素画像G2に変形させる。
In step S12, the makeup element
図4に示すステップS13において、色変換処理部109は、ステップS8で抽出されたフレーム画像と、色レイヤー作成部106によって作成された色レイヤーとに対し、式(3)〜式(5)に示す色変換処理を施し、n階層の色変換レイヤー画像を作成し、色変換レイヤー画像記憶部110に記憶させる。
In step S13 illustrated in FIG. 4, the color
ステップS14において、画像合成部121は、ステップS8で抽出されたフレーム画像と、色合成部により作成された色変換レイヤー画像とを式(6)を用いて合成する。
In step S14, the
次に、透明度正規化部107が透明度αi及び透明度1−αiを正規化する理由について説明する。式(9)〜式(11)は、αブレンディングの一般的な数式を示している。
Next, the reason why the
但し、Crベクトルは合成後の各画素のR,G,B値を示し、Cfベクトルは背景画像の各画素のR,G,B値を示し、Ciベクトルはi階層目のレイヤー画像の各画素のR,G,B値を示している。また、式(9)は、1枚のレイヤー画像を背景画像に合成する場合を示し、式(10)は2枚のレイヤー画像を背景画像に合成する場合を示し、式(11)はn枚のレイヤー画像を背景画像に合成する場合を示している。式(11)に示すようにレイヤーの順番を入れ替えると、式(11)の第2項が入れ替えに応じて異なる値となってしまうため、Crベクトルの値がレイヤーの順番に依存してしまう。そこで、本化粧シミュレーション装置は、レイヤーの順序を入れ替えても、同一のCrベクトルの値を得るために、透明度レイヤー画像の各画素の透明度αi及び背景画像の各画素の透明度1−αiを式(1)及び式(2)を用いて正規化してβi及びγとし、βiをαブレンディングにおけるレイヤー画像のα値とし、γをαブレンディングにおける背景画像のα値として用いることにより、Crベクトルの値がレイヤーの順番に依存することを防止している。 However, Cr vector represents R of each pixel after synthesized, G, B values, C f vector represents the R, G, B values of each pixel of the background image, the C i vectors i tier layer image The R, G, and B values of each pixel are shown. Expression (9) indicates a case where one layer image is combined with a background image, Expression (10) indicates a case where two layer images are combined with a background image, and Expression (11) indicates n sheets. This shows a case where the layer image is combined with the background image. When changing the order of layers as shown in equation (11), the second term of Formula (11) becomes a value different depending on the interchange, the value of C r vector will depend on the layer order . Therefore, in order to obtain the same value of the Cr vector even if the order of the layers is changed, the present makeup simulation apparatus uses the transparency α i of each pixel of the transparency layer image and the transparency 1-α i of each pixel of the background image. Is normalized using equations (1) and (2) to be β i and γ, β i is the α value of the layer image in α blending, and γ is used as the α value of the background image in α blending, the value of C r vector is prevented from being dependent on the layer order.
ステップS15において、表示部122は、合成された画像を表示する。図19は、画像合成部121による合成の結果、得られた画像を示している。図19に示すように、図6に示す使用メイクパターン画像に含まれる化粧要素画像ME1〜ME4が、図17に示すフレーム画像に適合するように変形され、フレーム画像上に違和感のない自然な状態で表示されていることが分かる。
In step S15, the
なお、図6及び図17に示す化粧要素画像ME1〜ME4は、一例にすぎず、他の化粧要素画像を含んでも良いし、いずれかの化粧要素画像を省略してもよい。 Note that makeup element images ME1 to ME4 shown in FIGS. 6 and 17 are merely examples, and may include other makeup element images, or any makeup element image may be omitted.
図4に示すステップS16において、フレーム画像抽出部112は、全てのフレーム画像の抽出が終了したか否かを判定し、全てのフレーム画像の抽出が終了している場合(ステップS16でYES)、処理を終了する。一方、ステップS16において、全てのフレーム画像の抽出が終了していない場合(ステップS16でNO)、ステップS17に進み、次のフレーム画像を抽出し、ステップS9に戻る。
In step S16 shown in FIG. 4, the frame
(メイクパターン作成モード)
次に、メイクパターン作成モードについて説明する。図20は、メイクパターン作成モードにおける化粧シミュレーション装置の機能を示すブロック図である。
(Make pattern creation mode)
Next, the makeup pattern creation mode will be described. FIG. 20 is a block diagram illustrating functions of the makeup simulation apparatus in the makeup pattern creation mode.
静止画像取得部201は、静止画カメラ11から構成され、メイクパターン画像のモデルとなる人間の顔の静止画像を取得する。
The still
操作部202は、入力装置1から構成され、ユーザからの種々の操作指令を入力するために用いられる。
The
レイヤー画像作成部203は、ユーザにより顔の静止画像上に1種類の化粧要素画像が描画される毎にその化粧要素画像を含む1枚のレイヤー画像を作成する。レイヤー画像は、上述したように、R,G,B値からなる色成分と各画素の透明度を示す透明度成分とから構成される。透明度は、静止画像を背景画像としたときの各レイヤー画像の背景画像に対する透明度を示す。
The layer
透明度レイヤー画像作成部204は、透明度レイヤー画像作成部105と同様に、レイヤー画像の透明度成分を基に、レイヤー画像の各階層に対応する透明度レイヤー画像を作成する。
Similar to the transparency layer
色レイヤー作成部205は、色レイヤー作成部106と同様に、レイヤー画像の色成分を基に、レイヤー画像の各階層に対応する色レイヤーを作成する。
Similar to the color
透明度正規化部206は、透明度正規化部107と同様に、透明度レイヤー画像の各画素に対し、上記式(1)の演算を施し、正規化透明度レイヤー画像を作成するとともに、背景画像である顔の静止画像の各画素に対し式(2)の演算を施し、背景画像の各画素の透明度を正規化する。
Similar to the
正規化透明度レイヤー画像記憶部207は、RAM4から構成され、正規化透明度レイヤー画像及び正規化された背景画像の各画素の透明度を記憶する。
The normalized transparency layer
色変換処理部208は、色変換処理部109と同様に、色レイヤーのR,G,B値及び静止画像の各画素のR,G,B値をそれぞれHSV表色系に変換した後、上記式(3)〜式(5)に示す色変換処理を実行し、得られた画像をさらに、R,G,B表色系に変換することにより、レイヤー画像の各階層に対応する色変換レイヤー画像作成する。
Similar to the color
色変換レイヤー画像記憶部209は、RAM4から構成され、色変換処理部208によって作成された色変換レイヤー画像を記憶する。
The color conversion layer
画像合成部210は、画像合成部121と同様に、正規化透明度レイヤー画像の各画素の透明度を色変換レイヤー画像の各画素のα値とし、背景画像の各画素の透明度を顔の静止画像のα値とし、色変換レイヤー画像と顔の静止画像とをαブレンディングによって合成する。
Similar to the
表示部211は、表示装置6から構成され、画像合成部210によって合成された画像を表示する。
The
メイクパターン画像作成部212は、レイヤー画像作成部203によって作成されたレイヤー画像と静止画像取得部201によって取得された静止画像とを、メイクパターン画像として、メイクパターン画像記憶部101に記憶させる。
The makeup pattern
次に、メイクパターン作成モードにおける化粧シミュレーション装置の動作について、図21に示すフローチャートを用いて説明する。まず、ステップS101において、静止画像取得部201は、メイクパターン画像のモデルとなる人間の顔の静止画像を取得する。この場合、例えば、図6に示すような人間の顔の静止画像が取得される。
Next, the operation of the makeup simulation apparatus in the makeup pattern creation mode will be described using the flowchart shown in FIG. First, in step S101, the still
ステップS102において、レイヤー画像作成部203は、操作部202を介して、ユーザによる化粧要素画像の描画入力を受け付け、ステップS103において、1種類の化粧要素画像の描画入力を受け付ける毎に、各化粧要素画像を含むレイヤー画像を作成する。
In step S102, the layer
この場合、レイヤー画像作成部203は、静止画像取得部201によって取得された顔の静止画像を表示部211に表示させ、表示された静止画像上に化粧要素画像をペンタブレットを用いて描画させることにより、化粧要素画像の描画入力を受け付ける。描画された化粧要素画像は、表示部211に表示される。また、1種類の化粧要素画像の入力が終了したか否かの判断はユーザの指示によって行なわれる。
In this case, the layer
この段階において、表示部211には、透明度成分と、単色の色成分とによって表された化粧要素画像が、静止画像上に単に重ねて合わせて表示されているだけの画像が表示されており、化粧要素画像が人の顔に対して、違和感のある不自然な状態で表示されている。
At this stage, the
ステップS104において、ユーザによりステップS103で作成されたレイヤー画像を静止画像に合成する指示が入力されると(ステップS104でYES)、ステップS106に進む。一方、ステップS104において、レイヤー画像を静止画像に合成する指示が入力されない場合は(ステップS104でNO)、ステップS105に進む。 In step S104, when the user inputs an instruction to combine the layer image created in step S103 with a still image (YES in step S104), the process proceeds to step S106. On the other hand, if an instruction to synthesize a layer image with a still image is not input in step S104 (NO in step S104), the process proceeds to step S105.
ステップS105において、ユーザによりメイクパターン作成モードの終了の指示がされた場合(ステップS105でYES)、処理を終了する。一方、ステップS105において、ユーザによりメイクパターン作成モードの終了の指示がされなかった場合(ステップS105でNO)、ステップS102に戻る。 In step S105, if the user gives an instruction to end the makeup pattern creation mode (YES in step S105), the process ends. On the other hand, if the user has not instructed the end of the makeup pattern creation mode in step S105 (NO in step S105), the process returns to step S102.
ステップS106において、透明度レイヤー画像作成部204は、レイヤー画像の透明度成分を基に、レイヤー画像の各階層に対応する透明度レイヤー画像を作成する。ステップS107において、色レイヤー作成部205は、レイヤー画像の色成分を基に、レイヤー画像の各階層に対応する色レイヤーを作成する。
In step S106, the transparency layer
ステップS108において、透明度正規化部206は、透明度レイヤー画像の各画素の透明度を正規化し、正規化透明度レイヤー画像を作成し、正規化透明度レイヤー画像記憶部207に記憶させるとともに、静止画像の各画素の透明度を正規化し、正規化透明度レイヤー画像記憶部207に記憶させる。
In step S108, the
ステップS109において、色変換処理部208は、色レイヤーと静止画像とを基に、レイヤー画像の各階層に対応する色変換レイヤー画像を作成し、色変換レイヤー画像記憶部209に記憶させる。
In step S109, the color
ステップS110において、画像合成部210は、静止画像と、色変換レイヤー画像とをαブレンディングにより合成させる。ステップS111において、表示部211は、画像合成部210によって合成された画像を表示する。この場合、ステップS102の段階で、静止画像上に違和感なく不自然な状態で表示されていた化粧要素画像が違和感のない自然な状態で静止画像上に表示されることとなる。
In step S110, the
ステップS112において、ユーザによりメイクパターン画像の作成指示がされると(ステップS112でYES)、ステップS113に進み、メイクパターン画像作成部212は、レイヤー画像作成部203によって作成されたレイヤー画像と静止画像取得部201によって取得された静止画像とを合成してメイクパターン画像を作成し、メイクパターン画像記憶部101に記憶させ、メイクパターン作成モードを終了する。
In step S112, when the user gives an instruction to create a makeup pattern image (YES in step S112), the process proceeds to step S113, where makeup pattern
一方、ステップS112において、ユーザによりメイクパターン画像の作成指示がされない場合(ステップS113でNO)、ステップS102に戻る。 On the other hand, if the user does not instruct the creation of a makeup pattern image in step S112 (NO in step S113), the process returns to step S102.
このように、本化粧シミュレーション装置によれば、ペンタブレット等を操作することによりユーザにより予め作成されたメイクパターン画像に含まれる化粧要素画像をフレーム画像に適合するように変形させ、フレーム画像上に表示させているため、ユーザは、ペンタブレット等の操作装置を操作するというような簡略化された操作を行なうだけで、実際に化粧を塗布したような高品質な化粧シミュレーション画像を高速に得ることができる。また、レイヤー画像に基づいて、シミュレーションを実行しているため、メイクパターン画像から一部の化粧要素画像を削除する、又は、一部の化粧要素画像の色を変更するというような設定を容易に行なうことができる。 As described above, according to the present makeup simulation apparatus, the makeup element image included in the makeup pattern image created in advance by the user by operating a pen tablet or the like is deformed to fit the frame image, and is displayed on the frame image. Because it is displayed, the user can quickly obtain a high-quality makeup simulation image as if the makeup was actually applied by simply performing a simplified operation such as operating an operation device such as a pen tablet. Can do. In addition, since the simulation is executed based on the layer image, settings such as deleting some makeup element images from the makeup pattern image or changing the color of some makeup element images are easy. Can be done.
さらに、透明度レイヤー画像の各画素の透明度及び背景画像の各画素の透明度を正規化しているため、レイヤーの順序に依存しないαブレンディングが可能となる。さらに、初期メッシュの長さ制約を満たし、かつ、メッシュを構成するポリゴンの重なりが生じないように、メイクパターン画像及びフレーム画像の顔の輪郭内部にメッシュを設定しているため、化粧要素画像をフレーム画像上により違和感なく自然な状態で表示することができる。色変換レイヤー画像をαブレンディングの背景画像として用いているため、フレーム画像または静止画像に対してより違和感なく自然な状態で化粧要素画像を表示することができる。 Furthermore, since the transparency of each pixel of the transparency layer image and the transparency of each pixel of the background image are normalized, α blending independent of the layer order is possible. Furthermore, since the mesh is set inside the face contour of the makeup pattern image and the frame image so that the length restriction of the initial mesh is satisfied and the polygons constituting the mesh do not overlap, the makeup element image is displayed. The frame image can be displayed in a natural state without a sense of incongruity. Since the color conversion layer image is used as the background image of the α blending, the makeup element image can be displayed in a natural state without a sense of incongruity with respect to the frame image or the still image.
なお、本発明は、以下の態様を採用してもよい。 The present invention may adopt the following aspects.
(1)上記実施の形態では、化粧シミュレーションプログラムをコンピュータにインストールすることにより、コンピュータを化粧シミュレーション装置として機能させていたが、これに限定されず、専用のハードウェア回路を用いて、化粧シミュレーション装置を構成してもよい。 (1) In the above embodiment, the makeup simulation program is installed in the computer so that the computer functions as the makeup simulation device. However, the present invention is not limited to this, and the makeup simulation device uses a dedicated hardware circuit. May be configured.
(2)上記実施の形態では、レイヤー画像は、1種類の化粧要素画像を含むものとしたが、これに限定されず、色成分が一致する複数の化粧要素画像を1枚のレイヤー画像中に含ませても良い。 (2) In the above embodiment, the layer image includes one type of makeup element image. However, the present invention is not limited to this, and a plurality of makeup element images having the same color component are included in one layer image. It may be included.
(3)上記実施の形態では、静止画像を静止画カメラ11で取得していたが、これに限定されず、動画カメラにより撮影された動画像の1枚のフレーム画像を静止画像として取得してもよい。これにより、静止画カメラ11が不要となる。
(3) In the above embodiment, the still image is acquired by the
(4)上記実施の形態では、化粧シミュレーションモードは、顔画像を含む背景画像とレイヤー画像とからなるメイクパターン画像を基に、化粧シミュレーションを実行していたが、これに限定されず、メイクパターン作成モードにおいて、透明度正規化部206で作成された正規化透明度レイヤー画像と、色変換処理部208で作成された色変換レイヤー画像と、顔画像を含む背景画像とからなる画像をメイクパターン画像として、化粧シミュレーションを実行してもよい。この場合、予め、色変換レイヤー画像と、正規化透明度レイヤー画像とが作成されているため、透明度レイヤー画像作成部105、透明度正規化部107、色レイヤー作成部106及び色変換処理部109は不要となる。ただし、メイクパターン画像記憶部101及び使用メイクパターン画像記憶部104の使用メモリの節約という観点からは、顔画像を含む背景画像と、レイヤー画像とをメイクパターン画像とすることが好ましい。
(4) In the above-described embodiment, the makeup simulation mode executes the makeup simulation based on the makeup pattern image including the background image including the face image and the layer image. In the creation mode, an image composed of a normalized transparency layer image created by the
101 メイクパターン画像記憶部
102 操作部
103 初期設定部
104 使用メイクパターン画像記憶部
105 透明度レイヤー画像作成部
106 色レイヤー作成部
107 透明度正規化部
108 正規化透明度画像レイヤー記憶部
109 色変換処理部
110 色変換レイヤー画像記憶部
111 動画像取得部
112 フレーム画像抽出部
113 特徴量抽出部
114 特徴量抽出部
115 初期メッシュ記憶部
116 メッシュ設定部
117 メッシュ設定部
118 座標計算部
119 座標変換テーブル記憶部
120 化粧要素画像変形部
121 画像合成部
122 表示部
201 静止画像取得部
202 操作部
203 レイヤー画像作成部
204 透明度レイヤー画像作成部
205 色レイヤー作成部
206 透明度正規化部
207 正規化透明度レイヤー画像記憶部
208 色変換処理部
209 色変換レイヤー画像記憶部
210 画像合成部
211 表示部
212 メイクパターン画像作成部
101 makeup pattern
Claims (8)
前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、
シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、
前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、
前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、
前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、
前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段とを備えることを特徴とする化粧シミュレーション装置。 A layer image composed of n layers (n is a positive integer) that is created in advance based on a drawing command from the user input via the operation device and includes at least one makeup element image composed of the same color in each layer; Reference image acquisition means for acquiring a reference image composed of a background image including a face image;
First image creating means for creating a first image based on the transparency of each pixel of the layer image;
Simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated;
Mesh setting means for setting a mesh inside the contour of the face image included in each of the reference image and the simulation target image;
A difference between positions of corresponding vertices of meshes set in each of the reference image and the simulation target image is calculated, and a makeup element image included in the first image is calculated based on the calculated difference. Image deformation means for deforming the image to match the face image in the target image;
A second image creating means for performing a color conversion process on the simulation target image using a color component of each layer image and creating a second image corresponding to each layer of the layer image;
Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. And a makeup simulation apparatus.
前記画像合成手段は、αブレンディングにより、前記シミュレーション対象画像及び前記2の画像を合成することを特徴とする請求項1記載の化粧シミュレーション装置。 The first image creating means creates a transparency layer image based on the transparency, normalizes the transparency of each pixel of the created transparency layer image, and sets the obtained image as the first image,
2. The makeup simulation apparatus according to claim 1, wherein the image synthesizing unit synthesizes the simulation target image and the second image by α blending.
Hr=Hc ・・・式(A)
Sr=0.8×Sf+0.2×Sc ・・・式(B)
Vr=0.8×Vf+0.2×Vc ・・・式(C)
但し、Hc、Sc、Vcはレイヤー画像の色成分のHSV値を示し、Sf、Vfはシミュレーション対象画像の各画素のHSV値を示し、Hr、Sr、Vrは第2の合成対象画像の各画素のHSV値を示している。 The second image creating means converts the color component of each layer image and each of the simulation target images from the RGB color system to the HSV color system, and the converted two colors are represented by equations (A) to (C 3. The makeup simulation apparatus according to claim 2, wherein the second image is created by converting the obtained image from the HSV color system to the RGB color system, and executing the color conversion process shown in FIG.
H r = H c Formula (A)
S r = 0.8 × S f + 0.2 × S c Formula (B)
V r = 0.8 × V f + 0.2 × V c Formula (C)
However, H c , S c , V c indicate HSV values of the color components of the layer image, S f , V f indicate HSV values of the respective pixels of the simulation target image, and H r , S r , V r are the first values. 2 shows the HSV value of each pixel of the composition target image 2.
前記初期メッシュの各頂点は、顔部品の輪郭上に位置する特徴頂点と、その他の浮動点とから構成され、
前記メッシュ設定手段は、前記シミュレーション対象画像及び前記基準画像の各々から、前記顔部品の輪郭を抽出し、前記特徴頂点を、抽出した顔部品の輪郭上に移動させるとともに、前記初期メッシュの各頂点間の距離が保持されるように、前記浮動点を移動させ、前記シミュレーション対象画像及び前記基準画像の各々に、メッシュを設定することを特徴とする請求項1〜3のいずれかに記載の化粧シミュレーション装置。 An initial mesh storage means for storing an initial mesh in which a mesh is set inside the face contour;
Each vertex of the initial mesh is composed of feature vertices located on the contour of the facial part and other floating points,
The mesh setting means extracts the outline of the facial part from each of the simulation target image and the reference image, moves the feature vertex on the extracted facial part outline, and each vertex of the initial mesh The makeup according to any one of claims 1 to 3, wherein the floating point is moved so that a distance between the meshes is maintained, and a mesh is set for each of the simulation target image and the reference image. Simulation device.
コンピュータが、前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成ステップと、
コンピュータが、シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得ステップと、
コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定ステップと、
コンピュータが、前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形ステップと、
コンピュータが、前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成ステップと、
コンピュータが、前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成ステップとを備えることを特徴とする化粧シミュレーション方法。 A layer composed of n layers (n is a positive integer) including at least one makeup element image having the same color in each layer, which is created in advance by a computer based on a drawing command from the user input via the operation device A reference image acquisition step of acquiring a reference image composed of an image and a background image including a face image;
A first image creating step in which a computer creates a first image based on the transparency of each pixel of the layer image;
A simulation target image acquisition step in which a computer acquires a simulation target image including a face image of a person to be simulated;
A mesh setting step in which a computer sets a mesh inside an outline of a face image included in each of the reference image and the simulation target image;
The computer calculates a difference between positions of corresponding vertices of the mesh set in each of the reference image and the simulation target image, and based on the calculated difference, a makeup element image included in the first image is calculated. , An image deformation step for deforming to match the face image in the simulation target image;
A second image creation step in which the computer executes a color conversion process on the simulation target image using a color component of each layer image, and creates a second image corresponding to each layer of the layer image;
The computer determines the transparency of each of the second image and the simulation target image based on the first image, and uses the determined transparency to synthesize the simulation target image and the second image. And a makeup simulation method comprising:
前記レイヤー画像の各画素の透明度を基に、第1の画像を作成する第1の画像作成手段と、
シミュレーション対象となる人物の顔画像を含むシミュレーション対象画像を取得するシミュレーション対象画像取得手段と、
前記基準画像及び前記シミュレーション対象画像の各々に含まれる顔画像の輪郭内部にメッシュを設定するメッシュ設定手段と、
前記基準画像及び前記シミュレーション対象画像の各々に設定されたメッシュの対応する頂点の位置の差分を算出し、算出した差分に基づいて、前記第1の画像中に含まれる化粧要素画像を、前記シミュレーション対象画像中の顔画像に適合するように変形させる画像変形手段と、
前記シミュレーション対象画像を、各レイヤー画像の色成分を用いて色変換処理を実行し、前記レイヤー画像の各階層に対応する第2の画像を作成する第2の画像作成手段と、
前記第1の画像を基に、前記第2の画像及び前記シミュレーション対象画像の各々の透明度を決定し、決定した透明度を用いて、前記シミュレーション対象画像と前記第2の画像とを合成する画像合成手段としてコンピュータを機能させることを特徴とする化粧シミュレーションプログラム。 A layer image composed of n layers (n is a positive integer) that is created in advance based on a drawing command from the user input via the operation device and includes at least one makeup element image composed of the same color in each layer; Reference image acquisition means for acquiring a reference image composed of a background image including a face image;
First image creating means for creating a first image based on the transparency of each pixel of the layer image;
Simulation target image acquisition means for acquiring a simulation target image including a face image of a person to be simulated;
Mesh setting means for setting a mesh inside the contour of the face image included in each of the reference image and the simulation target image;
A difference between positions of corresponding vertices of meshes set in each of the reference image and the simulation target image is calculated, and a makeup element image included in the first image is calculated based on the calculated difference. Image deformation means for deforming the image to match the face image in the target image;
A second image creating means for performing a color conversion process on the simulation target image using a color component of each layer image and creating a second image corresponding to each layer of the layer image;
Based on the first image, the transparency of each of the second image and the simulation target image is determined, and the simulation target image and the second image are combined using the determined transparency. A makeup simulation program characterized by causing a computer to function as means.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004023947A JP4404650B2 (en) | 2004-01-30 | 2004-01-30 | Makeup simulation device, makeup simulation method, makeup simulation program |
US10/583,619 US20070019882A1 (en) | 2004-01-30 | 2004-10-29 | Makeup simulation program, makeup simulation device, and makeup simulation method |
EP04793233A EP1710746A1 (en) | 2004-01-30 | 2004-10-29 | Makeup simulation program, makeup simulation device, and makeup simulation method |
CN 200480041041 CN1906631A (en) | 2004-01-30 | 2004-10-29 | Makeup simulation program, makeup simulation device, and makeup simulation method |
PCT/JP2004/016125 WO2005073909A1 (en) | 2004-01-30 | 2004-10-29 | Makeup simulation program, makeup simulation device, and makeup simulation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004023947A JP4404650B2 (en) | 2004-01-30 | 2004-01-30 | Makeup simulation device, makeup simulation method, makeup simulation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005216131A true JP2005216131A (en) | 2005-08-11 |
JP4404650B2 JP4404650B2 (en) | 2010-01-27 |
Family
ID=34906800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004023947A Expired - Fee Related JP4404650B2 (en) | 2004-01-30 | 2004-01-30 | Makeup simulation device, makeup simulation method, makeup simulation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4404650B2 (en) |
CN (1) | CN1906631A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007097950A (en) * | 2005-10-06 | 2007-04-19 | Shiseido Co Ltd | Lip makeup method |
JP2007209557A (en) * | 2006-02-09 | 2007-08-23 | Shiseido Co Ltd | Drawing method of eyebrow and eyebrow scale used for the same |
JP2007293649A (en) * | 2006-04-26 | 2007-11-08 | Megachips Lsi Solutions Inc | Makeup assist device and eyebrow drawing assist device |
WO2009093617A1 (en) * | 2008-01-22 | 2009-07-30 | Shiseido Company, Ltd. | Makeup method, makeup simulation device, and makeup simulation program |
JP2011259243A (en) * | 2010-06-09 | 2011-12-22 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system, and image processing method |
JP2012088926A (en) * | 2010-10-19 | 2012-05-10 | Canon Inc | Image processor and image processing method |
JP2013101633A (en) * | 2006-01-17 | 2013-05-23 | Shiseido Co Ltd | Makeup simulation system |
US8698747B1 (en) | 2009-10-12 | 2014-04-15 | Mattel, Inc. | Hand-activated controller |
WO2014171142A1 (en) * | 2013-04-17 | 2014-10-23 | パナソニックIpマネジメント株式会社 | Image processing method and image processing device |
WO2015029371A1 (en) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | Makeup assistance device, makeup assistance method, and makeup assistance program |
WO2015029372A1 (en) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program |
CN105631065A (en) * | 2014-10-31 | 2016-06-01 | 北京临近空间飞行器系统工程研究所 | Background grid based moving grid method |
WO2017013925A1 (en) * | 2015-07-21 | 2017-01-26 | ソニー株式会社 | Information processing device, information processing method, and program |
KR101752701B1 (en) * | 2012-12-14 | 2017-06-30 | 한국전자통신연구원 | Method for recreating makeup on image |
JP2019037741A (en) * | 2017-08-24 | 2019-03-14 | 麗寶大數據股▲フン▼有限公司 | Body information analysis apparatus and eye shadow analysis method thereof |
JP2019037742A (en) * | 2017-08-24 | 2019-03-14 | 麗寶大數據股▲フン▼有限公司 | Body information analysis apparatus and lip-makeup analysis method thereof |
CN112308944A (en) * | 2019-07-29 | 2021-02-02 | 丽宝大数据股份有限公司 | Augmented reality display method of simulated lip makeup |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102012620B (en) * | 2010-10-28 | 2013-06-05 | 鸿富锦精密工业(深圳)有限公司 | Electronic cosmetic box |
CN102682420A (en) * | 2012-03-31 | 2012-09-19 | 北京百舜华年文化传播有限公司 | Method and device for converting real character image to cartoon-style image |
CN104599297B (en) * | 2013-10-31 | 2018-07-10 | 厦门美图网科技有限公司 | A kind of image processing method for going up blush automatically to face |
JP6348791B2 (en) * | 2014-07-16 | 2018-06-27 | クラリオン株式会社 | Display control apparatus and display control method |
CN109299636A (en) * | 2017-07-25 | 2019-02-01 | 丽宝大数据股份有限公司 | The biological information analytical equipment in signable blush region |
CN112949495A (en) * | 2021-03-04 | 2021-06-11 | 安徽师范大学 | Intelligent identification system based on big data |
-
2004
- 2004-01-30 JP JP2004023947A patent/JP4404650B2/en not_active Expired - Fee Related
- 2004-10-29 CN CN 200480041041 patent/CN1906631A/en active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007097950A (en) * | 2005-10-06 | 2007-04-19 | Shiseido Co Ltd | Lip makeup method |
JP2013101633A (en) * | 2006-01-17 | 2013-05-23 | Shiseido Co Ltd | Makeup simulation system |
JP2007209557A (en) * | 2006-02-09 | 2007-08-23 | Shiseido Co Ltd | Drawing method of eyebrow and eyebrow scale used for the same |
JP2007293649A (en) * | 2006-04-26 | 2007-11-08 | Megachips Lsi Solutions Inc | Makeup assist device and eyebrow drawing assist device |
WO2009093617A1 (en) * | 2008-01-22 | 2009-07-30 | Shiseido Company, Ltd. | Makeup method, makeup simulation device, and makeup simulation program |
JP2009199587A (en) * | 2008-01-22 | 2009-09-03 | Shiseido Co Ltd | Makeup method, makeup simulation device, and makeup simulation program |
US8698747B1 (en) | 2009-10-12 | 2014-04-15 | Mattel, Inc. | Hand-activated controller |
US9101832B2 (en) | 2010-06-09 | 2015-08-11 | Nintendo Co., Ltd. | Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method |
JP2011259243A (en) * | 2010-06-09 | 2011-12-22 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system, and image processing method |
JP2012088926A (en) * | 2010-10-19 | 2012-05-10 | Canon Inc | Image processor and image processing method |
KR101752701B1 (en) * | 2012-12-14 | 2017-06-30 | 한국전자통신연구원 | Method for recreating makeup on image |
JPWO2014171142A1 (en) * | 2013-04-17 | 2017-02-16 | パナソニックIpマネジメント株式会社 | Image processing method and image processing apparatus |
US9968176B2 (en) | 2013-04-17 | 2018-05-15 | Panasonic Intellectual Property Management Co., Ltd. | Image processing method and image processing device |
WO2014171142A1 (en) * | 2013-04-17 | 2014-10-23 | パナソニックIpマネジメント株式会社 | Image processing method and image processing device |
JPWO2015029372A1 (en) * | 2013-08-30 | 2017-03-02 | パナソニックIpマネジメント株式会社 | Makeup support device, makeup support system, makeup support method, and makeup support program |
WO2015029371A1 (en) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | Makeup assistance device, makeup assistance method, and makeup assistance program |
WO2015029372A1 (en) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program |
CN105631065A (en) * | 2014-10-31 | 2016-06-01 | 北京临近空间飞行器系统工程研究所 | Background grid based moving grid method |
CN105631065B (en) * | 2014-10-31 | 2019-05-10 | 北京临近空间飞行器系统工程研究所 | A kind of Dynamic Mesh based on background grid |
WO2017013925A1 (en) * | 2015-07-21 | 2017-01-26 | ソニー株式会社 | Information processing device, information processing method, and program |
JPWO2017013925A1 (en) * | 2015-07-21 | 2018-05-10 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2019037741A (en) * | 2017-08-24 | 2019-03-14 | 麗寶大數據股▲フン▼有限公司 | Body information analysis apparatus and eye shadow analysis method thereof |
JP2019037742A (en) * | 2017-08-24 | 2019-03-14 | 麗寶大數據股▲フン▼有限公司 | Body information analysis apparatus and lip-makeup analysis method thereof |
CN112308944A (en) * | 2019-07-29 | 2021-02-02 | 丽宝大数据股份有限公司 | Augmented reality display method of simulated lip makeup |
Also Published As
Publication number | Publication date |
---|---|
CN1906631A (en) | 2007-01-31 |
JP4404650B2 (en) | 2010-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4404650B2 (en) | Makeup simulation device, makeup simulation method, makeup simulation program | |
WO2005073909A1 (en) | Makeup simulation program, makeup simulation device, and makeup simulation method | |
JP2603445B2 (en) | Hair image adaptation method and computer system | |
US8139068B2 (en) | Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh | |
JP3912834B2 (en) | Face image correction method, makeup simulation method, makeup method, makeup support apparatus, and foundation transfer film | |
WO2018221092A1 (en) | Image processing device, image processing system, image processing method, and program | |
JP4753025B2 (en) | Makeup simulation method | |
US6828972B2 (en) | System and method for expression mapping | |
US20050180657A1 (en) | System and method for image-based surface detail transfer | |
US20100189357A1 (en) | Method and device for the virtual simulation of a sequence of video images | |
JPH1011609A (en) | Device and method for generating animation character | |
JP2011107877A (en) | Image processing apparatus, image processing method, and program | |
WO2005024728A1 (en) | Form changing device, object action encoding device, and object action decoding device | |
JP2011048586A (en) | Image processing apparatus, image processing method and program | |
JP3626144B2 (en) | Method and program for generating 2D image of cartoon expression from 3D object data | |
CA2236388A1 (en) | Method and apparatus for creating facial images | |
JPH11143352A (en) | Method and device for automatically plotting makeup simulation | |
JP2021144582A (en) | Makeup simulation device, makeup simulation method and program | |
JP4372494B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2017157014A (en) | Image processing device, image processing method, image processing system and program | |
JP2007144194A (en) | Method for face image modification, method for makeup simulation, method for makeup, support equipment for makeup and cosmetic foundation transcription film | |
JP7251003B2 (en) | Face mesh deformation with fine wrinkles | |
JP2000279228A (en) | Rouge makeup simulation system | |
JPH08297751A (en) | Method and device for three-dimensional model generation | |
CA2635068A1 (en) | Emulating cosmetic facial treatments with digital images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090728 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091020 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091102 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121113 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |