JP2007216000A - Makeup simulation system, makeup simulation device, makeup simulation method and makeup simulation program - Google Patents

Makeup simulation system, makeup simulation device, makeup simulation method and makeup simulation program Download PDF

Info

Publication number
JP2007216000A
JP2007216000A JP2007005098A JP2007005098A JP2007216000A JP 2007216000 A JP2007216000 A JP 2007216000A JP 2007005098 A JP2007005098 A JP 2007005098A JP 2007005098 A JP2007005098 A JP 2007005098A JP 2007216000 A JP2007216000 A JP 2007216000A
Authority
JP
Japan
Prior art keywords
makeup
user
image
moving image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007005098A
Other languages
Japanese (ja)
Other versions
JP5191665B2 (en
Inventor
Yasuo Goto
康男 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2007005098A priority Critical patent/JP5191665B2/en
Priority to TW96101598A priority patent/TWI421781B/en
Publication of JP2007216000A publication Critical patent/JP2007216000A/en
Application granted granted Critical
Publication of JP5191665B2 publication Critical patent/JP5191665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a makeup simulation system, a makeup simulation device, a makeup simulation method and a makeup simulation program, accurately achieving makeup for the face of a user included in a dynamic image with small processing load. <P>SOLUTION: This makeup simulation system includes: a photographing means 2 for outputting a photographed dynamic image; a control means 8 for image-processing the output dynamic image and outputting the same; and a display means 7 for displaying the dynamic image output from the control means 8, wherein the control means 8 includes: a face recognition processing means for recognizing the face of a user from the dynamic image based on a predetermined tracking point; and a makeup processing means for conducting predetermined makeup for the face of a user included in the dynamic image based on the tracking point and outputting the same to the display means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラムに係り、特に動画像に含まれるユーザの顔にメイクアップを施すメイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラムに関する。   The present invention relates to a makeup simulation system, a makeup simulation device, a makeup simulation method, and a makeup simulation program, and in particular, a makeup simulation system, a makeup simulation device for applying makeup to a user's face included in a moving image, The present invention relates to a makeup simulation method and a makeup simulation program.

従来、メイクアップを施す為の商品の販売等のため、実際にメイクアップを施すことなくコンピュータ上でメイクアップ後の顔をシミュレーションする技術が知られている(例えば特許文献1参照)。しかしながら、特許文献1ではシミュレーション結果が静止画で表示されるため、ユーザの表情が変化した際のメイクアップ後の顔を容易に確認することができなかった。そこで、ユーザの表情の変化を捕らえた動画像内で化粧をシミュレートする技術の開発が進められている(例えば特許文献2参照)。
特開2001−346627号公報 特開2003−44837号公報
2. Description of the Related Art Conventionally, a technique for simulating a face after makeup on a computer without actually applying makeup for sales of products for applying makeup is known (see, for example, Patent Document 1). However, in Patent Document 1, since the simulation result is displayed as a still image, the face after makeup when the user's facial expression is changed cannot be easily confirmed. Accordingly, development of a technique for simulating makeup in a moving image that captures a change in the facial expression of a user is underway (see, for example, Patent Document 2).
JP 2001-346627 A JP 2003-44837 A

しかしながら、特許文献2に記載の化粧シミュレーション装置はユーザの表情の変化を口および両目に対応する画素領域で特定し、その画素領域をテンプレートマッチングにより追跡することで、フェースメークを施す化粧領域を算出している(例えば、段落[0028]参照)。このように、ユーザの表情の変化を口および両目に対応する画素領域で追跡することはコンピュータの処理負担が大きく、目を閉じた場合等への正確な対処が難しいという問題があった。   However, the makeup simulation apparatus described in Patent Document 2 identifies a change in the user's facial expression by a pixel area corresponding to the mouth and both eyes, and tracks the pixel area by template matching to calculate a makeup area to which face makeup is applied. (See paragraph [0028], for example). As described above, tracking the change of the user's facial expression in the pixel area corresponding to the mouth and both eyes has a problem that the processing load on the computer is large and it is difficult to accurately deal with the case where the eyes are closed.

本発明は、上記の点に鑑みなされたもので、動画像に含まれるユーザの顔を少ない処理負担で正確にメイクアップすることができるメイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラムを提供することを目的とする。   The present invention has been made in view of the above points. A makeup simulation system, a makeup simulation apparatus, a makeup simulation method, and a makeup simulation system that can accurately make up a user's face included in a moving image with a small processing load. An object is to provide a makeup simulation program.

上記の課題を解決するため、本発明は、ユーザの顔を撮影した動画像にメイクアップを施すメイクアップシミュレーションシステムであって、ユーザの顔を撮影して動画像を出力する撮影手段と、前記撮影手段から出力された動画像を受信し、前記動画像を画像処理して出力する制御手段と、前記制御手段から出力された動画像を表示する表示手段とを備え、前記制御手段は、前記動画像からユーザの顔を所定のトラッキングポイントに基づいて認識する顔認識処理手段と、前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に所定のメイクアップを施して前記表示手段に出力するメイクアップ処理手段とを備えることを特徴とする。   In order to solve the above problems, the present invention is a makeup simulation system for applying makeup to a moving image obtained by photographing a user's face, the photographing means for photographing a user's face and outputting a moving image, A control unit that receives the moving image output from the photographing unit, performs image processing on the moving image, and outputs the moving image; and a display unit that displays the moving image output from the control unit, and the control unit includes: Face recognition processing means for recognizing a user's face from a moving image based on a predetermined tracking point, and applying predetermined make-up to the user's face included in the moving image based on the tracking point and outputting to the display means And makeup processing means.

本発明では、動画像からユーザの顔を所定のトラッキングポイントに基づいて認識する顔認識処理手段と、トラッキングポイントに基づいて動画像に含まれるユーザの顔に所定のメイクアップを施して表示手段に出力するメイクアップ処理手段とを備えることで、少ない処理負担で動画像からユーザの顔をトラッキングポイントに基づいて認識し、そのトラッキングポイントに基づいて動画像に含まれるユーザの顔に正確なメイクアップを施すことができる。   In the present invention, the face recognition processing means for recognizing the user's face from the moving image based on a predetermined tracking point, and the display means by applying a predetermined makeup to the user's face included in the moving image based on the tracking point. By providing the makeup processing means for outputting, the user's face is recognized from the moving image based on the tracking point with a small processing load, and the makeup on the user's face included in the moving image is accurately based on the tracking point. Can be applied.

なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。   In addition, what applied the component, expression, or arbitrary combination of the component of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention.

本発明によれば、動画像に含まれるユーザの顔を少ない処理負担で正確にメイクアップすることができるメイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラムを提供可能である。   According to the present invention, it is possible to provide a makeup simulation system, a makeup simulation apparatus, a makeup simulation method, and a makeup simulation program that can accurately make up a user's face included in a moving image with a small processing burden. is there.

次に、本発明を実施するための最良の形態を、以下の実施例に基づき図面を参照しつつ説明していく。図1は本発明によるメイクアップシミュレーション装置の第一実施例の外観図である。メイクアップシミュレーション装置1は、カメラ2,操作パネル4,プリンタ5,照明6及びモニタ7を含む構成である。   Next, the best mode for carrying out the present invention will be described based on the following embodiments with reference to the drawings. FIG. 1 is an external view of a first embodiment of a makeup simulation apparatus according to the present invention. The makeup simulation apparatus 1 includes a camera 2, an operation panel 4, a printer 5, an illumination 6, and a monitor 7.

カメラ2は、メイクアップシミュレーション装置1の前方に立ったユーザを撮影して動画像を出力する。操作パネル4は、操作画像を表示すると共に、ユーザからの操作を受け付けて操作情報を出力する。プリンタ5は、モニタに表示される画像(例えばメイクアップ後のイメージ画像等)及び情報(例えばイメージ画像のようにメイクアップする為の商品情報等)を印刷する。照明6は、例えばメイクアップシミュレーションが開始されたあとで調光を行う。   The camera 2 captures a user standing in front of the makeup simulation apparatus 1 and outputs a moving image. The operation panel 4 displays an operation image, accepts an operation from the user, and outputs operation information. The printer 5 prints an image (for example, an image image after makeup) and information (for example, product information for makeup like an image image) displayed on the monitor. The illumination 6 performs dimming after, for example, a makeup simulation is started.

図2はメイクアップシミュレーション装置の第一実施例の断面図である。メイクアップシミュレーション装置1は、カメラ2,操作パネル4,プリンタ5,モニタ7,制御部8を含む構成である。   FIG. 2 is a cross-sectional view of the first embodiment of the makeup simulation apparatus. The makeup simulation apparatus 1 includes a camera 2, an operation panel 4, a printer 5, a monitor 7, and a control unit 8.

カメラ2は、撮影した動画像を制御部8に出力する。操作パネル4は、制御部8から出力された操作画像を表示すると共に、ユーザからの操作を受け付けて操作情報を制御部8に出力する。プリンタ5は、制御部8から出力された画像及び情報を印刷する。モニタ7は制御部8から出力された動画像(メイン画像)を表示する。制御部8は、カメラ2から出力された動画像を受信し、その動画像を後述するように画像処理することにより、動画像に含まれるユーザの顔にメイクアップを施してモニタ7に出力する。   The camera 2 outputs the captured moving image to the control unit 8. The operation panel 4 displays the operation image output from the control unit 8, receives an operation from the user, and outputs operation information to the control unit 8. The printer 5 prints the image and information output from the control unit 8. The monitor 7 displays the moving image (main image) output from the control unit 8. The control unit 8 receives the moving image output from the camera 2 and performs image processing on the moving image as will be described later, thereby applying makeup to the user's face included in the moving image and outputting it to the monitor 7. .

図1及び図2のメイクアップシミュレーション装置1は鏡というメイクアップに必要不可欠なアイテムをコンセプトとし、ユーザとのインタラクティブな機能を持つ。即ちメイクアップシミュレーション装置1は、ユーザがあたかも鏡を見ながら自然にメイクアップをしている気分にさせる特徴を持つ。   The makeup simulation apparatus 1 shown in FIGS. 1 and 2 is based on the concept of a mirror essential item for makeup, and has an interactive function with a user. That is, the makeup simulation apparatus 1 has a feature that makes the user feel as if they are doing makeup naturally while looking at the mirror.

メイクアップシミュレーション装置1はカメラ2から出力された動画像等を制御部8で画像処理し、動画像に含まれるユーザの顔にメイクアップを施して、デジタルの鏡であるモニタ7に表示する。メイクアップシミュレーション装置1は、様々な商品情報、美容情報およびユーザの顔にメイクアップを施したイメージ画像をモニタ7に表示できる。   The makeup simulation apparatus 1 performs image processing on the moving image output from the camera 2 by the control unit 8, performs makeup on the user's face included in the moving image, and displays the image on the monitor 7 that is a digital mirror. The makeup simulation apparatus 1 can display various product information, beauty information, and an image with makeup applied to the user's face on the monitor 7.

また、図3は本発明によるメイクアップシミュレーション装置の第二実施例の外観図である。なお、図1と同一部分については同一符号を付している。   FIG. 3 is an external view of a second embodiment of the makeup simulation apparatus according to the present invention. In addition, the same code | symbol is attached | subjected about the same part as FIG.

図3のメイクアップシミュレーション装置1は、操作パネル4,プリンタ5,照明6及び透明板9を含む構成である。透明板9は、メイクアップシミュレーション装置1の外側からの光を透過すると共に、メイクアップシミュレーション装置1の内側からの光を透過する。   The makeup simulation apparatus 1 in FIG. 3 includes an operation panel 4, a printer 5, an illumination 6, and a transparent plate 9. The transparent plate 9 transmits light from the outside of the makeup simulation apparatus 1 and transmits light from the inside of the makeup simulation apparatus 1.

図4はメイクアップシミュレーション装置の第二実施例の断面図である。なお、図2と同一部分については同一符号を付している。図4のメイクアップシミュレーション装置1は、カメラ2,ハーフミラー3,操作パネル4,プリンタ5,モニタ7,制御部8及び透明板9を含む構成である。   FIG. 4 is a sectional view of a second embodiment of the makeup simulation apparatus. In addition, the same code | symbol is attached | subjected about the same part as FIG. The makeup simulation apparatus 1 shown in FIG. 4 includes a camera 2, a half mirror 3, an operation panel 4, a printer 5, a monitor 7, a control unit 8, and a transparent plate 9.

ハーフミラー(半透明鏡)3は当たった光を反射させると共に、当たった光の一部を透過させる。カメラ2はハーフミラー3,透明板9を介してメイクアップシミュレーション装置1の前方に立ったユーザを撮影可能な位置に設置されている。カメラ2は、ユーザの目線の高さに設置される。カメラ2は、ハーフミラー3,透明板9を介してメイクアップシミュレーション装置1の前方に立ったユーザを撮影して動画像を出力する。   The half mirror (semi-transparent mirror) 3 reflects the hit light and transmits a part of the hit light. The camera 2 is installed at a position where the user standing in front of the makeup simulation apparatus 1 can be photographed via the half mirror 3 and the transparent plate 9. The camera 2 is installed at the height of the user's line of sight. The camera 2 captures a user standing in front of the makeup simulation apparatus 1 through the half mirror 3 and the transparent plate 9 and outputs a moving image.

モニタ7はハーフミラー3,透明板9を介してメイクアップシミュレーション装置1の前方に立ったユーザが見ることのできる位置に設置されている。モニタ7から出力された光はハーフミラー3により反射し、透明板9を介してメイクアップシミュレーション装置1の外側に出力される。したがって、ユーザはモニタ7に表示されている動画像をメイクアップシミュレーション装置1の外側から見ることができる。   The monitor 7 is installed at a position where a user standing in front of the makeup simulation apparatus 1 can see through the half mirror 3 and the transparent plate 9. The light output from the monitor 7 is reflected by the half mirror 3 and output to the outside of the makeup simulation apparatus 1 through the transparent plate 9. Therefore, the user can view the moving image displayed on the monitor 7 from the outside of the makeup simulation apparatus 1.

図3及び図4のメイクアップシミュレーション装置1は鏡というメイクアップに必要不可欠なアイテムをコンセプトとし、ユーザとのインタラクティブな機能を持つ。即ちメイクアップシミュレーション装置1は、ユーザがあたかも鏡を見ながら自然にメイクアップをしている気分にさせる特徴を持つ。   The makeup simulation apparatus 1 shown in FIGS. 3 and 4 is based on the concept of an indispensable item, which is a mirror, and has an interactive function with the user. That is, the makeup simulation apparatus 1 has a feature that makes the user feel as if they are doing makeup naturally while looking at the mirror.

メイクアップシミュレーション装置1はカメラ2を目線の高さに設置している為、実施例1のカメラ2の位置に設置するよりも、メイクアップシミュレーション装置1の前方に立ったユーザの顔を自然に撮影できる。   Since the makeup simulation apparatus 1 has the camera 2 installed at the height of the line of sight, the face of the user standing in front of the makeup simulation apparatus 1 is more natural than the installation at the position of the camera 2 in the first embodiment. Can shoot.

メイクアップシミュレーション装置1はカメラ2から出力された動画像等を制御部8で画像処理し、動画像に含まれるユーザの顔にメイクアップを施して、デジタルの鏡であるモニタ7に表示する。メイクアップシミュレーション装置1は、様々な商品情報、美容情報およびユーザの顔にメイクアップを施したイメージ画像をモニタ7に表示できる。   The makeup simulation apparatus 1 performs image processing on the moving image output from the camera 2 by the control unit 8, performs makeup on the user's face included in the moving image, and displays the image on the monitor 7 that is a digital mirror. The makeup simulation apparatus 1 can display various product information, beauty information, and an image with makeup applied to the user's face on the monitor 7.

また、図5は、本発明によるメイクアップシミュレーション装置の第三実施例の外観図である。なお、前図と同一部分については同一符号を付している。図5のメイクアップシミュレーション装置1は、カメラ2,ハーフミラー3,操作パネル4,プリンタ5及び照明6を含む構成である。   FIG. 5 is an external view of a third embodiment of the makeup simulation apparatus according to the present invention. In addition, the same code | symbol is attached | subjected about the same part as the previous figure. The makeup simulation apparatus 1 in FIG. 5 includes a camera 2, a half mirror 3, an operation panel 4, a printer 5, and an illumination 6.

ハーフミラー3は、明るい方からの光の一部(例えば50%)を透過すると共に、明るい方からの光の残り(例えば50%)を手前に反射する。暗い方に光が無いため、ハーフミラー3は暗い方からの光の透過も反射もしない。   The half mirror 3 transmits a part (for example, 50%) of light from the brighter side and reflects the rest of the light (for example, 50%) from the brighter side. Since there is no light in the darker side, the half mirror 3 does not transmit or reflect light from the darker side.

照明6はメイクアップシミュレーションが開始されたあと、ハーフミラー3のモニタ7側が明るくなるように調光する。したがって、モニタ7の表示方向側に設けられたハーフミラー3は、メイクアップシミュレーションが開始される前、ユーザ側(メイクアップシミュレーション装置1の外側)からの光を反射して鏡として機能する。   The illumination 6 is dimmed so that the monitor 7 side of the half mirror 3 becomes bright after the makeup simulation is started. Accordingly, the half mirror 3 provided on the display direction side of the monitor 7 functions as a mirror by reflecting light from the user side (outside the makeup simulation apparatus 1) before the makeup simulation is started.

ハーフミラー3はメイクアップシミュレーションが開始された後、モニタ7側(メイクアップシミュレーション装置1の内側)からの光を透過してガラスとして機能する。したがって、ユーザはハーフミラー3を通してモニタ7に表示されている動画像を見ることができる。   After the makeup simulation is started, the half mirror 3 transmits light from the monitor 7 side (inside the makeup simulation apparatus 1) and functions as glass. Therefore, the user can see the moving image displayed on the monitor 7 through the half mirror 3.

図6はメイクアップシミュレーション装置の第三実施例の断面図である。図6のメイクアップシミュレーション装置1は、カメラ2,ハーフミラー3,操作パネル4,プリンタ5,モニタ7,制御部8を含む構成である。なお、前図と同一部分については同一符号を付している。モニタ7に表示された動画像はガラスとして機能しているハーフミラー3を透過する。ユーザは、モニタ7に表示されている動画像をメイクアップシミュレーション装置1の外側から見ることができる。   FIG. 6 is a sectional view of a third embodiment of the makeup simulation apparatus. The makeup simulation apparatus 1 shown in FIG. 6 includes a camera 2, a half mirror 3, an operation panel 4, a printer 5, a monitor 7, and a control unit 8. In addition, the same code | symbol is attached | subjected about the same part as the previous figure. The moving image displayed on the monitor 7 passes through the half mirror 3 functioning as glass. The user can view the moving image displayed on the monitor 7 from the outside of the makeup simulation apparatus 1.

図5及び図6のメイクアップシミュレーション装置1は鏡というメイクアップに必要不可欠なアイテムをコンセプトとし、ユーザとのインタラクティブな機能を持つ。即ちメイクアップシミュレーション装置1は、ユーザがあたかも鏡を見ながら自然にメイクアップをしている気分にさせる特徴を持つ。   The makeup simulation apparatus 1 shown in FIGS. 5 and 6 is based on the concept of a mirror essential item for makeup, and has an interactive function with the user. That is, the makeup simulation apparatus 1 has a feature that makes the user feel as if they are doing makeup naturally while looking at the mirror.

メイクアップシミュレーション装置1はカメラ2から出力された動画像等を制御部8で画像処理し、動画像に含まれるユーザの顔にメイクアップを施して、デジタルの鏡であるモニタ7に表示する。メイクアップシミュレーション装置1は、様々な商品情報、美容情報およびユーザの顔にメイクアップを施したイメージ画像をモニタ7に表示できる。   The makeup simulation apparatus 1 performs image processing on the moving image output from the camera 2 by the control unit 8, performs makeup on the user's face included in the moving image, and displays the image on the monitor 7 that is a digital mirror. The makeup simulation apparatus 1 can display various product information, beauty information, and an image with makeup applied to the user's face on the monitor 7.

また、図7は本発明によるメイクアップシミュレーション装置の第四実施例の外観図である。図8はメイクアップシミュレーション装置の第四実施例の断面図である。なお、前図と同一部分については同一符号を付している。メイクアップシミュレーション装置1はカメラ2,プリンタ5,照明6,タッチパネルモニタ15を含む構成である。   FIG. 7 is an external view of a fourth embodiment of the makeup simulation apparatus according to the present invention. FIG. 8 is a sectional view of a fourth embodiment of the makeup simulation apparatus. In addition, the same code | symbol is attached | subjected about the same part as the previous figure. The makeup simulation apparatus 1 includes a camera 2, a printer 5, an illumination 6, and a touch panel monitor 15.

図7及び図8のメイクアップシミュレーション装置1は、操作パネル4及びモニタ7の替わりにタッチパネルモニタ15を含む構成である点で、図1及び図2のメイクアップシミュレーション装置1と異なっている。タッチパネルモニタ15は、操作パネル4及びモニタ7として機能する。   The makeup simulation apparatus 1 in FIGS. 7 and 8 is different from the makeup simulation apparatus 1 in FIGS. 1 and 2 in that the touch panel monitor 15 is included instead of the operation panel 4 and the monitor 7. The touch panel monitor 15 functions as the operation panel 4 and the monitor 7.

タッチパネルモニタ15は、操作画像を表示すると共に、ユーザからの操作を受け付けて操作情報を出力する。タッチパネルモニタ15は、制御部8から出力された操作画像を表示すると共に、ユーザからの操作を受け付けて操作情報を制御部8に出力する。タッチパネルモニタ15は制御部8から出力された動画像(メイン画像)を表示する。制御部8はカメラ2から出力された動画像を受信し、その動画像を後述するように画像処理することにより、動画像に含まれるユーザの顔にメイクアップを施してタッチパネルモニタ15に出力する。   The touch panel monitor 15 displays an operation image, receives an operation from the user, and outputs operation information. The touch panel monitor 15 displays the operation image output from the control unit 8, accepts an operation from the user, and outputs operation information to the control unit 8. The touch panel monitor 15 displays the moving image (main image) output from the control unit 8. The control unit 8 receives the moving image output from the camera 2 and performs image processing on the moving image as will be described later, thereby applying makeup to the user's face included in the moving image and outputting it to the touch panel monitor 15. .

図7及び図8のメイクアップシミュレーション装置1は鏡というメイクアップに必要不可欠なアイテムをコンセプトとし、ユーザとのインタラクティブな機能を持つ。即ちメイクアップシミュレーション装置1は、ユーザがあたかも鏡を見ながら自然にメイクアップをしている気分にさせる特徴を持つ。   The makeup simulation apparatus 1 shown in FIGS. 7 and 8 is based on the concept of a mirror essential item for makeup, and has an interactive function with the user. That is, the makeup simulation apparatus 1 has a feature that makes the user feel as if they are doing makeup naturally while looking at the mirror.

メイクアップシミュレーション装置1はカメラ2から出力された動画像等を制御部8で画像処理し、動画像に含まれるユーザの顔にメイクアップを施して、デジタルの鏡であるタッチパネルモニタ15に表示する。メイクアップシミュレーション装置1は、様々な商品情報、美容情報およびユーザの顔にメイクアップを施したイメージ画像をタッチパネルモニタ15に表示できる。   The makeup simulation apparatus 1 performs image processing on the moving image output from the camera 2 by the control unit 8, performs makeup on the user's face included in the moving image, and displays the makeup on the touch panel monitor 15 that is a digital mirror. . The makeup simulation apparatus 1 can display various product information, beauty information, and an image with makeup applied to the user's face on the touch panel monitor 15.

第四実施例のメイクアップシミュレーション装置1は、例えばユーザが使って試すテスター用の商品(以下、テスター品という)を陳列する陳列ケースを、図9及び図10のように備えるようにしてセルフ販売用の筐体として利用することもできる。図9は、本発明によるメイクアップシミュレーション装置の第五実施例の外観図である。図10は、メイクアップシミュレーション装置の第五実施例の断面図である。なお、前図と同一部分については同一符号を付している。   The makeup simulation apparatus 1 of the fourth embodiment is a self-sale by providing a display case for displaying a tester product (hereinafter referred to as a tester product) to be used by a user, as shown in FIGS. 9 and 10, for example. It can also be used as a housing for the camera. FIG. 9 is an external view of a fifth embodiment of the makeup simulation apparatus according to the present invention. FIG. 10 is a cross-sectional view of a fifth embodiment of the makeup simulation apparatus. In addition, the same code | symbol is attached | subjected about the same part as the previous figure.

メイクアップシミュレーション装置1は、カメラ2,プリンタ5,照明6,タッチパネルモニタ15,陳列ケース16及びICタグリーダライタ17を含む構成である。図9及び図10のメイクアップシミュレーション装置1は、陳列ケース16及びICタグリーダライタ17を含む構成である点で、図7及び図8のメイクアップシミュレーション装置1と異なっている。   The makeup simulation apparatus 1 includes a camera 2, a printer 5, an illumination 6, a touch panel monitor 15, a display case 16, and an IC tag reader / writer 17. The makeup simulation apparatus 1 of FIGS. 9 and 10 is different from the makeup simulation apparatus 1 of FIGS. 7 and 8 in that it includes a display case 16 and an IC tag reader / writer 17.

陳列ケース16は、複数のテスター品を陳列するものである。なお、テスター品にはIC(RFID)タグが添付されている。テスター品に添付されたICタグにはテスター品を識別可能な識別情報が格納されている。ユーザが陳列ケース16からテスター品を取り出してICタグリーダライタ17に近づけることで、ICタグリーダライタ17はICタグからテスター品の識別情報を読み取る。   The display case 16 displays a plurality of tester products. An IC (RFID) tag is attached to the tester product. The IC tag attached to the tester product stores identification information for identifying the tester product. When the user takes out the tester product from the display case 16 and brings it closer to the IC tag reader / writer 17, the IC tag reader / writer 17 reads the identification information of the tester product from the IC tag.

ICタグリーダライタ17はICタグから読み取ったテスター品の識別情報を制御部8に送信する。制御部8はカメラ2から出力された動画像を受信し、その動画像を後述するように画像処理することにより、ICタグから読み取った識別情報に対応するテスター品を用いて、動画像に含まれるユーザの顔にメイクアップを施したイメージ画像をタッチパネルモニタ15に出力する。   The IC tag reader / writer 17 transmits the identification information of the tester product read from the IC tag to the control unit 8. The control unit 8 receives the moving image output from the camera 2 and performs image processing on the moving image as will be described later, thereby using the tester product corresponding to the identification information read from the IC tag to include the moving image. Then, an image with makeup applied to the user's face is output to the touch panel monitor 15.

なお、テスター品と識別情報とを対応付ける対応表はメイクアップシミュレーション装置1に備えておいてもよいし、メイクアップシミュレーション装置1からネットワーク経由で取得可能な他の装置に備えておいてもよい。   The correspondence table for associating the tester product with the identification information may be provided in the makeup simulation apparatus 1 or may be provided in another apparatus that can be acquired from the makeup simulation apparatus 1 via a network.

また、図9及び図10のメイクアップシミュレーション装置1ではテスター品の識別にICタグを利用する例を示したが、バーコード,二次元コード,ラベル等を利用するようにしてもよい。さらに、図9及び図10のメイクアップシミュレーション装置1は取り出したテスター品が分かるような仕組み(例えば光センサなどのセンサを利用した位置認識など)を陳列ケース16に設けておき、陳列ケース16から制御部8に通知するようにしてもよい。   Further, in the makeup simulation apparatus 1 of FIGS. 9 and 10, an example is shown in which an IC tag is used to identify a tester product, but a bar code, a two-dimensional code, a label, or the like may be used. Further, the makeup simulation apparatus 1 shown in FIGS. 9 and 10 is provided with a mechanism (for example, position recognition using a sensor such as an optical sensor) in the display case 16 so that the taken-out tester product can be understood. You may make it notify to the control part 8. FIG.

図9及び図10のメイクアップシミュレーション装置1は鏡というメイクアップに必要不可欠なアイテムをコンセプトとし、ユーザとのインタラクティブな機能を持つ。即ちメイクアップシミュレーション装置1は、ユーザがあたかも鏡を見ながら自然にメイクアップをしている気分にさせる特徴を持つ。   The makeup simulation apparatus 1 shown in FIGS. 9 and 10 is based on the concept of a mirror essential item for makeup, and has an interactive function with the user. That is, the makeup simulation apparatus 1 has a feature that makes the user feel as if they are doing makeup naturally while looking at the mirror.

メイクアップシミュレーション装置1はカメラ2から出力された動画像等を制御部8で画像処理し、動画像に含まれるユーザの顔に、ユーザが陳列ケース16から選択したテスター品を用いてメイクアップを施したイメージ画像を、デジタルの鏡であるタッチパネルモニタ15に表示する。メイクアップシミュレーション装置1は、様々な商品情報、美容情報およびユーザの顔にメイクアップを施したイメージ画像をタッチパネルモニタ15に表示できる。ユーザが陳列ケース16から選択したテスター品のログを取ることで、メイクアップシミュレーション装置1はユーザの嗜好等のデータを取得できる。   The makeup simulation apparatus 1 performs image processing on the moving image output from the camera 2 by the control unit 8 and applies makeup to the user's face included in the moving image using a tester product selected from the display case 16 by the user. The applied image is displayed on the touch panel monitor 15 which is a digital mirror. The makeup simulation apparatus 1 can display various product information, beauty information, and an image with makeup applied to the user's face on the touch panel monitor 15. By taking a log of the tester product selected by the user from the display case 16, the makeup simulation apparatus 1 can acquire data such as the user's preference.

なお、例えばテスター品だけでなく、商品を陳列するための棚を備えたメイクアップシミュレーション装置1であれば、タッチパネルモニタ15に表示される商品を棚に陳列しておくことにより、セルフ販売用の筐体として効果的に利用できる。   For example, in the makeup simulation apparatus 1 provided with a shelf for displaying not only a tester product but also a product, by displaying the product displayed on the touch panel monitor 15 on the shelf, It can be effectively used as a housing.

以下、第一実施例のメイクアップシミュレーション装置1を例に説明する。図11はメイクアップシミュレーション装置の一実施例のハードウェア構成図である。なお、図1及び図2と同一部分については同一符号を付している。   Hereinafter, the makeup simulation apparatus 1 of the first embodiment will be described as an example. FIG. 11 is a hardware configuration diagram of an embodiment of the makeup simulation apparatus. In addition, the same code | symbol is attached | subjected about the same part as FIG.1 and FIG.2.

図11のメイクアップシミュレーション装置1は、それぞれバスBで相互に接続されているカメラ2,操作パネル4,プリンタ5,モニタ7,演算処理装置10,メモリ装置11,ドライブ装置12および補助記憶装置13で構成される。なお、図11の演算処理装置10,メモリ装置11,ドライブ装置12および補助記憶装置13は、図2の制御部8を構成する。   The makeup simulation apparatus 1 shown in FIG. 11 includes a camera 2, an operation panel 4, a printer 5, a monitor 7, an arithmetic processing device 10, a memory device 11, a drive device 12, and an auxiliary storage device 13 that are connected to each other via a bus B. Consists of. Note that the arithmetic processing device 10, the memory device 11, the drive device 12, and the auxiliary storage device 13 of FIG. 11 constitute the control unit 8 of FIG.

本発明のメイクアップシミュレーションプログラムは、メイクアップシミュレーション装置1を制御する各種プログラムの少なくとも一部である。メイクアップシミュレーションプログラムは例えば記録媒体14の配布などによって提供される。   The makeup simulation program of the present invention is at least a part of various programs for controlling makeup simulation apparatus 1. The makeup simulation program is provided by distributing the recording medium 14, for example.

なお、メイクアップシミュレーションプログラムを記録した記録媒体14は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   The recording medium 14 on which the makeup simulation program is recorded is a recording medium such as a CD-ROM, a flexible disk, a magneto-optical disk, etc. for recording information optically, electrically or magnetically, a ROM, a flash memory, etc. Various types of recording media such as a semiconductor memory that electrically records information can be used.

また、メイクアップシミュレーションプログラムを記録した記録媒体14がドライブ装置12にセットされると、メイクアップシミュレーションプログラムは記録媒体14からドライブ装置12を介して補助記憶装置13にインストールされる。補助記憶装置13はインストールされたメイクアップシミュレーションプログラムを格納すると共に、必要なファイル,データ等を格納する。メモリ装置11は、起動時に補助記憶装置13からメイクアップシミュレーションプログラムを読み出して格納する。そして、演算処理装置10はメモリ装置11に格納されたメイクアップシミュレーションプログラムに従って、後述するような各種処理を実現している。   When the recording medium 14 on which the makeup simulation program is recorded is set in the drive device 12, the makeup simulation program is installed from the recording medium 14 to the auxiliary storage device 13 via the drive device 12. The auxiliary storage device 13 stores the installed makeup simulation program and also stores necessary files, data, and the like. The memory device 11 reads and stores the makeup simulation program from the auxiliary storage device 13 at the time of activation. The arithmetic processing unit 10 implements various processes as described later according to a makeup simulation program stored in the memory device 11.

図12はメイクアップシミュレーション装置が行なう処理の概略を表した一実施例のフローチャートである。図13はモニタに表示されるメイン画面及び操作パネルに表示される操作画面の一例のイメージ図である。図13の画面イメージ100〜111はモニタ7に表示されるメイン画面のものである。画面イメージ200〜210は操作パネル4に表示される操作画面のものである。   FIG. 12 is a flowchart of an embodiment showing an outline of processing performed by the makeup simulation apparatus. FIG. 13 is an image diagram of an example of a main screen displayed on the monitor and an operation screen displayed on the operation panel. Screen images 100 to 111 in FIG. 13 are those of the main screen displayed on the monitor 7. Screen images 200 to 210 are those of an operation screen displayed on the operation panel 4.

制御部8は、カメラ2が撮影した動画像を継続して受信している。このとき、制御部8はモニタ7に画面イメージ100を表示し、操作パネル4に画面イメージ200を表示している。画面イメージ100及び200はスクリーンセーバーを表示している例を表している。   The control unit 8 continuously receives moving images taken by the camera 2. At this time, the control unit 8 displays the screen image 100 on the monitor 7 and displays the screen image 200 on the operation panel 4. Screen images 100 and 200 represent examples in which a screen saver is displayed.

ステップS1に進み、制御部8は受信している動画像にユーザの顔が含まれているか否かを継続して判定している。制御部8は動画像にユーザの顔が含まれていることを認識するまでステップS1の処理を繰り返し行う(S1においてNO)。   In step S1, the control unit 8 continuously determines whether or not the received moving image includes the user's face. The control unit 8 repeats the process of step S1 until it recognizes that the user's face is included in the moving image (NO in S1).

動画像にユーザの顔が含まれていることを認識すると(S1においてYES)、制御部8はステップS2に進み、メイクアップシミュレーションを行なう為のメイクアップシミュレーションプログラムを含むソフトを起動する。このとき、制御部8はモニタ7に画面イメージ101を表示し、操作パネル4に画面イメージ201を表示する。   If it is recognized that the user's face is included in the moving image (YES in S1), the control unit 8 proceeds to step S2 and activates software including a makeup simulation program for performing makeup simulation. At this time, the control unit 8 displays the screen image 101 on the monitor 7 and displays the screen image 201 on the operation panel 4.

画面イメージ101はカメラ2でユーザの顔を撮影した動画像を表示している例を表している。画面イメージ201は、横に移動する歓迎のコメントを表示している例を表している。   A screen image 101 represents an example in which a moving image obtained by photographing the user's face with the camera 2 is displayed. A screen image 201 represents an example in which a welcome comment moving horizontally is displayed.

ステップS3に進み、制御部8はステップS2で起動したソフトに基づいてメイクアップシミュレーションを開始する。このとき、制御部8はモニタ7に画面イメージ102を表示し、操作パネル4に画面イメージ202を表示する。画面イメージ102は、カメラ2でユーザの顔を撮影した動画像に、魔法の鏡的な演出を施して表示している例を表している。画面イメージ202は、画面イメージ201と同様、横に移動する歓迎のコメントを表示している例を表している。   In step S3, the control unit 8 starts a makeup simulation based on the software activated in step S2. At this time, the control unit 8 displays the screen image 102 on the monitor 7 and displays the screen image 202 on the operation panel 4. The screen image 102 represents an example in which a moving image obtained by photographing the user's face with the camera 2 is displayed with a magical mirror effect. The screen image 202 represents an example in which a welcome comment that moves to the side is displayed, like the screen image 201.

ステップS4に進み、制御部8はメイクアップシミュレーションを後述するように実行する。このとき、制御部8はモニタ7に画面イメージ103〜106を順次表示し、操作パネル4に画面イメージ203〜206を表示する。   In step S4, the control unit 8 executes makeup simulation as will be described later. At this time, the control unit 8 sequentially displays the screen images 103 to 106 on the monitor 7 and displays the screen images 203 to 206 on the operation panel 4.

画面イメージ103〜106は、メイクアップシミュレーションにより4つのメイクアップパターン(イメージ)が施されたユーザの顔を表示している例を表している。画面イメージ203〜206は、そのときモニタ7に表示されている画面イメージ103〜106のメイクアップパターンの内容(例えば名称等)を表示している例を表している。所定時間が経過するか、又はユーザが操作パネル4にタッチするまで、制御部8はモニタ7に画面イメージ103〜106を順次表示し、操作パネル4に画面イメージ203〜206を表示する。   Screen images 103 to 106 represent an example in which a user's face to which four makeup patterns (images) are applied by a makeup simulation is displayed. Screen images 203 to 206 represent examples in which the contents (for example, names) of the makeup patterns of the screen images 103 to 106 displayed on the monitor 7 at that time are displayed. The control unit 8 sequentially displays the screen images 103 to 106 on the monitor 7 and displays the screen images 203 to 206 on the operation panel 4 until a predetermined time elapses or the user touches the operation panel 4.

所定時間が経過するか、又はユーザが操作パネル4にタッチすると、制御部8はステップS5に進み、モニタ7に画面イメージ107を表示し、操作パネル4に画面イメージ207を表示する。画面イメージ107は、画面イメージ101と同様、カメラ2でユーザの顔を撮影した動画像を表示している例を表している。画面イメージ207は、4つのメイクアップパターン(イメージ)から1つのイメージを選択可能なイメージ選択画面を表示している例を表している。ユーザは、操作パネル4を操作することで、イメージ選択画面から1つのイメージを選択することができる。   When the predetermined time has elapsed or the user touches the operation panel 4, the control unit 8 proceeds to step S 5, displays the screen image 107 on the monitor 7, and displays the screen image 207 on the operation panel 4. The screen image 107 represents an example in which a moving image obtained by photographing the user's face with the camera 2 is displayed, like the screen image 101. A screen image 207 represents an example in which an image selection screen capable of selecting one image from four makeup patterns (images) is displayed. The user can select one image from the image selection screen by operating the operation panel 4.

ステップS6に進み、制御部8はイメージ選択画面から1つのイメージが選択されるまでステップS6の処理を繰り返し行う(S6においてNO)。ユーザがイメージ選択画面から1つのイメージを選択すると、操作パネル4はユーザからの操作を受け付けて操作情報を制御部8に出力する。   In step S6, the control unit 8 repeats the process of step S6 until one image is selected from the image selection screen (NO in S6). When the user selects one image from the image selection screen, the operation panel 4 receives an operation from the user and outputs operation information to the control unit 8.

ユーザがイメージ選択画面から1つのイメージを選択したと判定すると(S6においてYES)、制御部8はステップS7に進み、選択されたイメージのイメージ画面をモニタ7及び操作パネル4に表示する。このとき、制御部8はモニタ7に画面イメージ108を表示し、操作パネル4に画面イメージ208を表示する。   If it is determined that the user has selected one image from the image selection screen (YES in S6), control unit 8 proceeds to step S7, and displays the image screen of the selected image on monitor 7 and operation panel 4. At this time, the control unit 8 displays the screen image 108 on the monitor 7 and displays the screen image 208 on the operation panel 4.

画面イメージ108は、イメージ選択画面から選択された1つのイメージに基づき、異なるカラーパターンが施されたメイクアップ後のユーザの顔のイメージ画像と、イメージ画像のようにメイクアップする為の商品情報とを順次表示している例を表している。画面イメージ208は、イメージ選択画面から選択された1つのイメージの内容と、そのときモニタ7に表示されている画面イメージ108のイメージ画像のようにメイクアップする為の商品情報とを表示している例を表している。   The screen image 108 is based on one image selected from the image selection screen, an image image of the face of the user after makeup having a different color pattern, and product information for makeup like an image image. Are displayed in order. The screen image 208 displays the content of one image selected from the image selection screen, and product information for makeup like the image image of the screen image 108 displayed on the monitor 7 at that time. An example is shown.

なお、ユーザは操作パネル4を操作することによりプリントアウトを指示することもできる。ユーザからのプリントアウト指示を受け付けると、制御部8は画面イメージ109をモニタ7に表示し、画面イメージ209を操作パネル4に表示する。画面イメージ109は、プリントアウトするイメージ画像を表示している例を表している。画面イメージ209は、プリントアウト中のコメントを表示している例を表している。制御部8はプリンタ5を制御してモニタ7に表示されているイメージ画像をプリントアウトする。   Note that the user can also instruct printout by operating the operation panel 4. When receiving a printout instruction from the user, the control unit 8 displays the screen image 109 on the monitor 7 and displays the screen image 209 on the operation panel 4. A screen image 109 represents an example in which an image to be printed out is displayed. A screen image 209 represents an example in which a comment being printed out is displayed. The control unit 8 controls the printer 5 to print out the image displayed on the monitor 7.

また、ユーザは操作パネル4を操作することにより、メイクアップ前及び後のイメージ画像から成る比較画面の表示およびプリントアウトを指示することもできる。ユーザからの比較画面の表示指示を受け付けると、制御部8は画面イメージ110をモニタ7に表示する。画面イメージ110は、メイクアップ前及び後のイメージ画像から成る比較画面を表示している例を表している。比較画面を表示している状態で、ユーザからのプリントアウト指示を受け付けると、制御部8はプリンタ5を制御してモニタ7に表示されている比較画面をプリントアウトする。   The user can also instruct display and printout of a comparison screen composed of image images before and after make-up by operating the operation panel 4. When receiving the display instruction of the comparison screen from the user, the control unit 8 displays the screen image 110 on the monitor 7. A screen image 110 represents an example in which a comparison screen including image images before and after makeup is displayed. When receiving a printout instruction from the user while the comparison screen is displayed, the control unit 8 controls the printer 5 to print out the comparison screen displayed on the monitor 7.

ユーザによるメイクアップシミュレーションが終了すると、制御部8はモニタ7及び操作パネル4にスクリーンセーバーである画面イメージ111及び210を表示して、処理を終了する。   When the makeup simulation by the user is finished, the control unit 8 displays screen images 111 and 210 as screen savers on the monitor 7 and the operation panel 4 and finishes the process.

なお、図12及び図13の例ではメイクアップシミュレーションにより4つのイメージを表示しているが、4つ以外のイメージを表示するものであってもよい。また、メイクアップシミュレーション装置1はカメラ2から出力された動画像に含まれるユーザの顔にメイクアップを施す例を示しているが、予め撮影した動画像を動画ファイルとして補助記憶装置13等に記憶しておき、その動画ファイルに含まれるユーザの顔にメイクアップを施すものであってもよい。   In the example of FIGS. 12 and 13, four images are displayed by the makeup simulation, but other images may be displayed. Further, the makeup simulation apparatus 1 shows an example in which makeup is applied to the user's face included in the moving image output from the camera 2, but the moving image captured in advance is stored as a moving image file in the auxiliary storage device 13 or the like. In addition, makeup may be applied to the user's face included in the moving image file.

メイクアップシミュレーション装置1はカメラ2から出力された動画像をメイクアップシミュレーション以外に利用することもできる。図14はメイクアップシミュレーション装置が行なうメイクアップシミュレーション以外の処理を表すイメージ図である。   The makeup simulation apparatus 1 can also use the moving image output from the camera 2 other than the makeup simulation. FIG. 14 is an image diagram showing processing other than makeup simulation performed by the makeup simulation apparatus.

画面イメージ300は、カメラ2で撮影したユーザの顔の動画像を表示している例を表している。メイクアップシミュレーション装置1は動画像に含まれているユーザの顔を認識し、ユーザの顔の静止画301を切り出す。   A screen image 300 represents an example in which a moving image of a user's face photographed by the camera 2 is displayed. The makeup simulation apparatus 1 recognizes the user's face included in the moving image and cuts out a still image 301 of the user's face.

メイクアップシミュレーション装置1は、顔立ち分析ロジックおよび肌分析ロジックにより静止画301の顔立ち診断および肌色診断を行い、その結果を表す画面イメージ302をモニタ7に表示できる。なお、顔立ち分析ロジックおよび肌分析ロジックにより静止画301の顔立ち診断および肌色診断を行なう処理は、例えば特開2001−346627号公報に記載されている公知技術である。   The makeup simulation apparatus 1 can perform a face diagnosis and a skin color diagnosis of the still image 301 using the face analysis logic and the skin analysis logic, and display a screen image 302 representing the result on the monitor 7. Note that the processing for performing the face diagnosis and the skin color diagnosis of the still image 301 using the face analysis logic and the skin analysis logic is a known technique described in, for example, Japanese Patent Application Laid-Open No. 2001-346627.

また、メイクアップシミュレーション装置1は画面イメージ303のようなコース選択画面303をモニタ7に表示して、各コース(例えばトレンド、ベーシック、フリー)をユーザに選択させることもできる。メイクアップシミュレーション装置1は、ユーザにより選択されたコースに基づく画面イメージ304〜309をモニタ7に表示して、シミュレーション及びアドバイスを行なう。   The makeup simulation apparatus 1 can also display a course selection screen 303 such as a screen image 303 on the monitor 7 to allow the user to select each course (for example, trend, basic, and free). The makeup simulation apparatus 1 displays screen images 304 to 309 based on the course selected by the user on the monitor 7 to perform simulation and advice.

画面イメージ304〜306は、各コースのシミュレーション画面を表示している例を表している。画面イメージ307〜309は、各コースのアドバイス画面を表示している例を表している。   Screen images 304 to 306 represent examples in which a simulation screen of each course is displayed. Screen images 307 to 309 represent examples in which an advice screen for each course is displayed.

例えばベーシックコースとは、顔立ち診断および肌色診断の結果に基づいて、最適なメイクアップテクニックをシミュレーション及びアドバイスするものである。また、トレンドコースとは最新のトレンドメイクアップのシミュレーション及びアドバイスするものである。また、フリーメイクアップコースとは目元,口元,ほお,眉,個々のパーツに対応したアイテムのシミュレーション及びアドバイスするものである。   For example, the basic course is a simulation and advice of an optimal makeup technique based on the results of the face diagnosis and the skin color diagnosis. The trend course is a simulation and advice on the latest trend makeup. The free make-up course is a simulation and advice for items corresponding to the eyes, mouth, cheeks, eyebrows, and individual parts.

シミュレーション画面又はアドバイス画面を表示している状態で、ユーザからのプリントアウト指示を受け付けると、制御部8はプリンタ5を制御してモニタ7に表示されているシミュレーション画面又はアドバイス画面をプリントアウトすることもできる。   When receiving a printout instruction from the user while the simulation screen or advice screen is displayed, the control unit 8 controls the printer 5 to print out the simulation screen or advice screen displayed on the monitor 7. You can also.

次に、上記のようなメイクアップシミュレーション装置1を実現する為のメイクアップシミュレーションシステムの詳細について説明する。図15は、本発明によるメイクアップシミュレーションシステムの一実施例のシステム構成図である。   Next, details of a makeup simulation system for realizing the makeup simulation apparatus 1 as described above will be described. FIG. 15 is a system configuration diagram of an embodiment of a makeup simulation system according to the present invention.

図15のメイクアップシミュレーションシステム20は、アナログカメラ21,USBキャプチャデバイス22,動画ファイル23,メイクアップカメラ24,静止画システム25,動画ファイル26,共有メモリ27,シミュレータメインアプリ28及びインターフェースアプリ29を含む構成である。   The makeup simulation system 20 of FIG. 15 includes an analog camera 21, a USB capture device 22, a moving image file 23, a makeup camera 24, a still image system 25, a moving image file 26, a shared memory 27, a simulator main application 28, and an interface application 29. It is a configuration.

アナログカメラ21は撮影した例えばNTSC方式の動画像をUSBキャプチャデバイス22経由で出力する。USBキャプチャデバイス22から出力された動画像は、例えばAPI(application programming interface)の一例としてのDirectX31を利用してシミュレータメインアプリ28に入力される。また、動画ファイル23もDirectX31を利用してシミュレータメインアプリ28に入力される。   The analog camera 21 outputs, for example, a captured NTSC moving image via the USB capture device 22. The moving image output from the USB capture device 22 is input to the simulator main application 28 using, for example, DirectX 31 as an example of an API (Application Programming Interface). The moving image file 23 is also input to the simulator main application 28 using DirectX 31.

メイクアップカメラ24は撮影した動画像をシリアルインターフェースの一例としてのIEEE1394経由で出力する。メイクアップカメラ24から出力された動画像は専用API32を利用してシミュレータメインアプリ28に入力される。シミュレータメインアプリ28は専用API32を利用して入力された動画像から動画像用解像度の原画像と静止画用解像度の静止画像とを得る。   The makeup camera 24 outputs the captured moving image via IEEE1394 as an example of a serial interface. The moving image output from the makeup camera 24 is input to the simulator main application 28 using the dedicated API 32. The simulator main application 28 obtains a moving image resolution original image and a still image resolution still image from a moving image input using the dedicated API 32.

シミュレータメインアプリ28はDirectX31を利用して入力された動画像及び動画ファイル23と、専用API32を利用して入力された動画像から得られた動画像用解像度の動画像とを原画像とし、原画像に対してトリミング及び縮小処理を行う。   The simulator main application 28 uses a moving image and moving image file 23 input using DirectX 31 and a moving image with a moving image resolution obtained from a moving image input using the dedicated API 32 as an original image. Trim and reduce the image.

シミュレータメインアプリ28は原画像に対してトリミングを行ってメイクアップ前画像を得る。また、シミュレータメインアプリ28は原画像に対して縮小処理を行って顔認識処理用画像を得る。顔認識処理部33は、顔認識処理用画像からユーザの顔を認識するための後述するようなトラッキングポイント34を、FFT(高速フーリエ変換)により得る。   The simulator main application 28 trims the original image to obtain a pre-makeup image. Further, the simulator main application 28 performs a reduction process on the original image to obtain a face recognition processing image. The face recognition processing unit 33 obtains a tracking point 34 to be described later for recognizing the user's face from the face recognition processing image by FFT (Fast Fourier Transform).

メイクアップ処理部35は、トラッキングポイント34に基づき、メイクアップ前画像に含まれるユーザの顔に、ファンデーション,眉,シャドウ,口紅,チークから成るメイクアップを施してメイクアップ後画像を得る。メイクアップ処理部35は、ファンデーション処理部36,眉処理部37,シャドウ処理部38,口紅処理部39,チーク処理部40を含む構成である。   Based on the tracking point 34, the makeup processing unit 35 performs makeup including foundation, eyebrows, shadow, lipstick, and teak on the user's face included in the pre-makeup image to obtain a post-makeup image. The makeup processing unit 35 includes a foundation processing unit 36, an eyebrow processing unit 37, a shadow processing unit 38, a lipstick processing unit 39, and a cheek processing unit 40.

なお、メイクアップ処理部35はメイクアップ後画像のようにメイクアップする為の商品情報41をメイクアップ後画像に含ませることができる。動画サーバ42は、メイクアップ前画像およびメイクアップ後画像を共有メモリ27に書き込むと共に、メイクアップ前画像およびメイクアップ後画像を動画ファイル26として出力することもできる。   It should be noted that the makeup processing unit 35 can include product information 41 for makeup as in the post-makeup image in the post-makeup image. The moving image server 42 can write the pre-makeup image and the post-makeup image in the shared memory 27 and output the pre-makeup image and the post-makeup image as the moving image file 26.

インターフェースアプリ29は、ActiveXコントローラ50及びActiveXビュアー51を利用する、動画コントロールオブジェクト52,動画表示オブジェクト53及びその他のコントローラ54を含む構成である。なお、インターフェースアプリ29とシミュレータメインアプリ28とはActiveX&Socketによる連携を図っている。   The interface application 29 includes a moving image control object 52, a moving image display object 53, and other controllers 54 that use the ActiveX controller 50 and the ActiveX viewer 51. Note that the interface application 29 and the simulator main application 28 are linked by ActiveX & Socket.

インターフェースアプリ29はActiveXビュアー51を利用して、供給メモリ27に書き込まれているメイクアップ前画像およびメイクアップ後画像を前述したモニタ7に表示することができる。   The interface application 29 can display the pre-makeup image and the post-makeup image written in the supply memory 27 on the monitor 7 using the ActiveX viewer 51.

シミュレータメインアプリ28は、専用API32を利用して入力された動画像から得られた静止画用解像度の静止画像に対してトリミング及び縮小処理を行う。シミュレータメインアプリ28は静止画用解像度の静止画像に対してトリミングを行なう。さらに、シミュレータメインアプリ28は静止画用解像度の静止画像に対して縮小処理を行って顔認識処理用画像を得る。顔認識処理部43は、顔認識処理用画像からユーザの顔を認識する為の後述するようなトラッキングポイント44を得る。   The simulator main application 28 performs trimming and reduction processing on a still image having a still image resolution obtained from a moving image input using the dedicated API 32. The simulator main application 28 trims a still image having a still image resolution. Further, the simulator main application 28 performs a reduction process on the still image having the still image resolution to obtain a face recognition processing image. The face recognition processing unit 43 obtains a tracking point 44 described later for recognizing the user's face from the face recognition processing image.

シミュレータメインアプリ28はトラッキングポイント44に基づき、トリミングを行った動画像に含まれるユーザの顔から詳細部位を抽出し、その詳細部位から顔立ち診断および肌色診断に用いるタイプ、肌色等の追加情報を得て、トラッキングポイント44に追加情報を付加したトラッキングポイント45と、専用API32を利用して入力された動画像から得られた静止画用解像度の静止画像とを静止画システム25に出力する。   Based on the tracking point 44, the simulator main application 28 extracts a detailed part from the user's face included in the trimmed moving image, and obtains additional information such as the type and skin color used for the face diagnosis and the skin color diagnosis from the detailed part. Then, the tracking point 45 with additional information added to the tracking point 44 and the still image with the still image resolution obtained from the moving image input using the dedicated API 32 are output to the still image system 25.

静止画システム25は、トラッキングポイント45を使用し、前述した顔立ち分析ロジックおよび肌分析ロジックにより静止画301の顔立ち診断および肌色診断を行い、その結果を表す画面イメージ302をモニタ7に表示できる。その他、静止画システム25は画面イメージ303〜309をモニタ7に表示することもできる。   The still image system 25 can use the tracking point 45 to perform the face diagnosis and the skin color diagnosis of the still image 301 by using the face analysis logic and the skin analysis logic described above, and display a screen image 302 representing the result on the monitor 7. In addition, the still image system 25 can also display the screen images 303 to 309 on the monitor 7.

図16は、シミュレータメインアプリが行なう処理を表す画面イメージ図である。画面イメージ400はメイクアップ前画像を表示した例を表している。画面イメージ401は顔認識処理用画像から得たトラッキングポイント34をメイクアップ前画像に重ねて表示した例を表している。また、画面イメージ402はトラッキングポイント34に基づいてメイクアップ前画像に含まれるユーザの顔にメイクアップを施したメイクアップ後画像を表示した例を表している。   FIG. 16 is a screen image diagram showing processing performed by the simulator main application. A screen image 400 represents an example of displaying a pre-makeup image. A screen image 401 represents an example in which the tracking point 34 obtained from the face recognition processing image is displayed superimposed on the pre-makeup image. A screen image 402 represents an example in which a post-makeup image obtained by applying makeup to the user's face included in the pre-makeup image based on the tracking point 34 is displayed.

以下、シミュレータメインアプリ28が行なう処理のうち、顔認識処理,メイクアップ処理の詳細について図面を参照しつつ順番に説明していく。なお、本実施例では、メイクアップ処理の一例として、ファンデーション処理,眉処理,シャドウ処理,口紅処理及びチーク処理から成るメイクアップ処理を説明するが、他の組み合わせであってもよい。   Hereinafter, details of the face recognition process and the makeup process among the processes performed by the simulator main application 28 will be described in order with reference to the drawings. In this embodiment, a makeup process including a foundation process, an eyebrow process, a shadow process, a lipstick process, and a cheek process is described as an example of the makeup process, but other combinations may be used.

(顔認識処理)
図17はメイクアップ前画像に含まれるユーザの顔のイメージ画像である。図18はトラッキングポイントを表す一例のイメージ図である。シミュレータメインアプリ28の顔認識処理部33は、図17のようなイメージ画像からユーザの顔を認識する為の図18のような45点のトラッキングポイント34を得る。図18のトラッキングポイント34は一例であって、制御部8の処理能力やモニタ7の精細度に応じて調整してもよい。
(Face recognition processing)
FIG. 17 is an image of the user's face included in the pre-makeup image. FIG. 18 is an image diagram of an example showing tracking points. The face recognition processing unit 33 of the simulator main application 28 obtains 45 tracking points 34 as shown in FIG. 18 for recognizing the user's face from the image as shown in FIG. The tracking point 34 in FIG. 18 is an example, and may be adjusted according to the processing capability of the control unit 8 and the definition of the monitor 7.

このように、メイクアップ前画像に含まれるユーザの顔からトラッキングポイント34を得ることにより、メイクアップ処理部35はトラッキングポイント34と関連付けてメイクアップの施し方や色を図19のようなメイクアップ処理パラメータファイルに設定しておくことができる。   In this manner, by obtaining the tracking point 34 from the user's face included in the pre-makeup image, the makeup processing unit 35 associates the tracking point 34 with the makeup method and color as shown in FIG. It can be set in the processing parameter file.

図19はメイクアップ処理パラメータファイルの一例の構成図である。図19のメイクアップ処理パラメータファイルは、目元,口元,チーク等ごとにトラッキングポイント34と関連付けてメイクアップの施し方や色が設定されているものである。なお、メイクアップ処理パラメータファイルはメイクアップパターン(イメージ)毎に設定されるものである。図19のメイクアップ処理パラメータファイルは、クラスエレガンスの例を表している。   FIG. 19 is a block diagram of an example of a makeup process parameter file. The makeup process parameter file in FIG. 19 is a file in which makeup methods and colors are set in association with the tracking points 34 for each eye, mouth, cheek, and the like. The makeup process parameter file is set for each makeup pattern (image). The makeup process parameter file in FIG. 19 represents an example of class elegance.

(口紅処理)
シミュレータメインアプリ28に含まれる口紅処理部39は図20に示すように唇8点及び鼻3点のトラッキングポイント34を参照し、口紅処理を行う。図20は口紅処理により参照されるトラッキングポイントを示すイメージ図である。
(Lipstick treatment)
As shown in FIG. 20, the lipstick processing unit 39 included in the simulator main application 28 refers to the tracking points 34 of the eight lips and the three noses to perform lipstick processing. FIG. 20 is an image diagram showing tracking points referred to by the lipstick process.

図21は口紅処理を示す一例のフローチャートである。口紅処理は大別するとステップS10の前準備処理とステップS20の色塗り処理とで構成される。前準備処理は、ステップS11の切出し&回転処理,ステップS12の輪郭抽出用画像の作成処理,ステップS13の輪郭抽出処理,ステップS14のスプライン曲線生成処理,ステップS15の回転戻し処理,ステップS16の色塗りマップ生成処理とで構成される。色塗り処理は、ステップS21の色塗りマップに基づく色塗り処理,ステップS22のデバック&デザイン用描画処理とで構成される。   FIG. 21 is a flowchart illustrating an example of lipstick processing. The lipstick process is roughly divided into a preparatory process in step S10 and a color painting process in step S20. The pre-preparation process includes a cut-out and rotation process in step S11, a contour extraction image creation process in step S12, a contour extraction process in step S13, a spline curve generation process in step S14, a rotation return process in step S15, and a color in step S16. And a paint map generation process. The color painting process includes a color painting process based on the color painting map in step S21 and a debug & design drawing process in step S22.

ステップS11の切出し&回転処理に進み、口紅処理部39は、顔認識処理用画像からユーザの顔の唇を含む部分画像500を切り出し、その部分画像500を処理用の姿勢に回転させて部分画像501を得る。   Proceeding to the cutout and rotation process in step S11, the lipstick processing unit 39 cuts out the partial image 500 including the lips of the user's face from the face recognition processing image, and rotates the partial image 500 to the processing posture. Get 501.

ステップS12の輪郭抽出用画像の作成処理に進み、口紅処理部39は部分画像501から輪郭抽出用画像を作成する。ステップS13の輪郭抽出処理に進み、口紅処理部39は輪郭抽出用画像から唇の輪郭を部分画像502に示すようにポイントで抽出する。   Proceeding to the contour extraction image creation process in step S 12, the lipstick processing unit 39 creates a contour extraction image from the partial image 501. Proceeding to the contour extraction process in step S 13, the lipstick processing unit 39 extracts the lip contour from the contour extraction image using points as shown in the partial image 502.

図22は輪郭抽出処理を表す一例のイメージ図である。輪郭抽出用画像600は唇8点及び鼻3点のトラッキングポイントが重ねて表示されている。口紅処理部39は、唇8点及び鼻3点のトラッキングポイントを元に再探索して輪郭抽出用画像601のポイントを抽出する。   FIG. 22 is an image diagram showing an example of the contour extraction process. The contour extraction image 600 is displayed with 8 lips and 3 nose tracking points superimposed. The lipstick processing unit 39 re-searches based on the tracking points of 8 lips and 3 noses, and extracts the points of the contour extraction image 601.

図23は輪郭抽出用画像600の唇8点及び鼻3点のトラッキングポイントと、唇8点及び鼻3点のトラッキングポイントを元に再探索して抽出した輪郭抽出用画像601のポイントとの比較画面である。なお、上記再探索が不調な場合は輪郭抽出用画像600の唇8点及び鼻3点のトラッキングポイントから算出した図24のようなデフォルトポイントを採用する。   FIG. 23 compares the tracking points of the lips 8 points and 3 noses of the contour extracting image 600 with the points of the contour extracting image 601 extracted by re-searching based on the tracking points of 8 lips and 3 noses. It is a screen. When the re-search is not successful, the default points as shown in FIG. 24 calculated from the tracking points of 8 lips and 3 noses of the contour extraction image 600 are employed.

図24は唇8点及び鼻3点のトラッキングポイントからデフォルトポイントを求める処理を表した一例のイメージ図である。口紅処理部39は鼻の3点のトラッキングポイントを参照し、上唇5点に対してデフォルトポイントを求める。   FIG. 24 is an image diagram showing an example of processing for obtaining a default point from tracking points of 8 lips and 3 noses. The lipstick processing unit 39 refers to the three tracking points of the nose and obtains default points for the five upper lips.

ステップS14のスプライン曲線生成処理に進み、口紅処理部39は輪郭抽出用画像601のポイント又は図24のようなデフォルトポイントを2次スプラインで補間し、図25に示すような輪郭を完成させる。図25は、ポイント又はデフォルトポイントから輪郭を完成させる処理を表したイメージ図である。部分画像503のように唇の輪郭が完成すると、口紅処理部39はステップS15に進み、ステップS11の切出し&回転処理で行った回転を元に戻す回転戻し処理を行なう。   Proceeding to the spline curve generation process in step S14, the lipstick processing unit 39 interpolates the points of the contour extraction image 601 or the default points as shown in FIG. 24 with a quadratic spline to complete the contours as shown in FIG. FIG. 25 is an image diagram showing processing for completing a contour from a point or a default point. When the contour of the lips is completed as in the partial image 503, the lipstick processing unit 39 proceeds to step S15, and performs a rotation return process that restores the rotation performed in the cut-out and rotation process in step S11.

ステップS16の色塗りマップ生成処理に進み、口紅処理部39は部分画像700の明度および彩度から色塗りの強さを決める色塗りマップを生成する。図26は色塗りマップ生成処理を表した一例のイメージ図である。具体的に、口紅処理部39は明度および彩度から色塗りの強さを表すグレースケール画像701を生成する。口紅処理部39は、ステップS14のスプライン曲線生成処理で完成させた唇の輪郭で囲まれた部分画像702のみを色塗りマップ504としてグレースケール画像701から切り出す。   Proceeding to the color painting map generation process of step S16, the lipstick processing unit 39 generates a color painting map that determines the strength of color painting from the brightness and saturation of the partial image 700. FIG. 26 is an image diagram illustrating an example of a color painting map generation process. Specifically, the lipstick processing unit 39 generates a gray scale image 701 representing the intensity of color coating from the brightness and saturation. The lipstick processing unit 39 cuts out only the partial image 702 surrounded by the outline of the lips completed by the spline curve generation processing in step S 14 from the gray scale image 701 as the color painting map 504.

ステップS21の色塗りマップに基づく色塗り処理に進み、口紅処理部39はステップS16の色塗りマップ生成処理で生成した色塗りマップ504と、図19のようなメイクアップ処理パラメータファイルに設定されているメイクアップの施し方や指定色に基づいてメイクアップ前画像に対して着色を行なう。   Proceeding to the color painting process based on the color painting map in step S21, the lipstick processing unit 39 is set in the color painting map 504 generated in the color painting map generation process in step S16 and the makeup process parameter file as shown in FIG. The pre-makeup image is colored based on the makeup method and the designated color.

図27は色塗りマップに基づく色塗り処理を表した一例のイメージ図である。口紅処理部39は図19のようなメイクアップ処理パラメータファイル801に設定されているメイクアップの施し方や指定色と、ステップS16の色塗りマップ生成処理で生成した色塗りマップ802とに基づいて、メイクアップ前画像803に対して着色を行い、メイクアップ後画像804を得る。   FIG. 27 is an image diagram illustrating an example of a color painting process based on the color painting map. The lipstick processing unit 39 is based on the makeup application method and designated color set in the makeup processing parameter file 801 as shown in FIG. 19 and the color painting map 802 generated by the color painting map generation processing in step S16. Then, the pre-makeup image 803 is colored to obtain a post-makeup image 804.

そして、ステップS22のデバック&デザイン用描画処理に進み、口紅処理部39はデバック&デザイン用描画の処理を行ったあと、口紅処理を終了する。   Then, the process proceeds to the debug & design drawing process in step S22. After the lipstick processing unit 39 performs the debug & design drawing process, the lipstick process ends.

(シャドウ処理)
シミュレータメインアプリ28に含まれるシャドウ処理部38は図28に示すように左右別に目3点及び眉1点のトラッキングポイント34を参照し、シャドウ処理を行う。図28はシャドウ処理により参照されるトラッキングポイントを示すイメージ図である。
(Shadow processing)
As shown in FIG. 28, the shadow processing unit 38 included in the simulator main application 28 refers to the tracking points 34 of three eyes and one eyebrow separately for left and right, and performs shadow processing. FIG. 28 is an image diagram showing tracking points referred to by shadow processing.

図29はシャドウ処理を示す一例のフローチャートである。シャドウ処理は大別するとステップS30の前準備処理とステップS40の色塗り処理とで構成される。前準備処理は、ステップS31の基本輪郭の生成処理で構成される。   FIG. 29 is a flowchart illustrating an example of shadow processing. The shadow process is roughly divided into a preparatory process in step S30 and a color painting process in step S40. The pre-preparation process includes the basic contour generation process in step S31.

色塗り処理は、色塗りパターン分繰り返し行なう、ステップS41の色塗り輪郭の生成処理,ステップS42の色塗り中心の生成処理,ステップS43の色塗りマップの生成処理,ステップS44の色塗りマップに基づく色塗り処理,ステップS45のデバック&デザイン用描画処理とで構成される。   The color painting process is repeated for the color painting pattern, based on the color painting outline generation process in step S41, the color painting center generation process in step S42, the color painting map generation process in step S43, and the color painting map in step S44. It consists of a color painting process and a debug & design drawing process in step S45.

ステップS31の基本輪郭の生成処理に進み、シャドウ処理部38は、顔認識処理用画像からユーザの顔の目の形状を部分画像900のように得る。図30は、基本輪郭の生成処理を表す一例のイメージ図である。   Proceeding to the basic contour generation processing in step S31, the shadow processing unit 38 obtains the shape of the eyes of the user's face from the face recognition processing image as in the partial image 900. FIG. 30 is an image diagram illustrating an example of basic contour generation processing.

シャドウ処理部38は色塗り輪郭の基本となる輪郭を生成するため、部分画像1001に示すように、目の中心から上下方向を探索して目の輪郭(上辺境界&下辺境界)を2点認識する。シャドウ処理部38は、認識した目の輪郭2点,目尻及び目頭の4点に、スプライン補間で生成した4点を追加して、計8点によるポリゴンを部分画像1002のように生成する。   Since the shadow processing unit 38 generates a contour that is the basis of the color painting contour, as shown in the partial image 1001, the vertical direction is searched from the center of the eye to recognize two points of the eye contour (upper boundary & lower boundary). To do. The shadow processing unit 38 adds four points generated by spline interpolation to the recognized two points of the outline of the eye, the corner of the eye, and the four points of the eye, and generates a polygon with a total of eight points as in the partial image 1002.

ステップS41の色塗り輪郭の生成処理に進み、シャドウ処理部38は色塗り輪郭を部分画像901のように生成する。図31は色塗り輪郭の生成処理を表す一例のイメージ図である。シャドウ処理部38は色塗り輪郭を生成するため、部分画像1101に示すように、目尻及び目頭を基準に色塗り輪郭を生成する。なお、輪郭の拡張、頂点のシフト等についてはGUIでパラメータ指定するようにしてもよい。   Proceeding to the color painting contour generation process in step S41, the shadow processing unit 38 creates a color painting contour like the partial image 901. FIG. 31 is an image diagram illustrating an example of the color painting contour generation process. Since the shadow processing unit 38 generates a colored outline, as shown in the partial image 1101, it generates a colored outline based on the corners of the eyes and the eyes. It should be noted that parameters such as contour expansion and vertex shift may be designated by GUI.

ステップS42の色塗り中心の生成処理に進み、シャドウ処理部38は色塗り中心位置を部分画像902の「●」ように生成する。ステップS43の色塗りマップの生成処理に進み、シャドウ処理部38は部分画像903のように、色塗りの強さを決める色塗りマップを生成する。   Proceeding to the color painting center generation process in step S 42, the shadow processing unit 38 generates the color painting center position as “●” in the partial image 902. Proceeding to the color painting map generation process of step S43, the shadow processing unit 38 generates a color painting map that determines the strength of color painting as in the partial image 903.

具体的に、色塗りマップ生成処理は色塗り中心からポリゴンの辺までの距離に対応して塗りの強さを決定する。例えばシャドウ処理部38は辺に近いほど塗りの強さを弱めるように色塗りマップを決定する。なお、色塗りマップ生成処理は色塗り輪郭から基本輪郭を除いた部分を対象としている。   Specifically, in the color painting map generation process, the strength of painting is determined in accordance with the distance from the color painting center to the side of the polygon. For example, the shadow processing unit 38 determines the color coating map so that the closer to the side, the weaker the coating strength. It should be noted that the color map generation process is targeted for a portion obtained by removing the basic contour from the color contour.

シャドウ処理部38は生成した色塗りマップに対し、図32に示すように、ぼかし処理を掛けることで更に滑らかなグラデーションを生成する。図32は、ぼかし処理を掛けていない色塗りマップと、ぼかし処理を掛けている色塗りマップとを表した一例のイメージ図である。   As shown in FIG. 32, the shadow processing unit 38 generates a smoother gradation by applying a blurring process to the generated color painting map. FIG. 32 is an image diagram of an example showing a color map that has not been subjected to the blurring process and a color map that has been subjected to the blur process.

ステップS44の色塗りマップに基づく色塗り処理に進み、シャドウ処理部38はステップS43の色塗りマップの生成処理で生成した色塗りマップ903と、図19のようなメイクアップ処理パラメータファイルに設定されているメイクアップの施し方や指定色に基づいてメイクアップ前画像に対して着色を行ない、メイクアップ後画像を得る。   Proceeding to the color painting process based on the color painting map in step S44, the shadow processing unit 38 is set in the color painting map 903 generated in the color painting map generation process in step S43 and the makeup process parameter file as shown in FIG. The pre-makeup image is colored on the basis of the makeup application and the designated color, thereby obtaining a post-makeup image.

そして、ステップS45のデバック&デザイン用描画処理に進み、シャドウ処理部38はデバック&デザイン用描画の処理を行ったあと、シャドウ処理を終了する。なお、シャドウ処理部38はステップS41〜S45の処理を色塗りパターン分だけ繰り返し行なうことで、多色塗りを実現することもできる。   Then, the process proceeds to the debug & design drawing process in step S45, and after performing the debug & design drawing process, the shadow processing unit 38 ends the shadow process. Note that the shadow processing unit 38 can also realize multicolor coating by repeatedly performing the processing of steps S41 to S45 for the color coating pattern.

(チーク処理)
シミュレータメインアプリ28に含まれるチーク処理部40は図33に示すように目尻&口角(左右別)、眼間&鼻中心(スタビライズ用)のトラッキングポイント34を参照して、チーク処理を行う。図33はチーク処理により参照されるトラッキングポイントを示すイメージ図である。
(Cheek treatment)
As shown in FIG. 33, the cheek processing unit 40 included in the simulator main application 28 performs cheek processing with reference to the tracking points 34 of the corners of the eyes and the corners of the mouth (separate left and right) and the center of the eyes and the nose (for stabilization). FIG. 33 is an image diagram showing tracking points referred to by the cheek processing.

図34はチーク処理を示す一例のフローチャートである。チーク処理は、ステップS50の色塗り輪郭の生成処理,ステップS51の色塗り処理,ステップS52のデバック&デザイン用描画処理とで構成される。   FIG. 34 is a flowchart illustrating an example of cheek processing. The cheek process is composed of a color painting outline generation process in step S50, a color painting process in step S51, and a debug & design drawing process in step S52.

ステップS50の色塗り輪郭の生成処理に進み、チーク処理部40は色塗り輪郭を生成するため、目尻及び口角を基準に色塗り輪郭として輪郭ポリゴンを生成する。図35は色塗り輪郭を表した一例のイメージ図である。なお、輪郭ポリゴンの点数,大きさ,形状または位置等はGUIでパラメータ指定するようにしてもよい。   Proceeding to the color painting contour generation processing in step S50, the cheek processing unit 40 creates a contour polygon as a color painting contour based on the corners of the eyes and the mouth corners in order to generate a color painting contour. FIG. 35 is an image diagram showing an example of a color outline. Note that the number, size, shape, position, etc. of the contour polygon may be designated by a GUI.

ステップS51の色塗り処理に進み、チーク処理部40は色塗り中心から輪郭ポリゴンの辺までの距離に対応して塗りの強さを決定する。なお、塗りの強さの決定に処理コストが掛かりすぎる場合は、解像度(GUIでパラメータ指定)を落として(モザイク状に間引きして)塗りの強さを決定してもよい。チーク処理部40は決定した塗りの強さと、図19のようなメイクアップ処理パラメータファイルに設定されているメイクアップの施し方や指定色に基づいてメイクアップ前画像に対して着色を行ない、メイクアップ後画像を得る。   Proceeding to the color painting process in step S51, the cheek processing unit 40 determines the strength of the paint corresponding to the distance from the color painting center to the side of the contour polygon. Note that if the processing cost is too high for determining the coating strength, the coating strength may be determined by reducing the resolution (parameter specification using the GUI) (thinning in a mosaic pattern). The cheek processing unit 40 performs coloring on the pre-makeup image based on the determined coating strength, the makeup method and the designated color set in the makeup processing parameter file as shown in FIG. Get an image after up.

そして、ステップS52のデバック&デザイン用描画処理に進み、チーク処理部40はデバック&デザイン用描画の処理を行ったあと、チーク処理を終了する。   Then, the process proceeds to the debug & design drawing process in step S52, and the cheek processing unit 40 ends the cheek process after performing the debug & design drawing process.

(眉処理)
シミュレータメインアプリ28に含まれる眉処理部37は図36に示すように左右別に目尻,目中心および眉2点のトラッキングポイント34を参照し、眉処理を行う。図36は眉処理により参照されるトラッキングポイントを示すイメージ図である。
(Eyebrow processing)
As shown in FIG. 36, the eyebrow processing unit 37 included in the simulator main application 28 refers to the right and left eye corners, the eye center, and the two eyebrow tracking points 34 to perform eyebrow processing. FIG. 36 is an image diagram showing tracking points referred to by eyebrow processing.

図37は眉処理を示す一例のフローチャートである。眉処理は大別するとステップS60の眉輪郭抽出処理,ステップS70の元眉領域の消去処理,ステップS80の眉形状の変形処理,ステップS90の変形眉の貼付け処理で構成される。   FIG. 37 is a flowchart illustrating an example of eyebrow processing. The eyebrow process is roughly divided into an eyebrow outline extraction process in step S60, an original eyebrow area erasing process in step S70, an eyebrow shape deforming process in step S80, and a deformed eyebrow pasting process in step S90.

元眉領域の消去処理は、ステップS71の領域の膨張処理,ステップS72の眉の消去処理で構成される。眉形状の変形処理は、ステップS81の変形指定に対応した指示曲線の作成処理,ステップS82の変形眉の生成処理で構成される。   The original eyebrow area erasing process includes the area expanding process in step S71 and the eyebrow erasing process in step S72. The eyebrow shape deformation process includes an instruction curve creation process corresponding to the deformation designation in step S81 and a deformed eyebrow generation process in step S82.

ステップS60の眉輪郭抽出処理に進み、眉処理部37は顔認識処理用画像からユーザの顔の眉の形状を部分画像2001のように得る。図38は、眉輪郭抽出処理を表す一例のイメージ図である。眉処理部37は眉の輪郭を抽出するため、部分画像2101に示すように、眉尻(実際には眉の中心付近)を中心に左右に眉を探索する。眉処理部37は部分画像2102に示すように、探索結果から眉の輪郭形状を認識する。   Proceeding to the eyebrow contour extraction process in step S60, the eyebrow processing unit 37 obtains the shape of the eyebrow of the user's face from the face recognition processing image as a partial image 2001. FIG. 38 is an image diagram illustrating an example of an eyebrow contour extraction process. In order to extract the outline of the eyebrows, the eyebrow processing unit 37 searches the eyebrows to the left and right around the buttocks (actually near the center of the eyebrows) as shown in the partial image 2101. As shown in the partial image 2102, the eyebrow processing unit 37 recognizes the outline shape of the eyebrows from the search result.

ステップS71の領域の膨張処理に進み、眉処理部37は認識した眉の輪郭形状を表す領域を膨張させる。ステップS72の眉の消去処理に進み、眉処理部37は膨張させた領域を付近の肌色を使って塗りつぶすことで眉を消去する。また、眉処理部37は膨張させた領域の境界部分に、なじませる処理を施す。   Proceeding to the expansion processing of the region in step S71, the eyebrow processing unit 37 expands the region representing the recognized outline shape of the eyebrow. Proceeding to the eyebrow erasing process in step S72, the eyebrow processing unit 37 erases the eyebrows by painting the expanded region using the skin color in the vicinity. In addition, the eyebrow processing unit 37 performs a process of blending in the boundary portion of the expanded region.

ステップS81の変形指定に対応した指示曲線の作成処理に進み、眉処理部37は認識した眉の輪郭形状を表す領域(スケルトン)を指定に従って変形させる。図39は変形指定に対応した指示曲線の作成処理を表す一例のイメージ図である。   Proceeding to the instruction curve creation process corresponding to the deformation designation in step S81, the eyebrow processing unit 37 deforms the recognized area (skeleton) representing the outline shape of the eyebrow according to the designation. FIG. 39 is an image diagram showing an example of a process for creating an instruction curve corresponding to the deformation designation.

眉処理部37は、部分画像2201に示すように、認識した眉の輪郭形状を表す領域を横方向の軸線と縦方向の複数のタンザクから成るスケルトン2202に置き換え、軸線の形状とタンザクの高さを変えることで、例えばスケルトン2203のように変形処理を施すことができる。   As shown in the partial image 2201, the eyebrow processing unit 37 replaces the region representing the recognized outline shape of the eyebrow with a skeleton 2202 composed of a horizontal axis and a plurality of vertical tangs, and the shape of the axis and the height of the tangs. For example, the transformation process can be performed like a skeleton 2203.

ステップS82の変形眉の生成処理に進み、眉処理部37はスケルトン2203から変形眉を生成する。ステップS90の変形眉の貼付け処理に進み、眉処理部37は変形眉をメイクアップ前画像に対して貼付けて、メイクアップ後画像を得る。   Proceeding to the deformed eyebrow generation process in step S <b> 82, the eyebrow processing unit 37 generates a deformed eyebrow from the skeleton 2203. Proceeding to the process of attaching the deformed eyebrows in step S90, the eyebrow processing unit 37 attaches the deformed eyebrows to the pre-makeup image to obtain an image after make-up.

(ファンデーション処理)
シミュレータメインアプリ28に含まれるファンデーション処理部36は図40に示すように左右別に目尻,目頭および眉1点、眼間および鼻中心のトラッキングポイント34を参照し、ファンデーション処理を行う。図40はファンデーション処理により参照されるトラッキングポイントを示すイメージ図である。
(Foundation treatment)
As shown in FIG. 40, the foundation processing unit 36 included in the simulator main application 28 refers to the right and left eye corners, the eyes and one eyebrow, and the tracking points 34 between the eyes and the center of the nose to perform the foundation processing. FIG. 40 is an image diagram showing tracking points referred to by the foundation process.

図41はファンデーション処理を示す一例のフローチャートである。ファンデーション処理は、ステップS101の輪郭の生成処理,ステップS102の対象画像へのぼかし処理,ステップS103の画像の貼り付け処理で構成される。なお、ステップS101〜S103の処理は対象エリア分、繰り返し行われる。   FIG. 41 is a flowchart illustrating an example of the foundation process. The foundation process includes a contour generation process in step S101, a blurring process on the target image in step S102, and an image pasting process in step S103. Note that the processing of steps S101 to S103 is repeated for the target area.

ステップS101の輪郭の生成処理に進み、ファンデーション処理部36は図42のイメージ画像に示すように、額,鼻,頬(左右)の3種類(4箇所)の輪郭を生成する。図42は輪郭を表した一例のイメージ画像である。なお、各輪郭のサイズ,位置等はGUIでパラメータ指定するようにしてもよい。   Proceeding to the contour generation processing in step S101, the foundation processing unit 36 generates three types (four locations) of the forehead, nose, and cheek (left and right) as shown in the image of FIG. FIG. 42 is an example of an image representing an outline. It should be noted that the size, position, etc. of each contour may be designated by a GUI.

ステップS102の対象画像へのぼかし処理に進み、ファンデーション処理部36は生成した輪郭に対応する対象画像へのぼかし処理を図43のように行なう。図43は、ぼかし処理前の元画像と、ぼかし処理後の元画像とを表した一例のイメージ図である。対象画像へのぼかし処理により、ファンデーション処理部36は肌の細かい荒れ等を平滑化することができる。   Proceeding to the blurring process on the target image in step S102, the foundation processing unit 36 performs the blurring process on the target image corresponding to the generated contour as shown in FIG. FIG. 43 is an image diagram illustrating an example of an original image before blurring processing and an original image after blurring processing. By the blurring process on the target image, the foundation processing unit 36 can smooth the fine roughness of the skin.

ステップS103の画像の貼り付け処理に進み、ファンデーション処理部36は、ぼかし処理後の対象画像をメイクアップ前画像の額,鼻,頬(左右)の3種類(4箇所)の輪郭に貼り付け、メイクアップ後画像を得る。   Proceeding to the image pasting process in step S103, the foundation processing unit 36 pastes the target image after the blurring process on the three types (four locations) of the forehead, nose, and cheek (left and right) contours of the pre-makeup image, Get an image after makeup.

以上、本発明によれば、動画像に含まれるユーザの顔に、少ない処理負担で正確にメイクアップを施すことができる。なお、特許請求の範囲に記載した撮影手段はカメラ2に相当し、制御手段は制御部8に相当し、表示手段はモニタ7に相当し、顔認識処理手段は顔認識処理部33に相当し、メイクアップ処理手段はメイクアップ処理部35に相当し、操作手段は操作パネル4に相当し、ハーフミラー手段はハーフミラー3に相当し、印刷手段はプリンタ5に相当する。   As described above, according to the present invention, makeup can be accurately applied to a user's face included in a moving image with a small processing load. The photographing means described in the claims corresponds to the camera 2, the control means corresponds to the control unit 8, the display means corresponds to the monitor 7, and the face recognition processing means corresponds to the face recognition processing unit 33. The makeup processing means corresponds to the makeup processing unit 35, the operation means corresponds to the operation panel 4, the half mirror means corresponds to the half mirror 3, and the printing means corresponds to the printer 5.

また、本発明は、具体的に開示された実施例に限定されるものでなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   Further, the present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.

本発明のメイクアップシミュレーション装置1はリアルタイムシミュレーションである為、静止画によるものや従来のメイクアップシミュレーション装置1と異なり、瞬時に顔のトラッキングポイントを認識し、そのトラッキングポイントをもとにシミュレーションを行うことができるので、これまでできなかった以下のことも可能にしている。   Since the makeup simulation apparatus 1 of the present invention is a real-time simulation, unlike the one based on a still image or the conventional makeup simulation apparatus 1, the face tracking point is instantly recognized, and the simulation is performed based on the tracking point. Since it can, it also enables the following things that were not possible before.

本発明のメイクアップシミュレーション装置1はリアルタイムなシミュレーションが可能である。本発明のメイクアップシミュレーション装置1は、これまでのように正面顔だけでなく、横顔からのシミュレーション等も可能なため、頬紅等のシミュレーション効果やテクニックの確認が容易である。   The makeup simulation apparatus 1 of the present invention can perform real-time simulation. Since the makeup simulation apparatus 1 of the present invention can perform simulations not only from the front face but also from the side face as before, it is easy to check the simulation effect and technique such as blusher.

本発明のメイクアップシミュレーション装置1は、リアルタイムなシミュレーションになったことで、これまでの平面的な表現から、顔を立体としてとらえた分析や、立体感や質感の表現も可能になった。   Since the makeup simulation apparatus 1 of the present invention is a real-time simulation, it has become possible to analyze a face as a three-dimensional object and to express a three-dimensional feeling and texture from the conventional planar expression.

また、本発明のメイクアップシミュレーション装置1は、同時に何人もの顔認識が可能であるため、同時に何人ものリアルタイムなシミュレーションが可能である。本発明のメイクアップシミュレーション装置1は顔認識機能が優れていることから、個々の顔立ちにあわせて、あるいは男性、女性を自動的に分類し、顔立ちや分類にあわせたメイクアップが可能である。例えば本発明のメイクアップシミュレーション装置1は、カップルで同時に、それぞれのメイクアップシミュレーションが可能である。   In addition, since the makeup simulation apparatus 1 of the present invention can recognize a number of faces at the same time, a number of real-time simulations are possible at the same time. Since the makeup simulation apparatus 1 according to the present invention has an excellent face recognition function, makeup according to each feature or classification can be made according to each feature or automatically classifying men and women. For example, the makeup simulation apparatus 1 of the present invention is capable of performing each makeup simulation simultaneously with a couple.

本発明によるメイクアップシミュレーション装置の第一実施例の外観図である。1 is an external view of a first embodiment of a makeup simulation apparatus according to the present invention. メイクアップシミュレーション装置の第一実施例の断面図である。It is sectional drawing of the 1st Example of a makeup simulation apparatus. 本発明によるメイクアップシミュレーション装置の第二実施例の外観図である。It is an external view of the 2nd Example of the makeup simulation apparatus by this invention. メイクアップシミュレーション装置の第二実施例の断面図である。It is sectional drawing of the 2nd Example of a makeup simulation apparatus. 本発明によるメイクアップシミュレーション装置の第三実施例の外観図である。It is an external view of the 3rd Example of the makeup simulation apparatus by this invention. メイクアップシミュレーション装置の第三実施例の断面図である。It is sectional drawing of the 3rd Example of a makeup simulation apparatus. 本発明によるメイクアップシミュレーション装置の第四実施例の外観図である。It is an external view of 4th Example of the makeup simulation apparatus by this invention. メイクアップシミュレーション装置の第四実施例の断面図である。It is sectional drawing of 4th Example of a makeup simulation apparatus. 本発明によるメイクアップシミュレーション装置の第五実施例の外観図である。It is an external view of 5th Example of the makeup simulation apparatus by this invention. メイクアップシミュレーション装置の第五実施例の断面図である。It is sectional drawing of the 5th Example of a makeup simulation apparatus. メイクアップシミュレーション装置の第五実施例のハードウェア構成図である。It is a hardware block diagram of 5th Example of a makeup simulation apparatus. メイクアップシミュレーション装置が行なう処理の概略を表したフローチャートである。It is a flowchart showing the outline of the process which a makeup simulation apparatus performs. モニタに表示されるメイン画面及び操作パネルに表示される操作画面の一例のイメージ図である。It is an image figure of an example of the main screen displayed on a monitor, and the operation screen displayed on an operation panel. メイクアップシミュレーション装置が行なうメイクアップシミュレーション以外の処理を表すイメージ図である。It is an image figure showing processes other than the makeup simulation which a makeup simulation apparatus performs. 本発明によるメイクアップシミュレーションシステムの一実施例のシステム構成図である。1 is a system configuration diagram of an embodiment of a makeup simulation system according to the present invention. シミュレータメインアプリが行なう処理を表す画面イメージ図である。It is a screen image figure showing the process which a simulator main application performs. メイクアップ前画像に含まれるユーザの顔のイメージ画像である。It is an image of a user's face included in a pre-makeup image. トラッキングポイントを表す一例のイメージ図である。It is an image figure of an example showing a tracking point. メイクアップ処理パラメータファイルの一例の構成図である。It is a block diagram of an example of a makeup process parameter file. 口紅処理により参照されるトラッキングポイントを示すイメージ図である。It is an image figure which shows the tracking point referred by a lipstick process. 口紅処理を示す一例のフローチャートである。It is an example flowchart which shows a lipstick process. 輪郭抽出処理を表す一例のイメージ図である。It is an image figure of an example showing an outline extraction process. 輪郭抽出用画像600の唇8点及び鼻3点のトラッキングポイントと、唇8点及び鼻3点のトラッキングポイントを元に再探索して抽出した輪郭抽出用画像601のポイントとの比較画面である。It is a comparison screen between the tracking points of 8 lips and 3 noses of the contour extracting image 600 and the points of the contour extracting image 601 extracted by re-searching based on the tracking points of 8 lips and 3 noses. . 唇8点及び鼻3点のトラッキングポイントからデフォルトポイントを求める処理を表した一例のイメージ図である。It is an image figure of an example showing the process which calculates | requires a default point from the tracking points of eight lips and three noses. ポイント又はデフォルトポイントから輪郭を完成させる処理を表したイメージ図である。It is an image figure showing the process which completes an outline from a point or a default point. 色塗りマップ生成処理を表した一例のイメージ図である。It is an image figure of an example showing the color painting map production | generation process. 色塗りマップに基づく色塗り処理を表した一例のイメージ図である。It is an image figure of an example showing the color painting process based on a color painting map. シャドウ処理により参照されるトラッキングポイントを示すイメージ図である。It is an image figure which shows the tracking point referred by shadow processing. シャドウ処理を示す一例のフローチャートである。It is an example flowchart which shows a shadow process. 基本輪郭の生成処理を表す一例のイメージ図である。It is an image figure of an example showing the production | generation process of a basic outline. 色塗り輪郭の生成処理を表す一例のイメージ図である。It is an image figure of an example showing the production | generation process of a color painting outline. ぼかし処理を掛けていない色塗りマップと、ぼかし処理を掛けている色塗りマップとを表した一例のイメージ図である。It is an image figure of an example showing the color painting map which has not applied the blurring process, and the color painting map which has applied the blurring process. チーク処理により参照されるトラッキングポイントを示すイメージ図である。It is an image figure which shows the tracking point referred by a cheek process. チーク処理を示す一例のフローチャートである。It is a flowchart of an example which shows a cheek process. 色塗り輪郭を表した一例のイメージ図である。It is an image figure of an example showing a color painting outline. 眉処理により参照されるトラッキングポイントを示すイメージ図である。It is an image figure which shows the tracking point referred by eyebrow processing. 眉処理を示す一例のフローチャートである。It is an example flowchart which shows an eyebrow process. 眉輪郭抽出処理を表す一例のイメージ図である。It is an image figure of an example showing an eyebrow outline extraction process. 変形指定に対応した指示曲線の作成処理を表す一例のイメージ図である。It is an image figure of an example showing the creation process of the instruction | indication curve corresponding to a deformation | transformation designation | designated. ファンデーション処理により参照されるトラッキングポイントを示すイメージ図である。It is an image figure which shows the tracking point referred by foundation process. ファンデーション処理を示す一例のフローチャートである。It is a flowchart of an example which shows a foundation process. 輪郭を表した一例のイメージ画像である。It is an example image image showing an outline. ぼかし処理前の元画像と、ぼかし処理後の元画像とを表した一例のイメージ図である。It is an image figure of an example showing the original image before a blurring process, and the original image after a blurring process.

符号の説明Explanation of symbols

1 メイクアップシミュレーション装置
2 カメラ
3 ハーフミラー
4 操作パネル
5 プリンタ
6 照明
7 モニタ
8 制御部
9 透明板
10 演算処理装置
11 メモリ装置
12 ドライブ装置
13 補助記憶装置
14 記録媒体
15 タッチパネルモニタ
16 陳列ケース
17 ICタグリーダライタ
25 静止画システム
27 共有メモリ
28 シミュレータメインアプリ
29 インターフェースアプリ
33 顔認識処理部
34 トラッキングポイント
35 メイクアップ処理部
36 ファンデーション処理部
37 眉処理部
38 シャドウ処理部
39 口紅処理部
40 チーク処理部
41 商品情報
DESCRIPTION OF SYMBOLS 1 Makeup simulation apparatus 2 Camera 3 Half mirror 4 Operation panel 5 Printer 6 Illumination 7 Monitor 8 Control part 9 Transparent board 10 Arithmetic processing apparatus 11 Memory apparatus 12 Drive apparatus 13 Auxiliary storage apparatus 14 Recording medium 15 Touch panel monitor 16 Display case 17 IC Tag reader / writer 25 Still image system 27 Shared memory 28 Simulator main application 29 Interface application 33 Face recognition processing unit 34 Tracking point 35 Makeup processing unit 36 Foundation processing unit 37 Eyebrow processing unit 38 Shadow processing unit 39 Lipstick processing unit 40 Cheek processing unit 41 Product information

Claims (15)

ユーザの顔を撮影した動画像にメイクアップを施すメイクアップシミュレーションシステムであって、
ユーザの顔を撮影して動画像を出力する撮影手段と、
前記撮影手段から出力された動画像を受信し、前記動画像を画像処理して出力する制御手段と、
前記制御手段から出力された動画像を表示する表示手段とを備え、
前記制御手段は、前記動画像からユーザの顔を所定のトラッキングポイントに基づいて認識する顔認識処理手段と、
前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に所定のメイクアップを施して前記表示手段に出力するメイクアップ処理手段と
を備えることを特徴とするメイクアップシミュレーションシステム。
A makeup simulation system for applying makeup to a moving image of a user's face,
Photographing means for photographing a user's face and outputting a moving image;
Control means for receiving the moving image output from the photographing means, processing the moving image, and outputting the processed image;
Display means for displaying a moving image output from the control means,
The control means includes face recognition processing means for recognizing a user's face from the moving image based on a predetermined tracking point;
A makeup simulation system comprising: makeup processing means for applying predetermined makeup to a user's face included in the moving image based on the tracking point and outputting the result to the display means.
前記メイクアップ処理手段は、前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔にファンデーション処理を施すファンデーション処理手段と、
前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に口紅処理を施す口紅処理手段と、
前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に眉処理を施す眉処理手段と、
前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔にチーク処理を施すチーク処理手段と、
前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔にシャドウ処理を施すシャドウ処理手段と
のうち、少なくとも1つ以上を備えることを特徴とする請求項1記載のメイクアップシミュレーションシステム。
The makeup processing means includes a foundation processing means for performing a foundation process on a user's face included in the moving image based on the tracking point;
Lipstick processing means for performing lipstick processing on the face of the user included in the moving image based on the tracking point;
Eyebrow processing means for performing eyebrow processing on the face of the user included in the moving image based on the tracking point;
Cheek processing means for performing cheek processing on the face of the user included in the moving image based on the tracking point;
The makeup simulation system according to claim 1, further comprising at least one shadow processing unit that performs shadow processing on a user's face included in the moving image based on the tracking point.
前記メイクアップ処理手段は、前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に所定のメイクアップを施す輪郭を生成し、その輪郭に基づき色塗り処理を行うことを特徴とする請求項1記載のメイクアップシミュレーションシステム。   The makeup processing unit generates a contour for applying a predetermined makeup to a user's face included in the moving image based on the tracking point, and performs a color painting process based on the contour. 1. The makeup simulation system according to 1. 前記メイクアップ処理手段は、前記動画像に含まれるユーザの顔に複数種類のメイクアップを所定時間ごとに順次施して、メイクアップ後のイメージ画像を前記表示手段に出力することを特徴とする請求項1記載のメイクアップシミュレーションシステム。   The makeup processing unit sequentially performs a plurality of types of makeup on a user's face included in the moving image at predetermined time intervals, and outputs an image image after makeup to the display unit. Item 1. A makeup simulation system according to item 1. 前記イメージ画像のようにメイクアップする為の商品情報をメイクアップの種類毎に格納する格納手段を更に備え、
前記メイクアップ処理手段は、前記イメージ画像のようにメイクアップする為の商品情報を前記格納手段から取得して前記表示手段に出力することを特徴とする請求項4記載のメイクアップシミュレーションシステム。
It further comprises storage means for storing product information for makeup such as the image image for each type of makeup,
5. The makeup simulation system according to claim 4, wherein the makeup processing means acquires product information for makeup such as the image image from the storage means and outputs the product information to the display means.
前記メイクアップ処理手段は、前記動画像に含まれるユーザの顔のメイクアップ前および後のイメージ画像から成る比較画面を前記表示手段に出力することを特徴とする請求項1記載のメイクアップシミュレーションシステム。   2. The makeup simulation system according to claim 1, wherein the makeup processing means outputs a comparison screen comprising image images before and after makeup of the user's face included in the moving image to the display means. . ユーザが選択した物品の識別情報を読み取る読取手段と、
前記物品と前記識別情報とを対応付ける対応手段とを更に備え、
前記メイクアップ処理手段は、前記読取手段から読み取った前記識別情報に対応する前記物品を前記対応手段に基づいて特定し、その物品を用いて前記動画像に含まれるユーザの顔に所定のメイクアップを施したイメージ画像を前記表示手段に出力することを特徴とする請求項1記載のメイクアップシミュレーションシステム。
Reading means for reading the identification information of the article selected by the user;
A correspondence means for associating the article with the identification information;
The makeup processing means identifies the article corresponding to the identification information read from the reading means based on the correspondence means, and uses the article to perform a predetermined makeup on the user's face included in the moving image. 2. The makeup simulation system according to claim 1, wherein the image image subjected to the processing is output to the display means.
ユーザの顔を撮影した動画像にメイクアップを施すメイクアップシミュレーション装置であって、
ユーザの顔を撮影して動画像を出力する撮影手段と、
前記撮影手段から出力された動画像を受信し、前記動画像を画像処理して出力する制御手段と、
前記制御手段から出力された動画像を表示する表示手段とを備え、
前記制御手段は、前記動画像からユーザの顔を所定のトラッキングポイントに基づいて認識する顔認識処理手段と、
前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に所定のメイクアップを施して前記表示手段に出力するメイクアップ処理手段と
を備えることを特徴とするメイクアップシミュレーション装置。
A makeup simulation apparatus for applying makeup to a moving image obtained by photographing a user's face,
Photographing means for photographing a user's face and outputting a moving image;
Control means for receiving the moving image output from the photographing means, processing the moving image, and outputting the processed image;
Display means for displaying a moving image output from the control means,
The control means includes a face recognition processing means for recognizing a user's face from the moving image based on a predetermined tracking point;
A makeup simulation apparatus comprising: makeup processing means for applying predetermined makeup to a user's face included in the moving image based on the tracking point and outputting the result to the display means.
前記表示手段の表示方向側に設けられたハーフミラー手段を更に備え、
前記ハーフミラー手段は、前記表示手段に動画像が表示されているときに前記表示手段側からユーザ側への光を透過すると共に、前記表示手段に動画像が表示されていないときに前記ユーザ側からの光を反射すること
を特徴とする請求項8記載のメイクアップシミュレーション装置。
Further comprising half mirror means provided on the display direction side of the display means;
The half mirror means transmits light from the display means side to the user side when a moving image is displayed on the display means, and the user side when a moving image is not displayed on the display means The makeup simulation apparatus according to claim 8, wherein the makeup simulation apparatus reflects light from the apparatus.
前記表示手段の表示方向側に設けられたハーフミラー手段を更に備え、
前記撮影手段は前記ハーフミラー手段を透過すれば前記ユーザの顔を撮影可能な位置に配置され、
前記ハーフミラー手段は、前記表示手段側からユーザ側への光を透過すると共に、前記ユーザ側から前記撮影手段側への光を透過することを特徴とする請求項8記載のメイクアップシミュレーション装置。
Further comprising half mirror means provided on the display direction side of the display means;
The photographing means is arranged at a position where the user's face can be photographed if passing through the half mirror means,
9. The makeup simulation apparatus according to claim 8, wherein the half mirror means transmits light from the display means side to the user side and transmits light from the user side to the photographing means side.
前記表示手段に表示されているユーザの顔のメイクアップ後のイメージ画像を印刷する印刷手段を更に備えたことを特徴とする請求項8記載のメイクアップシミュレーション装置。   9. The makeup simulation apparatus according to claim 8, further comprising printing means for printing an image after makeup of the user's face displayed on the display means. 前記表示手段に表示されているユーザの顔のメイクアップ後のイメージ画像のようにメイクアップする為の商品を陳列する陳列手段を更に備えたことを特徴とする請求項8記載のメイクアップシミュレーション装置。   9. The makeup simulation apparatus according to claim 8, further comprising display means for displaying a product for makeup such as an image image after makeup of the user's face displayed on the display means. . ユーザが選択した物品の識別情報を読み取る読取手段と、
前記物品と前記識別情報とを対応付ける対応手段とを更に備え、
前記メイクアップ処理手段は、前記読取手段から読み取った前記識別情報に対応する前記物品を前記対応手段に基づいて特定し、その物品を用いて前記動画像に含まれるユーザの顔に所定のメイクアップを施したイメージ画像を前記表示手段に出力することを特徴とする請求項8記載のメイクアップシミュレーション装置。
Reading means for reading the identification information of the article selected by the user;
A correspondence means for associating the article with the identification information;
The makeup processing means identifies the article corresponding to the identification information read from the reading means based on the correspondence means, and uses the article to perform a predetermined makeup on the user's face included in the moving image. 9. The makeup simulation apparatus according to claim 8, wherein the image image subjected to the processing is output to the display means.
ユーザの顔を撮影した動画像にメイクアップを施すメイクアップシミュレーションシステムにおけるメイクアップシミュレーション方法であって、
制御手段が、撮影手段の撮影した動画像からユーザの顔を認識し、メイクアップシミュレーションを開始するステップと、
前記制御手段が、前記動画像に含まれるユーザの顔を所定のトラッキングポイントに基づいて認識するステップと、
前記制御手段が、前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に所定のメイクアップを施して前記表示手段に出力するステップと
を有することを特徴とするメイクアップシミュレーション方法。
A makeup simulation method in a makeup simulation system for applying makeup to a moving image obtained by photographing a user's face,
The control means recognizes the user's face from the moving image taken by the photographing means and starts a makeup simulation;
Recognizing the face of the user included in the moving image based on a predetermined tracking point;
And a step of applying a predetermined makeup to a face of a user included in the moving image based on the tracking point and outputting the makeup to the display unit.
少なくとも演算処理装置,記憶装置および出力装置を備えたコンピュータにおいて実行されるユーザの顔を撮影した動画像にメイクアップを施すメイクアップシミュレーションプログラムであって、
前記演算処理装置は、撮影手段の撮影した動画像からユーザの顔を認識し、メイクアップシミュレーションを開始するステップと、
前記動画像に含まれるユーザの顔を所定のトラッキングポイントに基づいて認識するステップと、
前記トラッキングポイントに基づいて前記動画像に含まれるユーザの顔に所定のメイクアップを施して前記出力装置に出力するステップと
を実行するメイクアップシミュレーションプログラム。
A makeup simulation program for applying makeup to a moving image obtained by photographing a user's face, which is executed in a computer having at least an arithmetic processing device, a storage device, and an output device,
The arithmetic processing unit recognizes a user's face from a moving image captured by an imaging unit, and starts a makeup simulation;
Recognizing a user's face included in the moving image based on a predetermined tracking point;
A makeup simulation program for executing a predetermined makeup on a user's face included in the moving image based on the tracking point and outputting it to the output device.
JP2007005098A 2006-01-17 2007-01-12 Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program Active JP5191665B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007005098A JP5191665B2 (en) 2006-01-17 2007-01-12 Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
TW96101598A TWI421781B (en) 2006-01-17 2007-01-16 Make-up simulation system, make-up simulation method, make-up simulation method and make-up simulation program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006009268 2006-01-17
JP2006009268 2006-01-17
JP2007005098A JP5191665B2 (en) 2006-01-17 2007-01-12 Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012270838A Division JP5465768B2 (en) 2006-01-17 2012-12-11 Program and makeup simulation device

Publications (2)

Publication Number Publication Date
JP2007216000A true JP2007216000A (en) 2007-08-30
JP5191665B2 JP5191665B2 (en) 2013-05-08

Family

ID=38493846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007005098A Active JP5191665B2 (en) 2006-01-17 2007-01-12 Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program

Country Status (2)

Country Link
JP (1) JP5191665B2 (en)
TW (1) TWI421781B (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123128A (en) * 2007-11-19 2009-06-04 Dainippon Printing Co Ltd System for distributing makeup videotape
CN103885461A (en) * 2012-12-21 2014-06-25 宗经投资股份有限公司 Movement method for makeup tool of automatic makeup machine
WO2014119242A1 (en) * 2013-02-01 2014-08-07 パナソニック株式会社 Makeup application assistance device, makeup application assistance method, and makeup application assistance program
JPWO2014171142A1 (en) * 2013-04-17 2017-02-16 パナソニックIpマネジメント株式会社 Image processing method and image processing apparatus
JP2017508199A (en) * 2014-01-31 2017-03-23 エンパイア テクノロジー ディベロップメント エルエルシー Augmented Reality Skin Evaluation
WO2017149778A1 (en) * 2016-03-04 2017-09-08 株式会社オプティム Mirror, image display method, and program
US9865088B2 (en) 2014-01-31 2018-01-09 Empire Technology Development Llc Evaluation of augmented reality skins
US9953462B2 (en) 2014-01-31 2018-04-24 Empire Technology Development Llc Augmented reality skin manager
US10192359B2 (en) 2014-01-31 2019-01-29 Empire Technology Development, Llc Subject selected augmented reality skin
KR20190037050A (en) * 2017-09-28 2019-04-05 칼-콤프 빅 데이터, 인크. Body Information Analysis Apparatus and Method of Auxiliary Comparison of Eyebrow Shapes thereof
WO2023089816A1 (en) * 2021-11-22 2023-05-25 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217350B (en) * 2014-06-17 2017-03-22 北京京东尚科信息技术有限公司 Virtual try-on realization method and device
CN108875462A (en) * 2017-05-16 2018-11-23 丽宝大数据股份有限公司 Eyebrow moulding guidance device and its method
TWI708164B (en) * 2019-03-13 2020-10-21 麗寶大數據股份有限公司 Virtual make-up system and virtual make-up coloring method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001104050A (en) * 1999-10-06 2001-04-17 Seiko Epson Corp Makeup support method using image processing, dressing table, and recording medium having makeup support processing program using image processing recorded
JP2002304620A (en) * 2000-12-21 2002-10-18 L'oreal Sa Measuring method for degree of expressive feature of body
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor
JP2004234571A (en) * 2003-01-31 2004-08-19 Sony Corp Image processor, image processing method and photographing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4539585A (en) * 1981-07-10 1985-09-03 Spackova Daniela S Previewer
EP1314132B1 (en) * 2000-06-27 2010-02-17 Rami Orpaz Make-up and fashion accessory display method and system
TWI227444B (en) * 2003-12-19 2005-02-01 Inst Information Industry Simulation method for make-up trial and the device thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001104050A (en) * 1999-10-06 2001-04-17 Seiko Epson Corp Makeup support method using image processing, dressing table, and recording medium having makeup support processing program using image processing recorded
JP2002304620A (en) * 2000-12-21 2002-10-18 L'oreal Sa Measuring method for degree of expressive feature of body
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor
JP2004234571A (en) * 2003-01-31 2004-08-19 Sony Corp Image processor, image processing method and photographing device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123128A (en) * 2007-11-19 2009-06-04 Dainippon Printing Co Ltd System for distributing makeup videotape
CN103885461A (en) * 2012-12-21 2014-06-25 宗经投资股份有限公司 Movement method for makeup tool of automatic makeup machine
CN103885461B (en) * 2012-12-21 2017-03-01 宗经投资股份有限公司 Automatically the moving method of the color make-up instrument of color make-up machine
US9615647B2 (en) 2013-02-01 2017-04-11 Panasonic Intellectual Property Management Co., Ltd. Makeup application assistance device, makeup application assistance method, and makeup application assistance program
WO2014119242A1 (en) * 2013-02-01 2014-08-07 パナソニック株式会社 Makeup application assistance device, makeup application assistance method, and makeup application assistance program
JP2014147560A (en) * 2013-02-01 2014-08-21 Panasonic Corp Makeup support device, makeup support method and makeup support program
US9681736B2 (en) 2013-02-01 2017-06-20 Panasonic Intellectual Property Management Co., Ltd. Makeup application assistance device, makeup application assistance method, and makeup application assistance program
JPWO2014171142A1 (en) * 2013-04-17 2017-02-16 パナソニックIpマネジメント株式会社 Image processing method and image processing apparatus
US9968176B2 (en) 2013-04-17 2018-05-15 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing device
JP2017508199A (en) * 2014-01-31 2017-03-23 エンパイア テクノロジー ディベロップメント エルエルシー Augmented Reality Skin Evaluation
US9865088B2 (en) 2014-01-31 2018-01-09 Empire Technology Development Llc Evaluation of augmented reality skins
US9953462B2 (en) 2014-01-31 2018-04-24 Empire Technology Development Llc Augmented reality skin manager
US9990772B2 (en) 2014-01-31 2018-06-05 Empire Technology Development Llc Augmented reality skin evaluation
US10192359B2 (en) 2014-01-31 2019-01-29 Empire Technology Development, Llc Subject selected augmented reality skin
WO2017149778A1 (en) * 2016-03-04 2017-09-08 株式会社オプティム Mirror, image display method, and program
JPWO2017149778A1 (en) * 2016-03-04 2018-10-04 株式会社オプティム Mirror, image display method and program
KR20190037050A (en) * 2017-09-28 2019-04-05 칼-콤프 빅 데이터, 인크. Body Information Analysis Apparatus and Method of Auxiliary Comparison of Eyebrow Shapes thereof
KR102045218B1 (en) 2017-09-28 2019-11-15 칼-콤프 빅 데이터, 인크. Body Information Analysis Apparatus and Method of Auxiliary Comparison of Eyebrow Shapes thereof
WO2023089816A1 (en) * 2021-11-22 2023-05-25 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
TW200805175A (en) 2008-01-16
TWI421781B (en) 2014-01-01
JP5191665B2 (en) 2013-05-08

Similar Documents

Publication Publication Date Title
JP5465768B2 (en) Program and makeup simulation device
JP5191665B2 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
EP3479351B1 (en) System and method for digital makeup mirror
US11450075B2 (en) Virtually trying cloths on realistic body model of user
JP5463866B2 (en) Image processing apparatus, image processing method, and program
JP5261586B2 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
EP2178045A1 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
CN110363867B (en) Virtual decorating system, method, device and medium
JP2009039523A (en) Terminal device to be applied for makeup simulation
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
JP2007213623A (en) Virtual makeup device and method therefor
US20210345016A1 (en) Computer vision based extraction and overlay for instructional augmented reality
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
JP2011022733A (en) Device and program for simulating makeup, and counter selling support method
JP5227212B2 (en) Skin color measuring device, skin color measuring program, makeup simulation device and makeup simulation program
JP2009053981A (en) Makeup simulation device
CN116097319A (en) High resolution controllable facial aging using spatially aware conditional GAN
JP7314509B2 (en) Information processing device, information processing method and program
JP7247579B2 (en) Information processing device, information processing method and program
JP2017122993A (en) Image processor, image processing method and program
Reinius Object recognition using the OpenCV Haar cascade-classifier on the iOS platform
Ravikumar Performance driven facial animation with blendshapes
Gu Improving coarticulation performance of 3D avatar and gaze estimation using RGB webcam
Chee Real time gesture recognition system for ADAS
Ersotelos et al. A highly automated method for facial expression synthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121211

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20121219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130130

R150 Certificate of patent or registration of utility model

Ref document number: 5191665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160208

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250