JP2009039523A - メイクアップシミュレーションに利用する端末装置 - Google Patents

メイクアップシミュレーションに利用する端末装置 Download PDF

Info

Publication number
JP2009039523A
JP2009039523A JP2008185265A JP2008185265A JP2009039523A JP 2009039523 A JP2009039523 A JP 2009039523A JP 2008185265 A JP2008185265 A JP 2008185265A JP 2008185265 A JP2008185265 A JP 2008185265A JP 2009039523 A JP2009039523 A JP 2009039523A
Authority
JP
Japan
Prior art keywords
image
terminal device
makeup
user
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008185265A
Other languages
English (en)
Inventor
Yasuo Goto
康男 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2008185265A priority Critical patent/JP2009039523A/ja
Publication of JP2009039523A publication Critical patent/JP2009039523A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】シミュレーション結果に含まれるメイクアップ後の顔の肌色とミラーに映された自分の顔の肌色とを理想的な肌色に近づけてユーザに見比べさせることが可能なメイクアップシミュレーションに利用する端末装置を提供することを目的とする。
【解決手段】メイクアップシミュレーションに利用する端末装置2であって、ユーザの顔を撮影し、画像を制御手段に出力する撮像手段14と、制御手段によって行われたメイクアップシミュレーション結果の画像を表示する表示手段13と、ユーザの顔を映す鏡手段16と、鏡手段に映されたユーザの顔の肌色が理想的な肌色となるようにユーザの顔を照らす照明手段15とを備えることにより上記課題を解決する。
【選択図】図2

Description

本発明はメイクアップシミュレーションに利用する端末装置に係り、特にメイクアップシミュレーション結果を表示する端末装置に関する。
従来、メイクアップを施す商品の販売等のため、実際にメイクアップを施すことなくコンピュータ上でメイクアップ後の顔をシミュレーションする技術が知られている(例えば特許文献1参照)。
また、特許文献2には、シミュレーション結果に含まれるメイクアップ後の顔と自分の顔とを見比べるため、ミラーが連接されたメイクアップシミュレーション用表示装置が開示されている。
特開2001−346627号公報 実開昭64−4326号公報
特許文献2のメイクアップシミュレーション用表示装置では、シミュレーション結果に含まれるメイクアップ後の顔とミラーに映された自分の顔とについて、肌色が異なるという問題があった。
一般的に、シミュレーション結果に含まれるメイクアップ後の顔は肌色を容易に調整できるため、シミュレーション結果に含まれるメイクアップ後の顔の肌色をミラーに映された自分の顔の肌色に合わせることが簡単である。
しかしながら、シミュレーション結果に含まれるメイクアップ後の顔の肌色はミラーに映された自分の顔の肌色よりも理想的な肌色であることが多い。
したがって、上記のようにシミュレーション結果に含まれるメイクアップ後の顔の肌色をミラーに映された自分の顔の肌色に合わせる場合は、理想的な肌色から遠ざかることになる。
シミュレーション結果に含まれるメイクアップ後の顔とミラーに映された自分の顔とを見比べるとき、従来のメイクアップシミュレーション用表示装置では肌色を合わせようとすると、シミュレーション結果に含まれるメイクアップ後の顔の肌色とミラーに映された自分の顔の肌色とが理想的な肌色から遠ざかり、綺麗に見えない恐れがあった。
従来のメイクアップシミュレーション用表示装置は、シミュレーション結果に含まれるメイクアップ後の顔とミラーに映された自分の顔とを見比べさせることにより商品の購入意欲を減退させてしまう可能性があるという問題があった。
本発明は、上記の点に鑑みなされたもので、シミュレーション結果に含まれるメイクアップ後の顔の肌色とミラーに映された自分の顔の肌色とを理想的な肌色に近づけてユーザに見比べさせることが可能なメイクアップシミュレーションに利用する端末装置を提供することを目的としている。
上記した課題を解決するため、本発明は、メイクアップシミュレーションに利用する端末装置であって、ユーザの顔を撮影し、画像を制御手段に出力する撮像手段と、前記制御手段によって行われたメイクアップシミュレーション結果の画像を表示する表示手段と、前記ユーザの顔を映す鏡手段と、前記鏡手段に映されたユーザの顔の肌色が理想的な肌色となるようにユーザの顔を照らす照明手段とを備えることを特徴とする。
前記鏡手段は、ガラスに含まれる鉄分を減少させて入射光の青が吸収される量を減少させたことを特徴としてもよい。
なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。
本発明によれば、シミュレーション結果に含まれるメイクアップ後の顔の肌色とミラーに映された自分の顔の肌色とを理想的な肌色に近づけてユーザに見比べさせることが可能なメイクアップシミュレーションに利用する端末装置を提供可能である。
次に、本発明を実施するための最良の形態を、以下の実施例に基づき図面を参照しつつ説明していく。
図1は本発明による端末装置を含むメイクアップシミュレーションシステムの一例の構成図である。図1のメイクアップシミュレーションシステム1は、端末装置2及び制御装置3を含む構成である。なお、端末装置2及び制御装置3は同一の筐体に配置しても別々の筐体に配置してもよい。
制御装置3は端末装置2の制御,メイクアップシミュレーションの処理等を行うものである。制御装置3は例えばパーソナルコンピュータ(PC)で構成される。端末装置2は制御装置3によって制御される。端末装置2は例えばメイクアップシミュレーションを受けるユーザの前面に置かれる。端末装置2はメイクアップシミュレーション結果等、メイクアップシミュレーションに関する情報を表示する。
なお、メイクアップシミュレーションシステム1は、プリンタを更に含む構成としてもよい。プリンタは、端末装置2に表示されるメイクアップシミュレーション結果等、メイクアップシミュレーションに関する情報を印刷できる。
図2及び図3は本発明による端末装置の第一実施例の外観図である。端末装置2は第1の部材11及び第2の部材12が連接された構成である。第2の部材12は、第1の部材11に対して軸20を中心にして回動可能に取り付けられている。図2の端末装置2は第1の部材11に対して第2の部材12が開かれた状態を表している。図3の端末装置2は第1の部材11に対して第2の部材12が閉じられた状態を表している。
第1の部材11は、表示手段としてのモニタ13,撮像手段としてのカメラ14,照明15が配置されている。第2の部材12は、両面に鏡16,19が配置されている。第2の部材12は第1の部材11に対して閉じられた状態のとき、第1の部材11に配置されているカメラ14及び照明15を覆い隠すことが無いように開口部17及び18が設けられている。開口部17及び18は透明部材によって構成してもよい。
したがって、端末装置2は第1の部材11に対して第2の部材12が閉じられた状態であってもカメラ14及び照明15を利用可能である。なお、端末装置2は開口部18の位置に別の照明を配置してもよい。
照明15は例えば複数の発光ダイオード(LED)によって構成される。照明15を構成するLEDは、鏡16,19に映されたユーザの顔が理想的(自然)な肌色となるような光の色(波長)を選択することが望ましい。また、端末装置2は照明15を複数色のLEDによって構成しておき、照明15が発光する光の色を制御する仕組みを設けることにより、カメラ14による撮影時や、光の色によるユーザの顔の見え方の違いを説明するとき等、状況に応じた光の色を発光できる。なお、照明15が発光する光の色を制御する仕組みは、スイッチを設けて手動により制御する方法や、制御装置3からの指示により制御する方法等が考えられる。
鏡16及び19は、色の変化が少なく自然な色表現が可能なものを使用する。鏡16及び19は、入射光の青を吸収する鉄分をガラスから多く取り除くことで、色の変化が少なく自然な色表現が可能となる。鏡16及び19は、ユーザの顔を理想的(自然)な肌色で映すことができる。
カメラ14は、メイクアップシミュレーションを行うユーザの顔を撮影して画像(静止画像又は動画像)を制御装置3へ出力する。モニタ13はメイクアップシミュレーション結果等、メイクアップシミュレーションに関する情報を表示する。ユーザからの操作を受け付ける場合、モニタ13は例えばタッチパネルモニタで構成することができる。
タッチパネルモニタは操作部及び表示部として機能するものである。無論、端末装置2は操作部を別途含む構成としてもよい。また、ユーザからの操作を制御装置3側から受け付ける構成としてもよい。タッチパネルモニタは、操作画像を表示すると共に、ユーザからの操作を受け付けて操作情報を制御装置3へ出力する。また、タッチパネルモニタはメイクアップシミュレーション結果等、メイクアップシミュレーションに関する情報を表示する。
このように、本発明による端末装置2はカメラ14によって撮影したユーザの顔の画像を制御装置3へ出力する。制御装置3は、受信した画像に含まれるユーザの顔を対象としてメイクアップシミュレーションを行い、そのメイクアップシミュレーション結果等の画像を端末装置2へ出力する。端末装置2は、受信したメイクアップシミュレーション結果等の画像をタッチパネルモニタ15に表示する。
図4及び図5は、本発明による端末装置の第二実施例の外観図である。第二実施例の端末装置2は、第一実施例の端末装置2における第二の部材12が、第二の部材12a及び第三の部材12bに分割されている点で、第一実施例の端末装置2と異なる。
端末装置2は第1の部材11,第2の部材12a及び第3の部材12bが連接された構成である。第2の部材12aは、第1の部材11に対して軸20aを中心にして回動可能に取り付けられている。第3の部材12bは、第1の部材11に対して軸20bを中心にして回動可能に取り付けられている。
図4の端末装置2は、第1の部材11に対して第2の部材12a及び第3の部材12bが開かれた状態を表している。図5の端末装置2は、第1の部材11に対して第2の部材12a及び第3の部材12bが閉じられた状態を表している。第2の部材12aは両面に鏡16a,19aが配置されている。第3の部材12bは両面に鏡16b,19bが配置されている。
第2の部材12a及び第3の部材12bは、第1の部材11に対して閉じられた状態のとき、第1の部材11に配置されているカメラ14及び照明15を覆い隠すことが無いように開口部17a,17b及び18が設けられている。開口部17a,17b及び18は透明部材によって構成してもよい。
したがって、端末装置2は第1の部材11に対して第2の部材12a及び第3の部材12bが閉じられた状態であってもカメラ14及び照明15を利用可能である。なお、端末装置2は開口部18の位置に別の照明を配置してもよい。
照明15を構成するLEDは鏡16a,16b,19a及び19bに映されたユーザの顔が理想的(自然)な肌色となるような光の色(波長)を選択することが望ましい。鏡16a,16b,19a及び19bは、上記したような色の変化が少なく自然な色表現が可能なものを使用する。その他の構成は、第一実施例の端末装置2と同様であるため、説明を省略する。
図6〜図9は本発明による端末装置の第三実施例の外観図である。なお、第三実施例の外観図は端末装置2だけでなく制御装置3も図示している。端末装置2は第1の部材11及び第2の部材12が連接された構成である。第2の部材12は蝶番21を介して第1の部材11に取り付けられている。第2の部材12は蝶番21により第1の部材11の背面に隠れるように回動可能である。
蝶番21は第1の蝶番21A及び21Bから構成されている。図6の端末装置2は第1の部材11に対して第2の部材12が閉じられた状態を表している。第1の蝶番21Aが回動することにより、第2の部材12は図7及び図8のように第1の部材11に対して開かれた状態となる。また、第2の蝶番21Bが回動することにより、第2の部材12は図9のように第1の部材11の背面に回動する。
第1の部材11は、モニタ13,カメラ14,照明15が配置されている。第2の部材12は、両面に鏡16,19が配置されている。第2の部材12は第1の部材11に対して閉じられた状態のとき、第1の部材11に配置されているカメラ14及び照明15を覆い隠すことが無い形状である。なお、第2の部材12は第1の部材11に対して閉じられた状態のとき、第1の部材11に配置されているカメラ14及び照明15を覆い隠す部分を透明部材によって構成してもよい。従って、端末装置2は第1の部材11に対して第2の部材12が閉じられた状態であってもカメラ14及び照明15を利用可能である。
照明15は例えば電極管によって構成される。また、証明15は第一及び第二実施例と同様、複数の発光ダイオード(LED)によって構成してもよい。その他の構成は、第一実施例の端末装置2と同様であるため、説明を省略する。
本発明による端末装置2を含むメイクアップシミュレーションシステム1は、鏡というメイクアップに必要不可欠なアイテムをコンセプトとし、ユーザとのインタラクティブな機能を持つ。また、本発明による端末装置2を含むメイクアップシミュレーションシステム1は、ユーザがあたかも鏡を見ながら自然にメイクアップをしている気分にさせる特徴を持つ。
メイクアップシミュレーションシステム1は、カメラ14から出力された動画像等を制御装置3で画像処理し、動画像等に含まれるユーザの顔にメイクアップを施して、デジタルの鏡であるモニタ13に表示する。メイクアップシミュレーションシステム1は、様々な商品情報、美容情報およびユーザの顔にメイクアップを施したイメージ画像を端末装置2のモニタ13に表示できる。
図10は本発明による端末装置を含むメイクアップシミュレーションシステムの一実施例のハードウェア構成図である。なお、図2〜図5と同一部分については同一符号を付している。
図10のメイクアップシミュレーションシステム1は、それぞれバスB等で相互に接続されているタッチパネルモニタ(以下、単にモニタと呼ぶ)13,カメラ14,演算処理装置30,メモリ装置31,ドライブ装置32及び補助記憶装置33を含むように構成されている。なお、図10の演算処理装置30,メモリ装置31,ドライブ装置32及び補助記憶装置33は、図1の制御装置3を構成する。
メイクアップシミュレーションシステム1を制御するメイクアップシミュレーションプログラムは制御装置3を制御する各種プログラムの少なくとも一部である。メイクアップシミュレーションプログラムは例えば記録媒体34の配布などによって提供される。
なお、メイクアップシミュレーションプログラムを記録した記録媒体34は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、メイクアップシミュレーションプログラムを記録した記録媒体34がドライブ装置32にセットされると、メイクアップシミュレーションプログラムは記録媒体34からドライブ装置32を介して補助記憶装置33にインストールされる。補助記憶装置33はインストールされたメイクアップシミュレーションプログラムを格納すると共に、必要なファイル,データ等を格納する。メモリ装置31は、起動時に補助記憶装置33からメイクアップシミュレーションプログラムを読み出して格納する。そして、演算処理装置30はメモリ装置31に格納されたメイクアップシミュレーションプログラムに従って、後述するような各種処理を実現している。
図11は、メイクアップシミュレーションシステムが行なう処理の概略を表した一実施例のフローチャートである。図12は、モニタに表示されるメイン画面及び操作画面の一例のイメージ図である。図12の画面イメージ100〜111はメイン画面のものである。画面イメージ200〜210は操作画面のものである。
制御装置3は、カメラ14が撮影した動画像を継続して受信している。このとき、制御装置3はモニタ13に画面イメージ100及び200を表示している。画面イメージ100及び200はスクリーンセーバーを表示している例を表している。
ステップS1に進み、制御装置3は受信している動画像にユーザの顔が含まれているか否かを継続して判定している。制御装置3は動画像にユーザの顔が含まれていることを認識するまでステップS1の処理を繰り返し行う(S1においてNO)。
動画像にユーザの顔が含まれていることを認識すると(S1においてYES)、制御装置3はステップS2に進み、メイクアップシミュレーションを行なうためのメイクアップシミュレーションプログラムを含むソフトを起動する。このとき、制御装置3はモニタ13に画面イメージ101及び201を表示する。
画面イメージ101はカメラ14でユーザの顔を撮影した動画像を表示している例を表している。画面イメージ201は、横に移動する歓迎のコメントを表示している例を表している。
ステップS3に進み、制御装置3は、ステップS2で起動したソフトに基づいてメイクアップシミュレーションを開始する。このとき、制御装置3はモニタ13に画面イメージ102及び202を表示する。画面イメージ102は、カメラ14でユーザの顔を撮影した動画像に、魔法の鏡的な演出を施して表示している例を表している。画面イメージ202は、画面イメージ201と同様、横に移動する歓迎のコメントを表示している例を表している。
ステップS4に進み、制御装置3はメイクアップシミュレーションを後述するように実行する。このとき、制御装置3はモニタ13に画面イメージ103〜106,203〜206を順次表示する。
画面イメージ103〜106は、メイクアップシミュレーションにより4つのメイクアップパターン(イメージ)が施されたユーザの顔を表示している例を表している。画面イメージ203〜206は、そのときモニタ13に表示されている画面イメージ103〜106のメイクアップパターンの内容(例えば名称等)を表示している例を表している。
所定時間が経過するか、又はユーザがモニタ13にタッチするまで、制御装置3はモニタ13に画面イメージ103〜106,203〜206を順次表示する。所定時間が経過するか、又はユーザがモニタ13にタッチすると、制御装置3はステップS5に進み、モニタ13に画面イメージ107及び207を表示する。
画面イメージ107は、画面イメージ101と同様、カメラ14でユーザの顔を撮影した動画像を表示している例を表している。画面イメージ207は、4つのメイクアップパターン(イメージ)から1つのイメージを選択可能なイメージ選択画面を表示している例を表している。ユーザは、モニタ13の該当箇所にタッチすることで、イメージ選択画面から1つのイメージを選択することができる。
ステップS6に進み、制御装置3はイメージ選択画面から1つのイメージが選択されるまでステップS6の処理を繰り返し行う(S6においてNO)。ユーザがイメージ選択画面から1つのイメージを選択すると、モニタ13はユーザからの操作を受け付けて操作情報を制御装置3に出力する。
ユーザがイメージ選択画面から1つのイメージを選択したと判定すると(S6においてYES)、制御装置3はステップS7に進み、選択されたイメージのイメージ画面をモニタ13に表示する。このとき、制御装置3はモニタ13に画面イメージ108及び208を表示する。
画面イメージ108は、イメージ選択画面から選択された1つのイメージに基づき、異なるカラーパターンが施されたメイクアップ後のユーザの顔のイメージ画像と、イメージ画像のようにメイクアップする為の商品情報とを順次表示している例を表している。画面イメージ208は、イメージ選択画面から選択された1つのイメージの内容と、そのときモニタ13に表示されている画面イメージ108のイメージ画像のようにメイクアップする為の商品情報とを表示している例を表している。
なお、ユーザがモニタ13を操作することによりプリントアウトを指示できるようにしてもよい。ユーザからのプリントアウト指示を受け付けると、制御装置3は画面イメージ109及び209を操作パネル4に表示する。画面イメージ109は、プリントアウトするイメージ画像を表示している例を表している。画面イメージ209は、プリントアウト中のコメントを表示している例を表している。制御装置3はプリンタ(図示せず)を制御してモニタ13に表示されているイメージ画像(画面イメージ109)をプリントアウトする。
また、ユーザはモニタ13を操作することにより、メイクアップ前及び後のイメージ画像から成る比較画面の表示およびプリントアウトを指示することもできる。ユーザからの比較画面の表示指示を受け付けると、制御装置3は画面イメージ110をモニタ13に表示する。画面イメージ110は、メイクアップ前及び後のイメージ画像から成る比較画面を表示している例を表している。比較画面を表示している状態で、ユーザからのプリントアウト指示を受け付けると、制御装置3はプリンタ(図示せず)を制御してモニタ13に表示されている比較画面をプリントアウトする。
そして、ユーザによるメイクアップシミュレーションが終了すると、制御装置3はモニタ13にスクリーンセーバーである画面イメージ111及び210を表示して処理を終了する。
本発明による端末装置2は、例えば図2に記載されるように、モニタ13の横に鏡16が設けられている。したがって、ユーザはメイクアップシミュレーションにより4つのメイクアップパターン(イメージ)が施されたユーザの顔を画面イメージ103〜106等としてモニタ13に表示させつつ、鏡16に映された自分の顔を確認できるので、メイクアップシミュレーション結果に含まれるメイクアップ後の顔と、自分の顔とを見比べることができる。
また、本発明による端末装置2は鏡16に映されたユーザの顔が理想的(自然)な肌色となるような光の色(波長)を選択して発光できると共に、色の変化が少なく自然な色表現が可能な鏡16を使用しているため、鏡16に映されたユーザの顔が理想的(自然)な肌色となる。
そして、本発明による端末装置2は、メイクアップシミュレーション結果に含まれるメイクアップ後の顔の肌色を調整により、鏡16に映されたユーザの顔の色の肌色と合わせることにより、メイクアップシミュレーション結果に含まれるメイクアップ後の顔の肌色とミラーに映された自分の顔の肌色とを理想的な肌色に近づけることができる。
したがって、本発明による端末装置2はメイクアップシミュレーション結果に含まれるメイクアップ後の顔と自分の顔とを綺麗な肌色で見比べることができ、商品の購入意欲を向上させることが期待できる。
なお、図11及び図12の例ではメイクアップシミュレーションにより4つのイメージを表示しているが、4つ以外のイメージを表示するものであってもよい。また、メイクアップシミュレーションシステム1はカメラ14から出力された動画像に含まれるユーザの顔にメイクアップを施す例を示しているが、予め撮影した動画像を動画ファイルとして補助記憶装置33等に記憶しておき、その動画ファイルに含まれるユーザの顔にメイクアップを施すものであってもよい。
メイクアップシミュレーションシステム1はカメラ14から出力された動画像を上記のようなメイクアップシミュレーション以外に利用することもできる。図13はメイクアップシミュレーションシステムが行なうメイクアップシミュレーション以外の処理を表したイメージ図である。
画面イメージ300は、カメラ14で撮影したユーザの顔の動画像を表示している例を表している。メイクアップシミュレーションシステム1は動画像に含まれているユーザの顔を認識し、ユーザの顔の静止画301を切り出す。
メイクアップシミュレーションシステム1は顔立ち分析ロジックおよび肌分析ロジックにより静止画301の顔立ち診断および肌色診断を行い、その結果を表す画面イメージ302をモニタ13に表示できる。なお、顔立ち分析ロジックおよび肌分析ロジックにより静止画301の顔立ち診断および肌色診断を行なう処理は、例えば特開2001−346627号公報に記載されている公知技術である。
また、メイクアップシミュレーションシステム1は画面イメージ303のようなコース選択画面303をモニタ13に表示して、各コース(トレンド、ベーシック、フリー)をユーザに選択させることもできる。
メイクアップシミュレーションシステム1は、ユーザにより選択されたコースに基づく画面イメージ304〜309をモニタ13に表示してシミュレーション及びアドバイスを行なう。
画面イメージ304〜306は、各コースのシミュレーション画面を表示している例を表している。画面イメージ307〜309は、各コースのアドバイス画面を表示している例を表している。
例えばベーシックコースとは、顔立ち診断および肌色診断の結果に基づいて、最適なメイクアップテクニックをシミュレーション及びアドバイスするものである。また、トレンドコースとは最新のトレンドメイクアップのシミュレーション及びアドバイスするものである。また、フリーメイクアップコースとは目元,口元,ほお,眉,個々のパーツに対応したアイテムのシミュレーション及びアドバイスするものである。
シミュレーション画面又はアドバイス画面を表示している状態で、ユーザからのプリントアウト指示を受け付け、制御装置3はプリンタ(図示せず)を制御してモニタ13に表示されているシミュレーション画面又はアドバイス画面をプリントアウトするようにしてもよい。
次に、上記のようなメイクアップシミュレーションシステム1の詳細について図14を参照しつつ説明する。図14はメイクアップシミュレーションシステムの詳細を表した一例のシステム構成図である。
図14に示したメイクアップシミュレーションシステム1は、アナログカメラ51,USBキャプチャデバイス52,動画ファイル53,メイクアップカメラ54,静止画システム55,動画ファイル56,共有メモリ57,シミュレータメインアプリ58及びインターフェースアプリ59を含む構成である。
アナログカメラ51は撮影した例えばNTSC方式の動画像をUSBキャプチャデバイス52経由で出力する。USBキャプチャデバイス52から出力された動画像は、例えばAPI(application programming interface)の一例としてのDirectX61を利用してシミュレータメインアプリ58に入力される。また、動画ファイル53もDirectX61を利用してシミュレータメインアプリ58に入力される。
メイクアップカメラ54は撮影した動画像をシリアルインターフェースの一例としてのIEEE1394経由で出力する。メイクアップカメラ54から出力された動画像は専用API62を利用してシミュレータメインアプリ58に入力される。シミュレータメインアプリ58は専用API62を利用して入力された動画像から動画像用解像度の原画像と静止画用解像度の静止画像とを得る。
シミュレータメインアプリ58はDirectX61を利用して入力された動画像及び動画ファイル53と、専用API62を利用して入力された動画像から得られた動画像用解像度の動画像とを原画像とし、原画像に対してトリミング及び縮小処理を行う。
シミュレータメインアプリ58は原画像に対してトリミングを行ってメイクアップ前画像を得る。また、シミュレータメインアプリ58は原画像に対して縮小処理を行って顔認識処理用画像を得る。顔認識処理部63は、顔認識処理用画像からユーザの顔を認識するための後述するようなトラッキングポイント64を、FFT(高速フーリエ変換)により得る。
メイクアップ処理部65は、トラッキングポイント64に基づき、メイクアップ前画像に含まれるユーザの顔に、ファンデーション,眉,シャドウ,口紅,チークから成るメイクアップを施してメイクアップ後画像を得る。なお、メイクアップ処理部65は、ファンデーション処理部66,眉処理部67,シャドウ処理部68,口紅処理部69,チーク処理部70を含む構成である。
メイクアップ処理部65はメイクアップ後画像のようにメイクアップする為の商品情報71をメイクアップ後画像に含ませることができる。動画サーバ72は、メイクアップ前画像およびメイクアップ後画像を共有メモリ57に書き込むと共に、メイクアップ前画像およびメイクアップ後画像を動画ファイル56として出力することもできる。
インターフェースアプリ59は、ActiveXコントローラ80及びActiveXビュアー81を利用する、動画コントロールオブジェクト82,動画表示オブジェクト83及びその他のコントローラ84を含む構成である。なお、インターフェースアプリ59とシミュレータメインアプリ58とはActiveX&Socketによる連携を図っている。
インターフェースアプリ59はActiveXビュアー81を利用して、供給メモリ57に書き込まれているメイクアップ前画像およびメイクアップ後画像を前述したモニタ13に表示することができる。
シミュレータメインアプリ58は、専用API62を利用して入力された動画像から得られた静止画用解像度の静止画像に対してトリミング及び縮小処理を行う。シミュレータメインアプリ58は静止画用解像度の静止画像に対してトリミングを行なう。さらに、シミュレータメインアプリ58は静止画用解像度の静止画像に対して縮小処理を行って顔認識処理用画像を得る。顔認識処理部73は、顔認識処理用画像からユーザの顔を認識する為の後述するようなトラッキングポイント74を得る。
シミュレータメインアプリ58は、トラッキングポイント74に基づき、トリミングを行った動画像に含まれるユーザの顔から詳細部位を抽出し、その詳細部位から顔立ち診断および肌色診断に用いるタイプ、肌色等の追加情報を得て、トラッキングポイント74に追加情報を付加したトラッキングポイント75と、専用API62を利用して入力された動画像から得られた静止画用解像度の静止画像とを静止画システム55に出力する。
静止画システム55は、トラッキングポイント75を使用して、前述した顔立ち分析ロジックおよび肌分析ロジックにより静止画301の顔立ち診断および肌色診断を行い、その結果を表す画面イメージ302をモニタ13に表示できる。その他、静止画システム55は画面イメージ303〜309をモニタ13に表示することもできる。
図15は、シミュレータメインアプリが行なう処理を表す画面イメージ図である。画面イメージ400はメイクアップ前画像を表示した例を表している。画面イメージ401は顔認識処理用画像から得たトラッキングポイント64をメイクアップ前画像に重ねて表示した例を表している。また、画面イメージ402はトラッキングポイント64に基づいてメイクアップ前画像に含まれるユーザの顔にメイクアップを施したメイクアップ後画像を表示した例を表している。
以下、シミュレータメインアプリ58が行なう処理のうち、顔認識処理,メイクアップ処理の詳細について図面を参照しつつ順番に説明していく。なお、本実施例では、メイクアップ処理の一例として、ファンデーション処理,眉処理,シャドウ処理,口紅処理及びチーク処理から成るメイクアップ処理を説明するが、他の組み合わせであってもよい。
(顔認識処理)
図16はメイクアップ前画像に含まれるユーザの顔のイメージ画像である。図17はトラッキングポイントを表す一例のイメージ図である。シミュレータメインアプリ58の顔認識処理部63は、図16のようなイメージ画像からユーザの顔を認識する為の図17のような45点のトラッキングポイント64を得る。図17のトラッキングポイント64は一例であって、制御装置3の処理能力やモニタ13の精細度に応じて調整してもよい。
このように、メイクアップ前画像に含まれるユーザの顔からトラッキングポイント64を得ることにより、メイクアップ処理部65はトラッキングポイント64と関連付けてメイクアップの施し方や色を図18のようなメイクアップ処理パラメータファイルに設定しておくことができる。
図18は、メイクアップ処理パラメータファイルの一例の構成図である。図18のメイクアップ処理パラメータファイルは、目元,口元,チーク等ごとにトラッキングポイント64と関連付けてメイクアップの施し方や色が設定されているものである。なお、メイクアップ処理パラメータファイルはメイクアップパターン(イメージ)毎に設定されるものである。図18のメイクアップ処理パラメータファイルは、クラスエレガンスの例を表している。
(口紅処理)
シミュレータメインアプリ58に含まれる口紅処理部69は図19に示すように唇8点及び鼻3点のトラッキングポイント64を参照し、口紅処理を行う。図19は口紅処理により参照されるトラッキングポイントを示すイメージ図である。
図20は口紅処理を示す一例のフローチャートである。口紅処理は大別するとステップS10の前準備処理とステップS20の色塗り処理とで構成される。前準備処理は、ステップS11の切出し&回転処理,ステップS12の輪郭抽出用画像の作成処理,ステップS13の輪郭抽出処理,ステップS14のスプライン曲線生成処理,ステップS15の回転戻し処理,ステップS16の色塗りマップ生成処理とで構成される。色塗り処理は、ステップS21の色塗りマップに基づく色塗り処理,ステップS22のデバック&デザイン用描画処理とで構成される。
ステップS11の切出し&回転処理に進み、口紅処理部69は、顔認識処理用画像からユーザの顔の唇を含む部分画像500を切り出し、その部分画像500を処理用の姿勢に回転させて部分画像501を得る。
ステップS12の輪郭抽出用画像の作成処理に進み、口紅処理部69は部分画像501から輪郭抽出用画像を作成する。ステップS13の輪郭抽出処理に進み、口紅処理部69は輪郭抽出用画像から唇の輪郭を部分画像502に示すようにポイントで抽出する。
図21は輪郭抽出処理を表す一例のイメージ図である。輪郭抽出用画像600は唇8点及び鼻3点のトラッキングポイントが重ねて表示されている。口紅処理部69は、唇8点及び鼻3点のトラッキングポイントを元に再探索して輪郭抽出用画像601のポイントを抽出する。
図22は輪郭抽出用画像600の唇8点及び鼻3点のトラッキングポイントと、唇8点及び鼻3点のトラッキングポイントを元に再探索して抽出した輪郭抽出用画像601のポイントとの比較画面である。なお、上記再探索が不調な場合は輪郭抽出用画像600の唇8点及び鼻3点のトラッキングポイントから算出した図23のようなデフォルトポイントを採用する。
図23は唇8点及び鼻3点のトラッキングポイントからデフォルトポイントを求める処理を表した一例のイメージ図である。口紅処理部69は鼻の3点のトラッキングポイントを参照し、上唇5点に対してデフォルトポイントを求める。
ステップS14のスプライン曲線生成処理に進み、口紅処理部69は輪郭抽出用画像601のポイント又は図23のようなデフォルトポイントを2次スプラインで補間し、図24に示すような輪郭を完成させる。図24は、ポイント又はデフォルトポイントから輪郭を完成させる処理を表したイメージ図である。部分画像503のように唇の輪郭が完成すると、口紅処理部69はステップS15に進み、ステップS11の切出し&回転処理で行った回転を元に戻す回転戻し処理を行なう。
ステップS16の色塗りマップ生成処理に進み、口紅処理部69は部分画像700の明度および彩度から色塗りの強さを決める色塗りマップを生成する。図25は色塗りマップ生成処理を表した一例のイメージ図である。具体的に、口紅処理部69は、明度および彩度から色塗りの強さを表すグレースケール画像701を生成する。口紅処理部69は、ステップS14のスプライン曲線生成処理で完成させた唇の輪郭で囲まれた部分画像702のみを色塗りマップ504としてグレースケール画像701から切り出す。
ステップS21の色塗りマップに基づく色塗り処理に進み、口紅処理部69はステップS16の色塗りマップ生成処理で生成した色塗りマップ504と、図18のようなメイクアップ処理パラメータファイルに設定されているメイクアップの施し方や指定色に基づいてメイクアップ前画像に対して着色を行なう。
図26は色塗りマップに基づく色塗り処理を表した一例のイメージ図である。口紅処理部69は図18のようなメイクアップ処理パラメータファイル801に設定されているメイクアップの施し方や指定色と、ステップS16の色塗りマップ生成処理で生成した色塗りマップ802とに基づいて、メイクアップ前画像803に対して着色を行い、メイクアップ後画像804を得る。
そして、ステップS22のデバック&デザイン用描画処理に進み、口紅処理部69はデバック&デザイン用描画の処理を行ったあと、口紅処理を終了する。
(シャドウ処理)
シミュレータメインアプリ58に含まれるシャドウ処理部68は図27に示すように左右別に目3点及び眉1点のトラッキングポイント64を参照し、シャドウ処理を行う。図27はシャドウ処理により参照されるトラッキングポイントを示すイメージ図である。
図28はシャドウ処理を示す一例のフローチャートである。シャドウ処理は大別するとステップS30の前準備処理とステップS40の色塗り処理とで構成される。前準備処理は、ステップS31の基本輪郭の生成処理で構成される。
色塗り処理は、色塗りパターン分繰り返し行なう、ステップS41の色塗り輪郭の生成処理,ステップS42の色塗り中心の生成処理,ステップS43の色塗りマップの生成処理,ステップS44の色塗りマップに基づく色塗り処理,ステップS45のデバック&デザイン用描画処理とで構成される。
ステップS31の基本輪郭の生成処理に進み、シャドウ処理部68は、顔認識処理用画像からユーザの顔の目の形状を部分画像900のように得る。図29は、基本輪郭の生成処理を表す一例のイメージ図である。
シャドウ処理部68は色塗り輪郭の基本となる輪郭を生成するため、部分画像1001に示すように、目の中心から上下方向を探索して目の輪郭(上辺境界&下辺境界)を2点認識する。シャドウ処理部68は、認識した目の輪郭2点,目尻及び目頭の4点に、スプライン補間で生成した4点を追加して、計8点によるポリゴンを部分画像1002のように生成する。
ステップS41の色塗り輪郭の生成処理に進み、シャドウ処理部68は色塗り輪郭を部分画像901のように生成する。図30は色塗り輪郭の生成処理を表す一例のイメージ図である。シャドウ処理部68は色塗り輪郭を生成するため、部分画像1101に示すように、目尻及び目頭を基準に色塗り輪郭を生成する。なお、輪郭の拡張、頂点のシフト等についてはGUIでパラメータ指定するようにしてもよい。
ステップS42の色塗り中心の生成処理に進み、シャドウ処理部68は色塗り中心位置を部分画像902の「●」ように生成する。ステップS43の色塗りマップの生成処理に進み、シャドウ処理部68は部分画像903のように、色塗りの強さを決める色塗りマップを生成する。
具体的に、色塗りマップ生成処理は色塗り中心からポリゴンの辺までの距離に対応して塗りの強さを決定する。例えばシャドウ処理部68は辺に近いほど塗りの強さを弱めるように色塗りマップを決定する。なお、色塗りマップ生成処理は色塗り輪郭から基本輪郭を除いた部分を対象としている。
シャドウ処理部68は生成した色塗りマップに対し、図31に示すように、ぼかし処理を掛けることで更に滑らかなグラデーションを生成する。図31は、ぼかし処理を掛けていない色塗りマップと、ぼかし処理を掛けている色塗りマップとを表した一例のイメージ図である。
ステップS44の色塗りマップに基づく色塗り処理に進み、シャドウ処理部68は、ステップS43の色塗りマップの生成処理で生成した色塗りマップ903と、図18のようなメイクアップ処理パラメータファイルに設定されているメイクアップの施し方や指定色に基づいてメイクアップ前画像に対して着色を行ない、メイクアップ後画像を得る。
そして、ステップS45のデバック&デザイン用描画処理に進み、シャドウ処理部68はデバック&デザイン用描画の処理を行ったあと、シャドウ処理を終了する。なお、シャドウ処理部68はステップS41〜S45の処理を色塗りパターン分だけ繰り返し行なうことで、多色塗りを実現することもできる。
(チーク処理)
シミュレータメインアプリ58に含まれるチーク処理部70は図32に示すように目尻&口角(左右別)、眼間&鼻中心(スタビライズ用)のトラッキングポイント64を参照して、チーク処理を行う。図32はチーク処理により参照されるトラッキングポイントを示すイメージ図である。
図33はチーク処理を示す一例のフローチャートである。チーク処理は、ステップS50の色塗り輪郭の生成処理,ステップS51の色塗り処理,ステップS52のデバック&デザイン用描画処理とで構成される。
ステップS50の色塗り輪郭の生成処理に進み、チーク処理部70は色塗り輪郭を生成するため、目尻及び口角を基準に色塗り輪郭として輪郭ポリゴンを生成する。図34は色塗り輪郭を表した一例のイメージ図である。なお、輪郭ポリゴンの点数,大きさ,形状または位置等はGUIでパラメータ指定するようにしてもよい。
ステップS51の色塗り処理に進み、チーク処理部70は色塗り中心から輪郭ポリゴンの辺までの距離に対応して塗りの強さを決定する。なお、塗りの強さの決定に処理コストが掛かりすぎる場合は、解像度(GUIでパラメータ指定)を落として(モザイク状に間引きして)塗りの強さを決定してもよい。チーク処理部70は決定した塗りの強さと、図18のようなメイクアップ処理パラメータファイルに設定されているメイクアップの施し方や指定色に基づいてメイクアップ前画像に対して着色を行ない、メイクアップ後画像を得る。
そして、ステップS52のデバック&デザイン用描画処理に進み、チーク処理部70はデバック&デザイン用描画の処理を行ったあと、チーク処理を終了する。
(眉処理)
シミュレータメインアプリ58に含まれる眉処理部67は図35に示すように左右別に目尻,目中心および眉2点のトラッキングポイント64を参照し、眉処理を行う。図35は眉処理により参照されるトラッキングポイントを示すイメージ図である。
図36は眉処理を示す一例のフローチャートである。眉処理は大別するとステップS60の眉輪郭抽出処理,ステップS70の元眉領域の消去処理,ステップS80の眉形状の変形処理,ステップS90の変形眉の貼付け処理で構成される。
元眉領域の消去処理は、ステップS71の領域の膨張処理,ステップS72の眉の消去処理で構成される。眉形状の変形処理は、ステップS81の変形指定に対応した指示曲線の作成処理,ステップS82の変形眉の生成処理で構成される。
ステップS60の眉輪郭抽出処理に進み、眉処理部67は顔認識処理用画像からユーザの顔の眉の形状を部分画像2001のように得る。図37は、眉輪郭抽出処理を表す一例のイメージ図である。眉処理部67は眉の輪郭を抽出するため、部分画像2101に示すように、眉尻(実際には眉の中心付近)を中心に左右に眉を探索する。眉処理部67は部分画像2102に示すように、探索結果から眉の輪郭形状を認識する。
ステップS71の領域の膨張処理に進み、眉処理部67は認識した眉の輪郭形状を表す領域を膨張させる。ステップS72の眉の消去処理に進み、眉処理部67は膨張させた領域を付近の肌色を使って塗りつぶすことで眉を消去する。また、眉処理部67は膨張させた領域の境界部分に、なじませる処理を施す。
ステップS81の変形指定に対応した指示曲線の作成処理に進み、眉処理部67は認識した眉の輪郭形状を表す領域(スケルトン)を指定に従って変形させる。図38は変形指定に対応した指示曲線の作成処理を表す一例のイメージ図である。
眉処理部67は、部分画像2201に示すように、認識した眉の輪郭形状を表す領域を横方向の軸線と縦方向の複数のタンザクから成るスケルトン2202に置き換え、軸線の形状とタンザクの高さを変えることで、例えばスケルトン2203のように変形処理を施すことができる。
ステップS82の変形眉の生成処理に進み、眉処理部67はスケルトン2203から変形眉を生成する。ステップS90の変形眉の貼付け処理に進み、眉処理部67は変形眉をメイクアップ前画像に対して貼付けて、メイクアップ後画像を得る。
(ファンデーション処理)
シミュレータメインアプリ58に含まれるファンデーション処理部66は図39に示すように左右別に目尻,目頭および眉1点、眼間および鼻中心のトラッキングポイント64を参照し、ファンデーション処理を行う。図39はファンデーション処理により参照されるトラッキングポイントを示すイメージ図である。
図40はファンデーション処理を示す一例のフローチャートである。ファンデーション処理は、ステップS101の輪郭の生成処理,ステップS102の対象画像へのぼかし処理,ステップS103の画像の貼り付け処理で構成される。なお、ステップS101〜S103の処理は対象エリア分、繰り返し行われる。
ステップS101の輪郭の生成処理に進み、ファンデーション処理部66は図41のイメージ画像に示すように、額,鼻,頬(左右)の3種類(4箇所)の輪郭を生成する。図41は輪郭を表した一例のイメージ画像である。なお、各輪郭のサイズ,位置等はGUIでパラメータ指定するようにしてもよい。
ステップS102の対象画像へのぼかし処理に進み、ファンデーション処理部66は生成した輪郭に対応する対象画像へのぼかし処理を図42のように行なう。図42は、ぼかし処理前の元画像と、ぼかし処理後の元画像とを表した一例のイメージ図である。対象画像へのぼかし処理により、ファンデーション処理部66は肌の細かい荒れ等を平滑化することができる。
ステップS103の画像の貼り付け処理に進み、ファンデーション処理部66は、ぼかし処理後の対象画像をメイクアップ前画像の額,鼻,頬(左右)の3種類(4箇所)の輪郭に貼り付け、メイクアップ後画像を得る。
以上、本発明によれば、動画像に含まれるユーザの顔に、少ない処理負担で正確にメイクアップを施すことができる。なお、特許請求の範囲に記載した撮像手段はカメラ14に相当し、制御手段は制御装置3に相当し、表示手段はモニタ13に相当し、鏡手段は鏡16及び19に相当する。
また、本発明は、具体的に開示された実施例に限定されるものでなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
上記したメイクアップシミュレーションシステム1はリアルタイムシミュレーションである為、静止画によるものや従来のメイクアップシミュレーションシステムと異なり、瞬時に顔のトラッキングポイントを認識し、トラッキングポイントをもとにメイクアップシミュレーションを行うことができるので、これまでできなかった以下のことも可能にしている。
メイクアップシミュレーションシステム1は、リアルタイムなシミュレーションが可能である。メイクアップシミュレーションシステム1は、正面顔だけでなく、横顔からのシミュレーション等も可能なため、頬紅等のシミュレーション効果やテクニックの確認が容易である。
メイクアップシミュレーションシステム1は、リアルタイムなシミュレーションになったことで、これまでの平面的な表現から、顔を立体としてとらえた分析や、立体感や質感の表現も可能である。
また、メイクアップシミュレーションシステム1は、同時に何人もの顔認識が可能であるため、同時に何人ものリアルタイムなシミュレーションが可能である。メイクアップシミュレーションシステム1は、顔認識機能が優れていることから、個々の顔立ちにあわせて、あるいは男性または女性を自動的に分類し、顔立ちや分類にあわせたメイクアップシミュレーションが可能である。例えばメイクアップシミュレーションシステム1はカップルで同時に、それぞれのメイクアップシミュレーションが可能である。
本発明による端末装置を含むメイクアップシミュレーションシステムの一例の構成図である。 本発明による端末装置の第一実施例の外観図である。 本発明による端末装置の第一実施例の外観図である。 本発明による端末装置の第二実施例の外観図である。 本発明による端末装置の第二実施例の外観図である。 本発明による端末装置の第三実施例の外観図である。 本発明による端末装置の第三実施例の外観図である。 本発明による端末装置の第三実施例の外観図である。 本発明による端末装置の第三実施例の外観図である。 本発明による端末装置を含むメイクアップシミュレーションシステムの一実施例のハードウェア構成図である。 メイクアップシミュレーションシステムが行なう処理の概略を表した一実施例のフローチャートである。 モニタに表示されるメイン画面及び操作画面の一例のイメージ図である。 メイクアップシミュレーションシステムが行なうメイクアップシミュレーション以外の処理を表したイメージ図である。 メイクアップシミュレーションシステムの詳細を表した一例のシステム構成図である。 シミュレータメインアプリが行なう処理を表す画面イメージ図である。 メイクアップ前画像に含まれるユーザの顔のイメージ画像である。 トラッキングポイントを表す一例のイメージ図である。 メイクアップ処理パラメータファイルの一例の構成図である。 口紅処理により参照されるトラッキングポイントを示すイメージ図である。 口紅処理を示す一例のフローチャートである。 輪郭抽出処理を表す一例のイメージ図である。 輪郭抽出用画像600の唇8点及び鼻3点のトラッキングポイントと、唇8点及び鼻3点のトラッキングポイントを元に再探索して抽出した輪郭抽出用画像601のポイントとの比較画面である。 唇8点及び鼻3点のトラッキングポイントからデフォルトポイントを求める処理を表した一例のイメージ図である。 ポイント又はデフォルトポイントから輪郭を完成させる処理を表したイメージ図である。 色塗りマップ生成処理を表した一例のイメージ図である。 色塗りマップに基づく色塗り処理を表した一例のイメージ図である。 シャドウ処理により参照されるトラッキングポイントを示すイメージ図である。 シャドウ処理を示す一例のフローチャートである。 基本輪郭の生成処理を表す一例のイメージ図である。 色塗り輪郭の生成処理を表す一例のイメージ図である。 ぼかし処理を掛けていない色塗りマップと、ぼかし処理を掛けている色塗りマップとを表した一例のイメージ図である。 チーク処理により参照されるトラッキングポイントを示すイメージ図である。 チーク処理を示す一例のフローチャートである。 色塗り輪郭を表した一例のイメージ図である。 眉処理により参照されるトラッキングポイントを示すイメージ図である。 眉処理を示す一例のフローチャートである。 眉輪郭抽出処理を表す一例のイメージ図である。 変形指定に対応した指示曲線の作成処理を表す一例のイメージ図である。 ファンデーション処理により参照されるトラッキングポイントを示すイメージ図である。 ファンデーション処理を示す一例のフローチャートである。 輪郭を表した一例のイメージ画像である。 ぼかし処理前の元画像と、ぼかし処理後の元画像とを表した一例のイメージ図である。
符号の説明
1 メイクアップシミュレーション装置
2 端末装置
3 制御装置
11 第1の部材
12 第2の部材
13 モニタ
14 カメラ
15 照明
16,19 鏡
17,18 開口部
20 軸
21 蝶番
30 演算処理装置
31 メモリ装置
32 ドライブ装置
33 補助記憶装置
34 記録媒体
55 静止画システム
57 共有メモリ
58 シミュレータメインアプリ
59 インターフェースアプリ
63 顔認識処理部
64 トラッキングポイント
65 メイクアップ処理部
66 ファンデーション処理部
67 眉処理部
68 シャドウ処理部
69 口紅処理部
70 チーク処理部
71 商品情報

Claims (13)

  1. メイクアップシミュレーションに利用する端末装置であって、
    ユーザの顔を撮影し、画像を制御手段に出力する撮像手段と、
    前記制御手段によって行われたメイクアップシミュレーション結果の画像を表示する表示手段と、
    前記ユーザの顔を映す鏡手段と、
    前記鏡手段に映されたユーザの顔の肌色が理想的な肌色となるようにユーザの顔を照らす照明手段と
    を備えることを特徴とする端末装置。
  2. 前記表示手段と前記鏡手段とは、連接されていることを特徴とする請求項1記載の端末装置。
  3. 前記撮像手段及び前記表示手段は第1の部材に配置され、前記鏡手段は第2の部材に配置されており、前記第2の部材は可動可能に前記第1の部材に連接されていることを特徴とする請求項1記載の端末装置。
  4. 前記第2の部材は前記第1の部材に配置されている前記表示手段を少なくとも覆い隠す位置に可動可能であることを特徴とする請求項3記載の端末装置。
  5. 前記第2の部材は前記第1の部材の背面に隠れる位置に可動可能であることを特徴とする請求項4記載の端末装置。
  6. 前記第2の部材は前記第1の部材に内向する第1の面と、前記第1の面の反対側の面とに前記鏡手段が配置されていることを特徴とする請求項4記載の端末装置。
  7. 前記撮像手段及び前記表示手段は第1の部材に配置され、前記鏡手段は第2及び第3の部材に配置されており、前記第2及び第3の部材は可動可能に前記第1の部材に連接されていることを特徴とする請求項1記載の端末装置。
  8. 前記第2及び第3の部材は前記第1の部材に配置されている前記表示手段を少なくとも覆い隠す位置に可動可能であることを特徴とする請求項7記載の端末装置。
  9. 前記第2及び第3の部材は前記第1の部材に内向する第1の面と、前記第1の面の反対側の面とに前記鏡手段が配置されていることを特徴とする請求項8記載の端末装置。
  10. 前記照明手段が発光する光の色を制御する照明色制御手段を更に備えることを特徴とする請求項1記載の端末装置。
  11. 前記制御手段を更に備えることを特徴とする請求項1記載の端末装置。
  12. 前記照明手段は、発光ダイオードであることを特徴とする請求項1乃至11何れか一項記載の端末装置。
  13. 前記鏡手段は、ガラスに含まれる鉄分を減少させて入射光の青が吸収される量を減少させたことを特徴とする請求項1乃至12何れか一項記載の端末装置。
JP2008185265A 2007-07-18 2008-07-16 メイクアップシミュレーションに利用する端末装置 Pending JP2009039523A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008185265A JP2009039523A (ja) 2007-07-18 2008-07-16 メイクアップシミュレーションに利用する端末装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007187680 2007-07-18
JP2008185265A JP2009039523A (ja) 2007-07-18 2008-07-16 メイクアップシミュレーションに利用する端末装置

Publications (1)

Publication Number Publication Date
JP2009039523A true JP2009039523A (ja) 2009-02-26

Family

ID=40259734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008185265A Pending JP2009039523A (ja) 2007-07-18 2008-07-16 メイクアップシミュレーションに利用する端末装置

Country Status (2)

Country Link
JP (1) JP2009039523A (ja)
WO (1) WO2009011402A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040953A (ja) * 2009-08-10 2011-02-24 Jujo Denshi Kk 撮像表示装置及び撮像表示方法
KR101979357B1 (ko) * 2019-01-16 2019-08-28 주식회사 카티스 접이식 뷰티 큐레이팅 장치

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013501292A (ja) * 2009-08-04 2013-01-10 ヴェサリス 基準画像に対して対象画像を補正する画像処理方法及びその画像処理装置
FR2959846B1 (fr) * 2010-05-04 2014-03-14 Vesalis Procede de traitement d'image pour corriger une cible en fonction d'une image de reference et dispositif de traitement d'image correspondant
TWI426450B (zh) * 2010-10-27 2014-02-11 Hon Hai Prec Ind Co Ltd 電子化妝品盒
EP4085930A1 (en) 2012-10-05 2022-11-09 BioNTech Delivery Technologies GmbH Hydroxylated polyamine derivatives as transfection reagents for rna
DK2903651T3 (da) 2012-10-08 2022-01-17 Biontech Delivery Tech Gmbh Carboxylerede polyaminderivater som transfektionsreagenser
JP6454019B2 (ja) * 2016-05-06 2019-01-16 株式会社カネカ 光照射システム及び擬似自然光照射部材
CN108402643A (zh) * 2018-03-02 2018-08-17 许峰 一种互动化妆镜及其工作方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6253038U (ja) * 1985-09-24 1987-04-02
JPS644326U (ja) * 1987-06-26 1989-01-11
JPH03206434A (ja) * 1990-01-09 1991-09-09 Koichiro Tsutsui 美容、着付け等のための装置
JP2000070092A (ja) * 1998-06-15 2000-03-07 Toto Ltd 化粧鏡
JP2000143284A (ja) * 1998-09-04 2000-05-23 Nippon Sheet Glass Co Ltd 淡色高透過ガラスおよびその製造方法
JP2000270983A (ja) * 1999-03-25 2000-10-03 Osaka Megane Glass Kk 化粧鏡
JP2001139343A (ja) * 1998-09-04 2001-05-22 Nippon Sheet Glass Co Ltd 淡色高透過ガラスおよびその製造方法
JP2006223838A (ja) * 2004-10-22 2006-08-31 L'oreal Sa 顔を見えるようにする装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61119479U (ja) * 1985-01-14 1986-07-28

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6253038U (ja) * 1985-09-24 1987-04-02
JPS644326U (ja) * 1987-06-26 1989-01-11
JPH03206434A (ja) * 1990-01-09 1991-09-09 Koichiro Tsutsui 美容、着付け等のための装置
JP2000070092A (ja) * 1998-06-15 2000-03-07 Toto Ltd 化粧鏡
JP2000143284A (ja) * 1998-09-04 2000-05-23 Nippon Sheet Glass Co Ltd 淡色高透過ガラスおよびその製造方法
JP2001139343A (ja) * 1998-09-04 2001-05-22 Nippon Sheet Glass Co Ltd 淡色高透過ガラスおよびその製造方法
JP2000270983A (ja) * 1999-03-25 2000-10-03 Osaka Megane Glass Kk 化粧鏡
JP2006223838A (ja) * 2004-10-22 2006-08-31 L'oreal Sa 顔を見えるようにする装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040953A (ja) * 2009-08-10 2011-02-24 Jujo Denshi Kk 撮像表示装置及び撮像表示方法
KR101979357B1 (ko) * 2019-01-16 2019-08-28 주식회사 카티스 접이식 뷰티 큐레이팅 장치

Also Published As

Publication number Publication date
WO2009011402A1 (ja) 2009-01-22

Similar Documents

Publication Publication Date Title
JP5465768B2 (ja) プログラム及びメイクアップシミュレーション装置
JP5191665B2 (ja) メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2009039523A (ja) メイクアップシミュレーションに利用する端末装置
US20240193833A1 (en) System and method for digital makeup mirror
JP5261586B2 (ja) メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
US10380802B2 (en) Projecting augmentation images onto moving objects
JP3984191B2 (ja) 仮想化粧装置及びその方法
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
KR100722229B1 (ko) 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법
JP2009064423A (ja) メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
US7804997B2 (en) Method and system for a three dimensional facial recognition system
KR20090098798A (ko) 비디오 이미지들의 시퀀스의 가상 시뮬레이션을 위한 방법 및 디바이스
WO2019226494A1 (en) Generating textured polygon strip hair from strand-based hair for a virtual character
JP2007213623A (ja) 仮想化粧装置及びその方法
KR20160041570A (ko) 몽타주 생성 장치 및 방법, 그 방법을 수행하기 위한 기록 매체
US20200065559A1 (en) Generating a video using a video and user image or video
JP2011022733A (ja) メーキャップシミュレーション装置、メーキャップシミュレーションプログラム及び対面販売支援方法
US20230101374A1 (en) Augmented reality cosmetic design filters
EP4388503A1 (en) Augmented reality cosmetic design filters
Gu Improving coarticulation performance of 3D avatar and gaze estimation using RGB webcam
Ersotelos et al. A highly automated method for facial expression synthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130709