JP2021144582A - メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム - Google Patents

メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム Download PDF

Info

Publication number
JP2021144582A
JP2021144582A JP2020044055A JP2020044055A JP2021144582A JP 2021144582 A JP2021144582 A JP 2021144582A JP 2020044055 A JP2020044055 A JP 2020044055A JP 2020044055 A JP2020044055 A JP 2020044055A JP 2021144582 A JP2021144582 A JP 2021144582A
Authority
JP
Japan
Prior art keywords
makeup
make
face image
color
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020044055A
Other languages
English (en)
Other versions
JP7463774B2 (ja
Inventor
昌哉 中澤
Masaya Nakazawa
昌哉 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020044055A priority Critical patent/JP7463774B2/ja
Publication of JP2021144582A publication Critical patent/JP2021144582A/ja
Application granted granted Critical
Publication of JP7463774B2 publication Critical patent/JP7463774B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】ユーザのメイク技術で再現したメイクの仕上がりを確認することのできるメイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラムを提供する。【解決手段】化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得手段としての撮影制御部511と、化粧顔画像から化粧情報を検出する化粧情報検出部515と、化粧に用いたい化粧品の色を選択する化粧品色選択手段として制御部51と、化粧情報に基づいて、化粧を施されたユーザの化粧顔画像の色を、化粧品色選択手段である制御部51によって選択された化粧品の色に変更することによって、第2の化粧顔画像(合成顔画像SF)を生成する化粧顔画像合成生成手段としての表示制御部516と、第2の化粧顔画像(合成顔画像SF)を表示する表示部20と、をメイクアップシミュレーション装置1に備えた。【選択図】図2

Description

本発明は、メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラムに関するものである。
従来、カメラ等で撮影した顔の画像をディスプレイ等に表示させて、当該顔の画像に仮想的なメイク(化粧)画像処理を行うメイクアップシミュレーション方法が知られている(例えば、特許文献1)。
特開2010−73222号公報
特許文献1におけるメイクアップシミュレーションは、当該メイクアップシミュレーションが有するアルゴリズムに基づいてメイクのシミュレーションが行われるが、ユーザのメイク技術を再現するシミュレーションはできなかった。
本発明は以上のような事情に鑑みてなされたものであり、ユーザのメイク技術で再現したメイクの仕上がりを確認することのできるメイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラムを提供することを利点とするものである。
前記課題を解決するために、本発明のメイクアップシミュレーション装置の一態様は、
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得手段と、
前記化粧顔画像から化粧情報を検出する化粧情報検出手段と、
化粧に用いたい化粧品の色を選択する化粧品色選択手段と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、
前記化粧品色選択手段によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成手段と、
前記第2の化粧顔画像を表示する表示手段と、
を備えることを特徴とするメイクアップシミュレーション装置。
本発明によれば、ユーザのメイク技術で再現したメイクの仕上がりを確認することができるとの効果を奏する。
本実施形態におけるメイクアップシミュレーション装置の制御構成を示した要部ブロック図である。 本実施形態におけるメイクアップシミュレーション方法による全体的な処理を示すフローチャートである。 図2におけるメイク(化粧)情報の検出処理を示すフローチャートである。 図2におけるメイクアップシミュレーション提示処理を示すフローチャートである。 (a)は、メイク(化粧)顔画像の一例を示す図であり、(b)は、(a)における顔の主要部分を拡大して示した図であり、(c)は、(b)から抽出されるメイク(化粧)情報を模式的に示した図である。 (a)は、右目周辺の拡大図の一例であり、(b)は、(a)に示す領域に検出対象領域を設定し、目と眉毛の部分にマスクを施した場合を模式的に示した図である。 メイク情報が書き込まれたメイクテクスチャの一例を示した図である。 表示部に表示されるメイク色(化粧品の色)選択画面の一例を示す図である。 (a)は、メイク情報のうちの色情報を選択されたメイク色に変更した状態を模式的に示した図であり、(b)は、合成顔画像の一例を示す図であり、(c)は、(b)における顔の主要部分を拡大して示した図である。
図1から図9(a)〜図9(c)を参照しつつ、本発明に係るメイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラムの一実施形態について説明する。
なおここで、以下に示す実施の形態において「メイク」とは、「化粧」(メイクアップ)の仕方(種類)を示し、塗付濃度及び、塗付範囲を少なくとも含むものとする。
また、メイク色とは化粧品(肌用化粧剤)の色を示し、例えば、アイシャドウや口紅(以下において「リップ」ともいう。)等の色味を少なくとも含むものとする。
なお、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の範囲を以下の実施形態及び図示例に限定するものではない。
図1は、本実施形態におけるメイクアップシミュレーション装置の要部ブロック図である。
図1に示すように、メイクアップシミュレーション装置1は、操作部10と、表示部20と、撮影部30と、制御装置50と、を備えている。
本実施形態のメイクアップシミュレーション装置1は、例えば化粧品売り場の店頭等に配置され、ユーザや接客を行う店員等が用いるものである。
メイクアップシミュレーション装置1は、例えばタブレット型のパーソナルコンピュータ(以下において「PC」とする。)やノート型のPC、据置型のPC等で構成されている。なお、メイクアップシミュレーション装置1の構成は特に限定されず、専用の筐体を備える装置であってもよい。
操作部10は、ユーザの操作に応じて各種の操作入力・設定等の操作を行うものである。操作部10が操作されると、当該操作に対応する入力信号が制御部51に送信される。
操作部10は、例えば表示部20の表面に一体的に設けられたタッチパネルである。
表示部20に構成されるタッチパネルには、後述する表示制御部516の制御にしたがって各種の操作画面が表示され、ユーザはタッチパネルへのタッチ操作によって各種の入力・設定等の操作を行うことができる(図6参照)。
なお、各種の入力・設定等の操作を行う操作部10はタッチパネルである場合に限定されない。例えば各種の操作ボタンやキーボード、ポインティングデバイス等が操作部10として設けられていてもよい。
表示部20は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)、有機エレクトロルミネッセンスディスプレイその他のフラットディスプレイ等で構成されている。
なお、前述のように、表示部20の表面に各種の入力を行うためのタッチパネルが一体的に構成されていてもよい。この場合には、タッチパネルが操作部10として機能する。
本実施形態では、表示部20の表示画面には、各種の案内画面等が表示される他、後述するように、例えば、ユーザがメイクを施したいメイク領域を選択・設定して当該メイク領域に配置する色(メイク色)を選択・設定するためのメイク色選択画面21が表示される。
また、ユーザがメイクをした状態の顔を撮影したメイク(化粧)顔画像、ユーザがメイクをしていない状態の顔を撮影した素肌顔画像等をメイクアップシミュレーション装置1が取得した場合に、これらの画像を表示部20の表示画面に適宜表示させてもよい。
さらに、表示部20には、ユーザのメイク顔画像(化粧顔画像)から生成された顔モデルや、顔モデルのメイク領域に所望のメイク色のメイクが配置された合成顔画像(第2の化粧顔画像、図9(b)参照)等が適宜表示されるようになっている。
なお、合成顔画像を表示部20に表示させる場合には、各メイク領域についてユーザが選択したメイク色の識別番号(例えば、アイシャドウであればブルー系の何番の色、リップであればピンク系の何番の色等)や当該メイク色に対応する商品番号(例えば〇番のアイシャドウ、〇番のリップ)等を合わせて表示させてもよい。これにより、自分に似合う色の番号を確認したり、合成顔画像と同じメイクをするために必要な商品をユーザが知ることができる。
表示部20は、後述する表示制御部516によって、その表示動作が制御される。
また、撮影部30は、例えばカメラ等である撮影装置31と、撮影対象であるユーザの顔を照明する白色LED等で構成された照明装置32とを備えている。撮影装置31は、静止画像を撮影するものに限定されず、動画像を撮影するものであってもよい。この場合動画で撮影された中から、任意のフレーム画像を切り出せるようにしてもよい。
なお、本実施形態では後述するように、メイクをした状態のユーザの顔を撮影部30において撮影し、メイク顔画像(化粧顔画像)を取得する。
この撮影部30で取得される肌色情報は、例えば、RGBやHSV(色相/彩度/明度)である。
また、本実施形態では、メイクをしていないユーザの顔を撮影部30において撮影し、素肌顔画像を取得してもよい。そして、素肌顔画像を取得した場合には、素肌顔画像から、メイクをしていない部分のユーザの肌の色である肌色情報が取得される。なお、後述するように、肌色情報は素肌顔画像から取得される場合に限定されず、本実施形態において素肌顔画像を取得することは必須ではない。
本実施形態では、後述するように、メイク顔画像から、メイクの位置を示すメイク領域の情報やメイクの色(化粧品の色)情報等を含むメイク情報を検出するようになっている。このため、撮影装置31は、撮影した画像から色を識別することが可能な程度の性能(解像度等)を有することが好ましい。
この撮影部30は、後述する制御装置50の撮影制御部511によって制御される。
撮影装置31によって撮影された画像(メイク顔画像、素肌顔画像等)は、撮影制御部511において取得される。
なお、撮影部30によって撮影された画像の画像データは、後述する記憶部52に記憶されてもよい。
制御装置50は、図示しないCPU(Central Processing Unit)等のプロセッサで構成される制御部51と、ROM(Read Only Memory)及びRAM(Random Access Memory)等(いずれも図示せず)で構成される記憶部52とを備えるコンピュータである。なお、記憶部52は別構成とし、制御装置50の外部に設けるようにしてもよい。
記憶部52には、プログラム記憶領域521及びデータ保存領域522等が設けられている。
プログラム記憶領域521には、例えばメイクアップシミュレーション処理を行うためのプログラム等、メイクアップシミュレーション装置1を動作させるための各種プログラム等が格納されている。ここに言うプログラムは、例えば各種画像処理用のソフトウエアプログラム等を含む。制御部51がこれらのプログラムを例えばRAMの作業領域に展開して、プログラムが制御部51において実行されることによって、メイクアップシミュレーション装置1の各部が統括制御されるようになっている。
また、データ保存領域522には、撮影部30によって取得された各種画像(メイク顔画像、素肌顔画像等)のデータやメイク顔画像、素肌顔画像等から検出された顔パーツ情報、メイク情報、肌色情報等各種の情報、メイク顔画像から生成された顔モデル、登録されているユーザの各種情報等が、それぞれユーザごとに対応付けられて記憶されている。なお、記憶部52には、その他の各種情報が記憶されてもよい。
制御部51は、機能的に見た場合、撮影制御部511、画像処理部512、表示制御部516等を備えている。これら撮影制御部511、画像処理部512、表示制御部516等としての機能は、制御部51と記憶部52のプログラム記憶領域521に記憶されたプログラムとの協働によって実現される。
撮影制御部511は、撮影部30の撮影装置31及び照明装置32を制御して撮影装置31により、メイクをした状態のユーザの顔の画像であるメイク顔画像やメイクをしていない情報のユーザの顔の画像である素肌顔画像等の画像を撮影させる。
本実施形態では、撮影部30により取得された当該メイク顔画像や素肌顔画像は、撮影制御部511に送られる。撮影制御部511は、こうしたメイク顔画像を取得するメイク顔画像取得手段、素肌顔画像を取得する素肌顔画像取得手段として機能する。なお、撮影制御部511はメイク顔画像や素肌顔画像を記憶部52に記憶させてもよい。
なお、メイク顔画像は、通常の化粧品を用いたユーザの普段のメイク状態の顔を撮影したものであってもよいし、特定の色の専用の化粧品を使用してメイクを施した顔を撮影したものであってもよい。特定の色の化粧品とは、例えばリップなら赤色、アイシャドウなら青色等、各メイク種類に応じて明らかに区別しやすい色の化粧品であり、メイクアップシミュレーション装置1を設置している店舗等で用意されるものである。このようにメイク種類を識別しやすい特定の色の専用の化粧品を用いてメイクした顔を撮影することにより、メイク顔画像からのメイク情報の検出精度を向上させることが可能となる。
なお、メイク顔画像取得手段や素肌顔画像取得手段としての制御部51は、撮影制御部511に限定されない。
例えば、撮影部30の撮影装置31によってユーザを撮影する代わりに、ユーザのメイク顔画像や素肌顔画像のデータをUSB等の図示しないインターフェース経由で読み込んだり、ユーザの携帯端末装置(スマートフォン等)に保存されている画像データの中からユーザのメイク顔画像や素肌顔画像のデータを各種通信手段を介してメイクアップシミュレーション装置1に送信する等の手法により、制御部51が取得してもよい。さらに、メイクアップシミュレーション装置1に各種イメージスキャナ等の画像読取装置を接続させることができる場合には、ユーザによって提供されたユーザのメイク顔画像や素肌顔画像(例えばメイク顔や素肌顔を撮影した写真)を画像読取装置を介してメイクアップシミュレーション装置1の制御装置50に読み込んでもよい。
このように構成することで、ユーザが店頭の装置でメイクした状態の顔やメイクしていない素肌状態の顔を撮影する手間等を省くことが可能となる。特にメイク状態で来店したユーザに一旦素肌状態になってもらってから撮影を行うことは煩雑であり、事前のデータや写真等で代用できる場合には、これを用いることが好ましい。
なお、ユーザの素肌顔画像は、後述するようにユーザの肌色情報を得るために必要なものである。このため、他の手法で肌色情報を得ることができる場合には、撮影部30等によりユーザの素肌顔画像を取得することは必須ではない。すなわち、例えばメイクアップシミュレーション装置1に各種測色計等を接続させることができる場合には、顔のうちメイクをしていない箇所や、顔の肌色に比較的近似している首筋等の肌の色を測色計等で検出し、この検出結果を制御部51が取得することでユーザの肌色情報を取得してもよい。
画像処理部512は、撮影制御部511によって取得された各種画像や、各種の手法で制御部51が取得した各種画像に、様々な画像処理を行うものである。本実施形態において、画像処理部512は、顔モデル生成部513、顔パーツ検出部514、メイク情報検出部515等を含んでいる。
なお、メイクアップシミュレーション装置1は、画像処理部512として、GPU(Graphics Processing Unit)等、画像処理に特化した専用のプロセッサにより構成された処理装置を備えていてもよい。
顔モデル生成部513は、メイク顔画像に基づいて、メイクのベースとなる顔モデルを生成する顔モデル生成手段である。
すなわち、顔モデルは、メイクアップシミュレーション処理によって仮想的にメイクを施す際にベースとなるユーザの顔の形状の情報である。
顔モデルは、二次元的な画像であってもよいし、三次元的な画像であってもよい。
本実施形態では、顔モデル生成部513が、顔モデルとして三次元的な(立体的な)画像を生成する場合を例として説明する。
顔モデルを立体的なものとすることにより、後にメイクを合成した際に、よりリアリティのある表示を行うことができ、所望の色でメイクした場合の完成状態を、ユーザがイメージしやすくなるため好ましい。
三次元的な顔モデルを生成するには、例えば以下の手法による。
すなわち、顔モデル生成部513は、例えば、機械学習等の手法により、ユーザのメイク顔画像から、顔の輪郭の特徴点及び顔の各特徴的な部位(例えば、目、口、鼻等)を検出し、ユーザの顔の3Dモデル(顔モデル)を生成する。
このような3Dモデル(顔モデル)からは、これに対応した顔画像のテクスチャ(後述するメイクテクスチャ)を生成することが可能である。テクスチャの座標は3Dモデル(顔モデル)のポリゴンの各頂点と対応する。このため、例えばテクスチャにおいて、後述するメイク領域に配置されている色を所望のメイク色に変更(編集)すると、テクスチャにおいて行ったこうしたメイク色の変更等を3Dモデル(顔モデル)に反映させ、変更された状態で表示部20等に出力させることが可能となる。
顔モデル生成部513によって生成された顔モデルは、記憶部52のデータ保存領域522に保存される。
顔パーツ検出部514は、メイク顔画像から顔のパーツ(部品、部位)に関する顔パーツ情報を検出する顔パーツ検出手段である。
顔パーツ検出部514によって検出される主要な顔のパーツとしては、例えば目、鼻、口、眉等があげられる。顔パーツ検出部514は、こうしたものをすべて検出してもよいし、これらのうちの一部のみ検出するのでもよいし、これ以外のパーツを検出してもよい。
顔パーツ検出部514による具体的な検出手法は特に限定されず、一般的に用いられる画像処理技術によることができる。
例えば、顔パーツ検出部514は、元画像であるメイク顔画像に対して所定の微分フィルタ(例えば、ハイパスフィルタ等)を用いて微分演算を行い、輝度値や色や濃度に急峻な変化があるところをエッジとして検出するエッジ検出処理を行う。そして、顔パーツ検出部514は、この検出結果に基づいて、目、鼻、口、眉等、顔の各パーツを特定する。
なお、顔の各パーツの検出、どのエッジが顔のどのパーツに対応するか等の特定には、顔モデル生成部513による機械学習等の手法を用いた特徴点の検出等の手法を用いてもよい。
メイク情報検出部515は、メイク顔画像から顔の各パーツごとのメイク情報を検出するメイク情報検出手段である。
メイク情報検出部515により検出されるメイク情報は、少なくともメイクの位置を示すメイク領域の情報及び塗布色の濃淡情報を含んでいる。濃淡情報は、例えばグラデーション、むら、ぼかし等の塗布色の塗り方に関するものであり、メイクの技法・技量に関わる情報である。またメイク情報はメイクの色情報を含んでいてもよい。
本実施形態の制御部51は、ユーザの素肌顔画像等に基づいてユーザのメイクを施していない肌の肌色情報を取得する肌色情報取得手段として機能するようになっており、メイク情報検出部515は、メイク顔画像とユーザの肌色情報とを比較して、素肌の状態から色が変化している部分にメイクが施されていると判断して、メイク情報を抽出する。
なお、メイク情報検出部515によるメイク情報の検出手法の詳細については後述する。
メイク情報検出部515は、検出したメイク情報を、顔モデル(顔の3Dモデル)に対応した座標を持つテクスチャ(メイクテクスチャ)に書き込むことで、顔のどのパーツについて、どのような位置・範囲で、どのような濃度・濃淡のメイクがなされているかを記録する。
なお、メイクテクスチャとしては、カラーマップ(ディフューズマップ)が想定される。なお、本実施形態では、メイクテクスチャとして、メイク情報検出部515による検出結果を顔モデル(顔の3Dモデル)に適用するための出力用のメイクテクスチャと、検出したメイク情報を保存するためのデータ保存用のメイクテクスチャとが用意される。
メイク情報は各顔パーツと対応付けられてデータ保存用のメイクテクスチャに書き込まれ、記憶部52のデータ保存領域522等に保存される。これにより、ユーザが次回以降メイクアップシミュレーション装置1を使用する際には、データ保存用のメイクテクスチャに書き込まれているメイク情報を用いることができ、メイクアップシミュレーション処理をより迅速かつ簡易に利用することができる。
また、制御部51は、操作部10等からメイクに用いたいメイク色がユーザによって選択・設定されると、当該入力指示の内容を受け付けて、ユーザ所望のメイク色(化粧品色)を選択するメイク色選択手段(化粧品色選択手段)として機能する。
メイク色選択手段として制御部51が受け付け、選択したメイク色の情報は、出力用のメイクテクスチャにおける各メイク領域に適用される。
表示制御部516は、表示用のデータを生成し、表示部20の表示動作を制御する。
本実施形態の表示制御部516は、顔モデル生成部513によって生成された顔モデルに、メイク色選択手段としての制御部51によって選択されたメイク色をメイク情報に基づいて重畳し合成顔画像(第2の化粧顔画像)を生成する化粧顔画像合成生成手段として機能する。
具体的には、顔モデル生成部513によって生成された顔モデルに、メイク色の情報が書き込まれた出力用のメイクテクスチャを適用して、表示部20に出力する表示用のデータを生成する。
この表示用のデータに基づいて、表示部20には、ユーザ所望の色で、ユーザ自身の施したメイクの技法・技量により施されたメイクが、顔モデルに重畳された合成顔画像SF(第2の化粧顔画像、図9(c)参照)が表示される。
次に、図2から図4等を参照しつつ、本実施形態のメイクアップシミュレーション方法について説明する。
図2は、メイクアップシミュレーション方法の概略を示すフローチャートである。
本実施形態のメイクアップシミュレーション装置1を用いてメイクアップシミュレーション処理を行う場合には、ユーザは、メイクアップシミュレーション装置1の操作部10等を操作して電源を入れ起動させる。
操作部10等から装置を利用するユーザ名やID等が入力されると、制御部51は、当該ユーザについてすでに記憶部52のデータ保存領域522等に保存されている顔モデルがあるか否かを判断する(ステップS1)。
すでに顔モデルが記憶されている場合(ステップS1;YES)には、制御部51は、記憶部52のデータ保存領域522等に保存されているメイクテクスチャがあるか否かを判断する(ステップS2)。
そして、すでにメイクテクスチャが保存されている場合(ステップS2;YES)には、さらに制御部51は、記憶部52のデータ保存領域522等に保存されているメイク情報、具体的には、データ保存用のメイクテクスチャに書き込まれている情報を、使用するか否かを判断する(ステップS3)。
具体的には、例えば何年何月に保存したメイク情報を今回のメイクアップシミュレーション処理に用いるか否かをユーザに問い合わせるメッセージ等を表示部20の表示画面等に表示させ、OKボタンの操作等により了承の意思表示がされたか否かを判断する。
なお、ユーザのメイクの技術や技量、好み等は経時的に変化するため、所定の期間以上前に得られたメイク情報では、現在のユーザの技術・技量等を適切に反映した結果が得られないことも考えられる。このため、保存されているメイク情報が所定の期間以上前のものである場合には、自動的に使用しないとの判断を行うようにしてもよい。
当該ユーザについて、顔モデル、データ保存用のメイクテクスチャがまだ保存されていない場合(ステップS1及びステップS2;NO)、またはこれらは保存されているが、保存されているメイク情報を用いないと判断された場合(ステップS3;NO)には、制御部51は改めてメイク顔画像を取得する。
具体的には、撮影制御部511が撮影部30を制御してユーザのメイクアップ状態の顔を撮影させ、その画像であるメイク顔画像を取得する(ステップS4)。なお、撮影は正面からのみでもよし、正面と左右両側面等、複数取得してもよい。
図5(a)は、メイク顔画像FIの一例を示したものである。
メイク顔画像FIを取得すると、制御部51はさらに、保存されている肌色情報があるか否かを判断する(ステップS5)。肌色情報がすでに記憶部52のデータ保存領域522等に保存されている場合(ステップS5;YES)には、当該保存されている肌色情報を記憶部52から読み出す(ステップS6)。
他方、保存されている肌色情報がない場合(ステップS5;NO)には、肌色情報を取得する(ステップS7)。前述のように、肌色情報は、メイクしていない状態のユーザを撮影して素肌顔画像を取得し、この素肌顔画像から検出してもよいし、測色計等で首や顔のメイクしていない部分の肌の色を測色することで取得してもよい。また、メイク顔画像のメイクをほとんどしていない部分から肌色を推定することにより肌色情報を取得してもよい。
そして、記憶部52等から肌色情報を読み出した場合又は新たに肌色情報を取得した場合には、制御部51はメイク情報の検出処理を行う(ステップS8)。
図3は、メイク情報の検出処理(ステップS8)の詳細を説明するフローチャートである。
図3に示すように、メイク情報の検出を行う場合には、まず制御部51(顔モデル生成部513)が、メイク顔画像FIに基づいて顔モデルを生成する(ステップS21)。
また、制御部51(顔パーツ検出部514)が、メイク顔画像FIに基づいて顔パーツの情報を検出する(ステップS22)。
図5(b)は、図5(a)に示すメイク顔画像FIの要部を拡大して、図5(a)に示すメイク顔画像FIにおける顔パーツの例を示したものである。
図5(b)では、顔パーツとして、右目FP1、右眉毛FP2、左目FP3、右眉毛FP4、口FP5を検出する例を示している。図示はしていないが、他に頬等の部位を顔パーツとして検出してもよい。また、顔パーツとしては、顔の構成部のうち特徴点となり得るものをすべて抽出してもよいが、特にメイクとの対応付けを行わない部分(すなわち、ほとんどメイクを行わない部分)については検出しなくてもよく、例えば図5(b)において、鼻部分は特に顔パーツとして検出していない。
さらに、メイク情報検出部515が、メイク顔画像と肌色情報とに基づいてメイク情報を検出する。
メイク情報検出部515が検出するメイク情報は、メイクの位置を示すメイク領域とメイクの色情報、濃淡情報を含んでおり、メイク情報検出部515は、これらのメイク情報を各メイク領域Mar1〜Mar4についてそれぞれ検出する。
濃淡情報は、例えば、各メイクに表現されるグラデーションやぼかし等であり、メイクをするユーザのメイクの技術・技量・好み等が反映される。
図5(c)は、メイク種類が、右目FP1のアイシャドウ、左目FP3のアイシャドウ、口FP5の上唇のリップと下唇のリップである場合に、それぞれのメイクの位置を示すメイク領域がメイク領域Mar1〜Mar4である場合を示している。
メイク情報検出部515は、具体的には以下のような手法によってメイク情報を検出する。
すなわち、メイク情報検出部515は、まず、メイク種類ごとに検出対象領域Ar1(図6(b)参照)を設定する(ステップS23)。
検出対象領域Ar1は、例えばメイク種類がアイシャドウであれば目のおよその周辺領域、リップであれば唇のおよその周辺領域を設定した後、さらに領域を絞り込んで設定される。
図6(a)及び図6(b)では、メイク情報検出部515が右目FP1周辺に施されるアイシャドウを検出する場合を例示している。
図6(a)は、右目FP1及び右眉毛FP2周辺領域を大まかに切り出した状態を示したものであり、図6(b)では、図6(a)に示す領域をさらに絞り込んで、アイシャドウを検出するために必要な領域(図中太枠で囲んだ領域)を検出対象領域Ar1として設定した状態を示している。
メイク情報検出部515は、検出対象領域Ar1を設定すると、この中から、明らかにアイシャドウを施さない領域である右目FP1及び右眉毛FP2を除外領域Ex1,Ex2として、メイク情報の検出処理を行う領域から除外する(ステップS24)。そして、まぶた周辺の肌部分のみをメイク情報の検出対象領域Ar1としてメイク情報の検出処理を行う。
なお、除外領域Ex1,Ex2を設定するにあたっては、前述の顔パーツ検出部514が顔パーツを検出する場合と同様に、元画像であるメイク顔画像に対して所定の微分フィルタ(例えば、ハイパスフィルタ等)を用いて微分演算を行い、輝度値や色や濃度に急峻な変化があるところをエッジとして検出するエッジ検出処理を行う。なお、顔パーツ検出部514による検出結果を利用して目の輪郭、眉毛の輪郭等を特定し、除外領域Ex1,Ex2を設定してもよい。
また、除外領域Ex1,Ex2の設定の仕方は図示例に限定されない。例えば、右目FP1の上側の境界を検出してそれより下の部分はすべて除外領域Ex1としてもよい。同様に右眉毛FP2の下側の境界を検出してそれより上の部分はすべて除外領域Ex2としてもよい。
なお、メイク情報(例えばアイシャドウの情報)を検出するために必要な領域として、どのような範囲を検出対象領域として設定するかは予めデフォルトで規定されていてもよい。例えば、アイシャドウは眼球と眉毛との間の領域に施されるため、眼球と眉毛とを含む領域であれば必ずその中にアイシャドウが施された領域が含まれている。このため、右側のアイシャドウを検出する場合には、図6(b)に示すように、検出対象領域Ar1として右目FP1及び右眉毛FP2を含む領域を設定する。
また、除外領域Ex1,Ex2を設定するにあたっても、除外すべき領域が予め規定されていてもよい。例えば、アイシャドウであれば眼球と眉毛が除外領域となり、アイラインであれば、アイラインを検出するためのアイラインの検出対象領域はアイシャドウの検出対象領域Ar1と類似の領域に設定されても、除外領域としては眼球及び眉毛の他、眼球と眉毛との間のまぶたの領域で眉毛寄りの上側部分を含めることが好ましい。これにより、目の際に施されるアイラインのメイク情報のみを的確に検出することができる。
検出対象領域(例えば、アイシャドウを検出する場合の検出対象領域Ar1)のうち、除外領域Ex1,Ex2を除いた範囲からメイク情報(例えばアイシャドウの情報)を検出する具体的な手法としては、各種のものが適用可能である。
例えば、本実施形態では、ユーザの肌色情報と、メイク顔画像におけるメイク情報の検出領域内の輝度や明度とを比較したときにその差分の大きな部分を、メイクを施しているメイク領域であると検出する。
すなわち、メイク情報検出部515は、メイク顔画像における検出対象領域Ar1内で、例えば1画素ごとに、当該画素のメイク顔画像における色情報と、ユーザの肌色情報との色の差分を求める(ステップS25)。
色の差分を求める方法としては色差等を用いることができる。メイク情報検出部515は、この差分が一定の閾値以上であるか否かを判断し(ステップS26)、差分が閾値以上である場合(ステップS26;YES)に、当該部分(画素)は素肌の色とは異なる、すなわちメイクが施されている部分であると判定する(ステップS27)。
当該画素がメイクを施された領域の画素である場合には、メイク情報検出部515は、当該画素におけるメイクの色情報を、例えばRGB(すなわちRED、GREEN、BLUE)値でデータ保存用のメイクテクスチャFT(図7参照)の該当箇所にセットする(ステップS28)。
なお、メイク情報検出部515によって検出され、データ保存用のメイクテクスチャに書き込まれるメイクの色情報は、各メイク領域における各画素の濃淡情報を含むものである。
図7は、データ保存用のメイクテクスチャの一例を示したものである。
例えば、図7に示すアイシャドウが施されたメイク領域では、濃い青から薄い青まで複数段階でグラデーションがかかっている。そこで、各色のレベルに応じて、例えば「B1」から「B4」までの色情報が書き込まれる。これに対して、リップが施されたメイク領域は均一な濃さで塗られているため、リップのメイク領域内の画素には例えばすべて「R2」の色情報が書き込まれる。
なお、図7では模式的にしか表現していないが、こうした濃淡情報を含む色情報は、メイク情報検出部515によって例えば1画素ごとに検出され、詳細にデータ保存用のメイクテクスチャに書き込まれる。
図7において「α」で示される値(α値;alpha value)は、色情報とは別に画素(ピクセル)ごとに設けられた付加情報を表す数値である。本実施形態では、メイクの有無、種類がα値で表現される。
データ保存用のメイクテクスチャの初期状態のα値はすべて0とし、メイクが施されていない部分(図7においてメイクなし領域NMar)のα値は0のままである。
これに対して左右のアイシャドウに対応するメイク領域Mar1,Mar2には「α=0.1」が設定され、上唇と下唇のリップに対応するメイク対象領域Mar3,Mar4には「α=0.3」が設定されている。この他、図示は省略するが、例えば頬部分のチークに対応するメイク対象領域には例えば「α=0.2」等が設定されてもよい。
メイク情報検出部515は、メイク領域に対応するメイク種類との対応付けα値をセットする(ステップS29)。
なお、例えば、アイシャドウは青、チークはピンク、リップは赤、というように、メイクの種類ごとに特定の色が指定された専用の化粧品を使用してユーザにメイクをしてもらい、メイク顔画像を取得してもよい。この場合には、画像から色を検出すれば当該色情報からそれがどの顔パーツに対応するどのような種類のメイクであるか(例えばそれがアイシャドウであるのかリップであるのか等)を特定することができ、メイク情報の検出精度を向上させることが可能となる。なお、通常の化粧品を用いてメイクをした状態でメイク顔画像を取得した場合でも、ある程度、色を見ることで各メイクの種類やメイクが施されている位置、対応付けるべき顔パーツを把握することは可能である。
また、ここではメイク情報検出部515が、設定した検出対象領域Ar1から除外領域Ex1,Ex2を除いた全範囲内で各画素の色と肌色との差分を判定する例を示したが、他の手法として類似色の領域を抽出することも可能である。例えば、設定した検出対象領域Ar1内からメイクが施されているであろう位置を一カ所推定し、肌色と当該箇所の色との差分が閾値以上であるとき、推定した箇所の色を基準として類似色の領域を検出する。
類似色の領域検出は、各種の画像編集・処理用のソフトウエアプログラムにおいて用いられる色域を選択する手法等を適用することによって実現することができる。
色域とは、例えば、HSV等の色空間で、それぞれの成分ごとのヒストグラムから対象色の閾値を指定することによって求められる。
このように類似色の領域を検出する場合には、1画素ずつ検出する場合よりも処理速度の向上が期待できる。
メイク情報検出部515は、画素の色について算出した差分が所定の閾値を超えない場合(ステップS26;NO)またはメイク領域と判定された画素の色情報やα値をデータ保存用のテクスチャに書き込むと、検出対象領域Ar1内(除外領域Ex1,Ex2を除く)の検出が終了したか否かを判断する(ステップS30)。
そしてまだ全画素の検出処理が終了していない場合(ステップS30;NO)には、ステップS25に戻って次の画素について同様の処理を繰り返す。
他方、全画素の検出処理が終了している場合(ステップS30;YES)には、メイク情報検出部515はさらに、他に検出対象領域があるか否かを判断する(ステップS31)。そして他にも検出処理を行っていない検出対象領域がある場合(ステップS31;YES)には、ステップS24に戻って次の検出対象領域について同様の処理を繰り返す。
他方、すべての検出対象領域についての検出処理が終了している場合(ステップS31;YES)には、メイク情報の検出処理を終了する。
メイクアップシミュレーション処理に必要なすべての情報が取得されると、図2に戻り、メイク情報の検出処理において取得された各種の情報、具体的には顔モデルやデータ保存用のメイクテクスチャが記憶部52のデータ保存領域522に保存される(ステップS9)。
なお、ユーザの素肌顔画像や肌色情報等も記憶部52のデータ保存領域522に保存されることが好ましい。
ユーザのメイク情報や、肌色情報等を記憶させておくことにより、次回以降はメイク情報や肌色情報等を取得する手間を省いて簡易・迅速にメイクアップシミュレーション処理を行うことが可能となる。
記憶部52への各種情報の記憶が完了すると、メイクアップシミュレーションをユーザに提示するメイクアップシミュレーション提示処理を行うことができる状態となる(ステップS10)。
図4は、メイクアップシミュレーション提示処理(ステップS10)の詳細を説明するフローチャートである。
図4に示すように、メイクアップシミュレーション提示処理では、まず、ユーザがメイクの色を変更したいメイク種類と変更したいメイク色を設定する(ステップS41)。
具体的には、表示制御部516がメイク色選択画面21を表示部20の表示画面に表示させる。
図8は、メイク色選択画面の一例を示す画面例である。
図8に示すように、メイク色選択画面21には、例えばユーザの画像が表示されたユーザ表示欄21aや、各メイク領域に塗布したいメイク色候補が一覧に並べられた候補色選択欄21b等が表示されるようになっている。
ユーザ表示欄21aに表示される画像は、例えばメイク顔画像から取得されたメイクの色情報のRGB値が各メイク領域(メイク対応箇所)に書き込まれた出力用のメイクテクスチャを立体的な顔モデルに適用したものであり、このメイクテクスチャに書き込まれているRGB値をHSV空間等に変換して表示用データとして出力させることで、ユーザのメイク顔画像が立体的な画像として表示部20の表示画面に表示される。
なお、表示部20に表示される画像は、ユーザのものではない一般的・平均的な顔モデルが示されてもよい。
そして、ユーザがユーザ表示欄21a等において、メイク色を変更したいメイク種類(例えば右目のアイシャドウ)のメイク領域を選択し、当該メイク部分に塗布したい色(例えばアイシャドウであれば、現状表示されているものよりも色味の淡い青色等)を、候補色選択欄21bから選んで設定する。すなわち、ユーザがそれぞれ所望の色を操作部10(表示部20に設定されたタッチパネルを含む)等から選択し、入力することでその操作信号が制御部51に出力されて、各メイク種類ごとのメイク色が設定される。
図9(a)は、右目のアイシャドウのメイク領域Mar1、左目のアイシャドウのメイク領域Mar2、上下のリップのメイク領域Mar3,Mar4にそれぞれ図5(c)に示したものとは異なるメイク色が設定された様子を示した図である。
メイク色が設定されると、制御部51(例えば表示制御部516)は、データ保存用のメイクテクスチャを記憶部52から読み出して当該メイクテクスチャの該当箇所のRGB値を取得する(ステップS42)。そしてユーザが変更希望した箇所のメイクの色情報を設定されたメイク色に色調補正する(ステップS43)。
その上で出力用のメイクテクスチャを用意し、その該当箇所に色調補正後のRGB値を書き込む(ステップS44)。
さらに、制御部51は、出力用のメイクテクスチャの該当箇所のα値を変更して透過設定を解除する(ステップS44)。
すなわち、出力用のメイクテクスチャにおいても、データ保存用のメイクテクスチャと同様に、何ら情報が書き込まれていない部分(すなわちメイク情報が存在しない部分)は、α値が0の初期状態(すなわち、「α=0」)であって、これを顔モデルに重畳しても完全に透過されて何も表示されない。
そこで、制御部51は、出力用のメイクテクスチャのうち、色調補正後のRGB値が書き込まれた箇所について順次α値を「0」から各メイク種類を示す値に変更する。例えばアイシャドウ部分であれば、「α=0」を「α=0.1」に変更する。これにより表示部20の表示画面上でアイシャドウ部分の色が、ユーザが設定したメイク色に変更される。
制御部51は、各メイクの色情報がユーザの選択・設定した色に変更された出力用のメイクテクスチャを生成すると、これを顔モデルに適用する。
そして、これに基づいて、メイク情報に含まれる色情報がユーザにより設定されたメイク色に変更された合成顔画像SFを表示部20に表示させる。
図9(b)は、表示部20に表示される合成顔画像SFの一例を示したものであり、図9(c)は、図9(b)における各顔パーツ周辺を拡大して示したものである。
図9(b)及び9(c)に示すように、本実施形態では、元のメイク顔画像に表されるユーザ本人のメイクの技術・技量(例えば図5(a)及び5(b)参照)はそのままに、色のみを変更した状態を表示部20の表示画面上で再現し、確認することができる。
なお、図2〜図4に示した処理手順は一例であり、処理の順序が適宜前後してもよい。
以上のように、本実施形態によれば、メイクを施したユーザのメイク顔画像を取得して、メイク顔画像に基づいて、メイクのベースとなる顔モデルを生成し、メイク顔画像から顔のパーツに関する顔パーツ情報を検出するとともに、各顔パーツごとに、メイクされている領域(メイク領域)やメイクの色、濃淡情報等を含むメイク情報を検出する。そして、メイクに用いたいメイク色をユーザが選択すると、顔モデルに当該選択されたメイク色でメイク情報に応じたメイクを施した合成顔画像を生成して表示部20に表示させるようになっている。
これにより、試してみたい色の化粧品等を実際に顔にメイクをして試さなくても、ユーザ自身の技術や技量に応じて用いた場合にどのような仕上がりとなるのかを、表示部20の表示画面上で確認することができる。このため、実際の仕上がりをイメージしやすく、ユーザ自身で使いこなすことのできない色の化粧品を購入してしまう失敗を回避することができる。
また、本実施形態では、少なくともメイクを施したユーザの顔を撮影する撮影部30を備え、撮影部30で撮影されたメイク顔画像に基づいてメイクのベースとなる顔モデルを生成したり、ユーザ自身のメイクの仕方に関するメイク情報を取得することができる。
このため、過去の画像等から読み込むよりも、より現状のレベル等に応じた結果を確認することができる。
また、メイクをしている箇所の色との差分を取得するための肌色情報を、メイクを施していないユーザの素肌顔画像から取得するとした場合には、メイクをしている肌から推測する等の手法による場合よりも、より正確に肌色を検出することができ、肌色との差分を正確に算出することができる。
また、メイクのベースとなる顔モデルとして立体的な画像を生成した場合には、あたかも実際にメイクを試したようなリアリティのある画像でメイクアップシミュレーションを体験することができる。
また、メイク情報は少なくともメイクの位置を示すメイク領域の情報及び塗布色の濃淡情報を含んでいることを特徴とする請求項1から請求項4のいずれか一項に記載のメイクアップシミュレーション装置。
また、顔モデル及びメイク情報を記憶部52のデータ保存領域522に記憶させるようにした場合には、2回目以降にメイクアップシミュレーション処理を体験するときに、メイクを施した顔の画像を撮影する必要がなく、ユーザにとっての負担を軽減することができる。また、すでに取得してある情報を用いることができるため、処理にかかる時間も短縮することができ、簡易かつ迅速にメイクアップシミュレーションを試すことが可能となる。
さらに、過去に取得されたメイク情報を保存しておいた場合には、例えば、メイクアップシミュレーションを体験する際にはその都度新たにメイク情報等を取得してそれに基づく表示を行うものとし、新たに取得されたメイク情報と過去のメイク情報とを比較できるようにすることも可能となる。この場合には、ユーザのメイクの仕方、技術や技量の変化、向上等をメイク情報の変化から確認することができる。
なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。
例えば、本実施形態では、メイク情報に基づいた合成顔画像SFを表示部20に表示させるとしたが、メイクアップシミュレーション装置1に印刷装置を接続することができる場合には、合成顔画像SF等を印刷装置から出力させてもよい。
またこのような出力を行う場合、各メイク領域においてユーザが選択したメイク色の識別番号(例えば、アイシャドウであればブルー系の何番の色、リップであればピンク系の何番の色等)や当該メイク色に対応する品番(例えば〇番のアイシャドウ、〇番のリップ)等も合わせて出力させてもよい。
また、ユーザの実際のメイクに基づくメイク情報が再現されたメイクアップシミュレーション処理の結果画像である合成顔画像SFとともに、例えばアイシャドウやチーク等を塗布する範囲やユーザの肌色と相性のいい色等についてのアドバイスや提案、塗布例等が表示されるようにしてもよい。
以上本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得手段と、
前記化粧顔画像から化粧情報を検出する化粧情報検出手段と、
化粧に用いたい化粧品の色を選択する化粧品色選択手段と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択手段によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成手段と、
前記第2の化粧顔画像を表示する表示手段と、
を備えることを特徴とするメイクアップシミュレーション装置。
<請求項2>
さらに、化粧を施された前記ユーザの顔を撮影する撮影手段を備え、
前記化粧顔画像取得手段は、前記撮影手段により撮影された化粧顔画像を取得することを特徴とする請求項1に記載のメイクアップシミュレーション装置。
<請求項3>
さらに、ユーザの化粧を施していない肌の肌色情報を取得する肌色情報取得手段を備え、
前記肌色情報は、化粧を施していないユーザの素肌顔画像から取得されることを特徴とする請求項1又は請求項2に記載のメイクアップシミュレーション装置。
<請求項4>
前記化粧顔画像に基づいて、化粧をシミュレーションする顔モデルを生成する顔モデル生成手段を備え、前記顔モデルとして立体的な画像を生成することを特徴とする請求項1から請求項3のいずれか一項に記載のメイクアップシミュレーション装置。
<請求項5>
前記顔モデル及び前記化粧情報を記憶する記憶部を備えていることを特徴とする請求項4に記載のメイクアップシミュレーション装置。
<請求項6>
前記化粧情報は少なくとも化粧の位置を示す化粧領域の情報及び塗布色の濃淡情報を含んでいることを特徴とする請求項1から請求項5のいずれか一項に記載のメイクアップシミュレーション装置。
<請求項7>
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得工程と、
前記化粧顔画像から化粧情報を検出する化粧情報検出工程と、
化粧に用いたい化粧品の色を選択する化粧品色選択工程と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択工程によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成工程と、
前記第2の化粧顔画像を表示手段に表示させる表示工程と、
を含むことを特徴とするメイクアップシミュレーション方法。
<請求項8>
コンピュータに、
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得機能と、
前記化粧顔画像から化粧情報を検出する化粧情報検出機能と、
化粧に用いたい化粧品の色を選択する化粧品色選択機能と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択機能によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成機能と、
前記第2の化粧顔画像を表示手段に表示させる表示機能と、
を実現させることを特徴とするプログラム。
1 メイクアップシミュレーション装置
20 表示部
30 撮影部
51 制御部
52 記憶部
511 撮影制御部
512 画像処理部
513 顔モデル生成部
514 顔パーツ検出部
515 メイク情報検出部
516 表示制御部
521 プログラム記憶領域
522 データ保存領域

Claims (8)

  1. 化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得手段と、
    前記化粧顔画像から化粧情報を検出する化粧情報検出手段と、
    化粧に用いたい化粧品の色を選択する化粧品色選択手段と、
    前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択手段によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成手段と、
    前記第2の化粧顔画像を表示する表示手段と、
    を備えることを特徴とするメイクアップシミュレーション装置。
  2. さらに、化粧を施された前記ユーザの顔を撮影する撮影手段を備え、
    前記化粧顔画像取得手段は、前記撮影手段により撮影された化粧顔画像を取得することを特徴とする請求項1に記載のメイクアップシミュレーション装置。
  3. さらに、ユーザの化粧を施していない肌の肌色情報を取得する肌色情報取得手段を備え、
    前記肌色情報は、化粧を施していないユーザの素肌顔画像から取得されることを特徴とする請求項1又は請求項2に記載のメイクアップシミュレーション装置。
  4. 前記化粧顔画像に基づいて、化粧をシミュレーションする顔モデルを生成する顔モデル生成手段を備え、前記顔モデルとして立体的な画像を生成することを特徴とする請求項1から請求項3のいずれか一項に記載のメイクアップシミュレーション装置。
  5. 前記顔モデル及び前記化粧情報を記憶する記憶部を備えていることを特徴とする請求項4に記載のメイクアップシミュレーション装置。
  6. 前記化粧情報は少なくとも化粧の位置を示す化粧領域の情報及び塗布色の濃淡情報を含んでいることを特徴とする請求項1から請求項5のいずれか一項に記載のメイクアップシミュレーション装置。
  7. 化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得工程と、
    前記化粧顔画像から化粧情報を検出する化粧情報検出工程と、
    化粧に用いたい化粧品の色を選択する化粧品色選択工程と、
    前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択工程によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成工程と、
    前記第2の化粧顔画像を表示手段に表示させる表示工程と、
    を含むことを特徴とするメイクアップシミュレーション方法。
  8. コンピュータに、
    化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得機能と、
    前記化粧顔画像から化粧情報を検出する化粧情報検出機能と、
    化粧に用いたい化粧品の色を選択する化粧品色選択機能と、
    前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択機能によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成機能と、
    前記第2の化粧顔画像を表示手段に表示させる表示機能と、
    を実現させることを特徴とするプログラム。
JP2020044055A 2020-03-13 2020-03-13 メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム Active JP7463774B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020044055A JP7463774B2 (ja) 2020-03-13 2020-03-13 メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044055A JP7463774B2 (ja) 2020-03-13 2020-03-13 メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021144582A true JP2021144582A (ja) 2021-09-24
JP7463774B2 JP7463774B2 (ja) 2024-04-09

Family

ID=77766821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044055A Active JP7463774B2 (ja) 2020-03-13 2020-03-13 メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7463774B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119154A (zh) * 2021-11-25 2022-03-01 北京百度网讯科技有限公司 虚拟化妆的方法及装置
WO2023056333A1 (en) * 2021-09-30 2023-04-06 L'oreal Augmented reality cosmetic design filters
FR3130423A1 (fr) * 2021-12-15 2023-06-16 L'oreal Filtres de dessin cosmétique en réalité augmentée
CN117495664A (zh) * 2023-12-25 2024-02-02 成都白泽智汇科技有限公司 一种智能辅助化妆系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149696A (ja) * 2013-02-01 2014-08-21 Panasonic Corp メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP2018109842A (ja) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 化粧品提示システム、化粧品提示方法、及び化粧品提示サーバ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149696A (ja) * 2013-02-01 2014-08-21 Panasonic Corp メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP2018109842A (ja) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 化粧品提示システム、化粧品提示方法、及び化粧品提示サーバ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023056333A1 (en) * 2021-09-30 2023-04-06 L'oreal Augmented reality cosmetic design filters
CN114119154A (zh) * 2021-11-25 2022-03-01 北京百度网讯科技有限公司 虚拟化妆的方法及装置
FR3130423A1 (fr) * 2021-12-15 2023-06-16 L'oreal Filtres de dessin cosmétique en réalité augmentée
CN117495664A (zh) * 2023-12-25 2024-02-02 成都白泽智汇科技有限公司 一种智能辅助化妆系统
CN117495664B (zh) * 2023-12-25 2024-04-09 成都白泽智汇科技有限公司 一种智能辅助化妆系统

Also Published As

Publication number Publication date
JP7463774B2 (ja) 2024-04-09

Similar Documents

Publication Publication Date Title
CN109690617B (zh) 用于数字化妆镜的系统和方法
JP2021144582A (ja) メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラム
JP4753025B2 (ja) メイクアップシミュレーション方法
JP4760999B1 (ja) 画像処理装置、画像処理方法、および制御プログラム
JP4862955B1 (ja) 画像処理装置、画像処理方法、および制御プログラム
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
US8884980B2 (en) System and method for changing hair color in digital images
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
KR101363691B1 (ko) 메이크업 시뮬레이션 시스템, 메이크업 시뮬레이션 장치,메이크업 시뮬레이션 방법 및 메이크업 시뮬레이션프로그램
JP3779570B2 (ja) 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
US20190026954A1 (en) Virtually trying cloths on realistic body model of user
WO2018221092A1 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
US20100189357A1 (en) Method and device for the virtual simulation of a sequence of video images
TWI421781B (zh) Make-up simulation system, make-up simulation device, make-up simulation method and make-up simulation program
JP5261586B2 (ja) メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2010211308A (ja) メイクアップアドバイス装置、メイクアップアドバイス方法及びプログラム
CN112308944A (zh) 仿真唇妆的扩增实境显示方法
KR20210032489A (ko) 신체 영역 상의 메이크업 제품의 렌더링의 시뮬레이션 방법
JP2011022733A (ja) メーキャップシミュレーション装置、メーキャップシミュレーションプログラム及び対面販売支援方法
JP5029852B2 (ja) メイクアップシミュレーション方法
JP4372494B2 (ja) 画像処理装置、画像処理方法、プログラム、記録媒体
JP4323910B2 (ja) 画像合成装置及び方法
CN114155569B (zh) 一种化妆进度检测方法、装置、设备及存储介质
JP4487961B2 (ja) メイクアップシミュレーション方法
JP2007299113A (ja) ヘアカラー・メイクアップシミュレーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7463774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150