JP2020091852A - メイクアップ製品の現実的レンダリングをシミュレーションするための方法 - Google Patents

メイクアップ製品の現実的レンダリングをシミュレーションするための方法 Download PDF

Info

Publication number
JP2020091852A
JP2020091852A JP2019202054A JP2019202054A JP2020091852A JP 2020091852 A JP2020091852 A JP 2020091852A JP 2019202054 A JP2019202054 A JP 2019202054A JP 2019202054 A JP2019202054 A JP 2019202054A JP 2020091852 A JP2020091852 A JP 2020091852A
Authority
JP
Japan
Prior art keywords
image
subject
color feature
feature value
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019202054A
Other languages
English (en)
Other versions
JP7127004B2 (ja
Inventor
マーティン,ヴィクター
Martin Victor
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chanel Parfums Beaute SAS
Original Assignee
Chanel Parfums Beaute SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chanel Parfums Beaute SAS filed Critical Chanel Parfums Beaute SAS
Publication of JP2020091852A publication Critical patent/JP2020091852A/ja
Application granted granted Critical
Publication of JP7127004B2 publication Critical patent/JP7127004B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするための方法を提供する。【解決手段】方法は、メイクアップなしの対象者の顔の画像を取得するステップ100と、画像の複数の空間周波数範囲の各々の複数の空間エリアの各々について、空間エリアの第1の色特徴値を抽出するように画像を処理するステップ300と、参照画像のデータベースのうち、メイクアップしていない場合に対象者の第1の色特徴値に類似する色特徴値を有する参照個人のセットを決定するステップ400と、対象者の第1の色特徴値から、並びにメイクアップ製品あり及びなしの参照個人のセットの色特徴値から、第2の色特徴値を決定するステップ500と、第2の色特徴値に基づいて対象者の顔の修正済み画像を生成するステップ600とを備える。【選択図】図1

Description

本発明は、対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするための方法、及び前記方法を実施するためのシステムに関する。本発明は、特に、ファンデーションメイクアップ製品のレンダリングをシミュレーションするのに適している。
その人の肌色に適合したファンデーションの選択は、いくつかの課題のために常に難しいものとなる。第一に、人の肌に一旦塗布されたファンデーションの色は、バルクのファンデーション製品の色とは異なる。実際に、それは人の肌の色に応じて人ごとに異なる。第二に、人にとって、その肌の色を正確に認識し、どのファンデーションが最適であるか選択することも難しい。
この問題を回避するために、対象者の顔の画像にファンデーションのレンダリングをシミュレーションするための解決手段はすでに提示されている。このタイプの解決手段では、画像へのレンダリングのシミュレーションは、シミュレーションアルゴリズムの開発者によって設定されメイクアップエキスパートによって認証された所定の規則の適用の結果としてもたらされる。これらの所定の規則は、例えば、バルクのファンデーション製品の色パラメータから、ファンデーションのレンダリングをシミュレーションする画像の色パラメータを計算するための規則である。
このタイプの解決手段の欠点は、メイクアップ製品のレンダリングが対象者の肌の色に左右されないので、シミュレーションされたレンダリングは完全には現実的となり得ない。
より一般的には、このタイプの解決手段において確立される所定の規則は、限定された量のパラメータに基づき、肌のすべての特異性を考慮しておらず、それによりレンダリングに影響を及ぼしてしまう。
したがって、このタイプの解決手段のユーザは、ファンデーションのレンダリングのシミュレーションを、肌に一旦塗布したその実際のレンダリングと比較すると、失望してしまう。
画像にメイクアップ製品のレンダリングをシミュレーションするための方法は、Kristina Scherbaumらによる「Computer−Suggested Facial Makeup」、Computer Graphic Forum、vol30、n°2、485−492ページ(2007);Wai−Shun Tongらによる「Example−Based Cosmetic transfer」;第15回Pacific Conference of Computer Graphics and Applications、211−218ページ(2011)により公知である。
上記の観点から、本発明は、対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするためのより現実的な方法を提供することを目的とする。
特に、本発明の目的の1つは、レンダリングのシミュレーションにおいて、対象者の肌の色を考慮することである。
本発明の他の目的は、レンダリングをシミュレーションするために、高い周波数の詳細事項のような色以外の肌情報を考慮することである。
本発明の他の目的は、実際のデータ、すなわち、人々におけるメイクアップ製品のレンダリングの実際の画像に基づくことである。
この目的のために、対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするための方法が開示され、方法は、コンピュータと、複数の参照個人の各々について、メイクアップなしの参照個人の顔の画像、及びメイクアップ製品でメイクアップされた同じ参照個人の顔の画像を備える参照画像のデータベースを記憶するメモリとを備えるシステムによって実施され、方法は、
a.メイクアップなしの対象者の顔の画像を取得するステップと、
b.画像の複数の周波数範囲の各々の複数の空間エリアの各々について、空間エリアの第1の色特徴値を抽出するように画像を処理するステップと、
c.参照画像のデータベースのうち、メイクアップしていない場合に対象者の第1の特徴値に類似する色特徴値を有する参照個人のセットを決定するステップと、
d.対象者の第1の色特徴値から、並びにメイクアップ製品あり及びなしの参照個人のセットの色特徴値から、第2の色特徴値を決定するステップと、
e.第2の色特徴値に基づいて対象者の顔の修正済み画像を生成するステップと
を備える。
実施形態において、ステップb.は、
−対象者の顔の画像を複数の周波数範囲に分解して複数の二次画像を取得するステップであって、各二次画像が周波数範囲のうちの1つに対応する、ステップと、
−複数の二次画像の各々に空間分解を実行して各二次画像に対して複数の空間エリアを取得するステップと、
−各二次画像の各空間エリアの第1の色特徴値を抽出するステップと
を備える。
実施形態において、複数の周波数範囲への顔の画像の分解は、ガウス差分によって実行される。
実施形態において、各画像は色パラメータを有する複数の画素を備え、空間エリアの色特徴値は空間エリアの画素の各色パラメータの平均値及び標準偏差を備える。
実施形態において、ステップe.は、各周波数範囲の各空間エリアが第2の色特徴値を示すように、各周波数範囲の各空間エリアの色パラメータを修正するステップと、対象者の画像の画素の色パラメータを、すべての周波数範囲にわたって修正された色パラメータの和に置き換えるステップとを備える。
実施形態において、データベースの各画像は、画像においてステップb.の処理を実施することによって決定された色特徴値に対応付けられ、ステップc.は、対象者の第1の色特徴値と、メイクアップなしの参照個人の各画像の色特徴値との間の距離を計算するステップと、対象者とともに計算された最小の距離を有するようなセットの参照個人を選択するステップとを備える。
そして、ステップc.は、画像においてステップb.の処理を実施することによって、データベースの各画像に色特徴値を対応付ける予備のステップをさらに備え得る。
実施形態において、ステップd.は、メイクアップなしの参照個人のセットの特徴値の重心として対象者の第1の特徴値を表現するステップと、メイクアップしている参照個人のセットの特徴値の同じ重心として第2の特徴値を決定するステップとを備え得る。
実施形態において、方法は、ステップb.の前に対象者の顔の取得画像を平均形状にワーピングするステップと、ステップe.に続いて生成された修正済み画像を対象者の顔の初期形状にワーピングして戻すステップとを備える。
他の目的によると、コンピュータによって実施される場合に、上記による方法を実施するためのコード命令を備えたコンピュータプログラム製品が開示される。
他の目的によると、コンピュータと、複数の参照個人の各々について、メイクアップなしの参照個人の顔の画像、及びメイクアップ製品でメイクアップされた同じ参照個人の顔の画像を備える参照画像のデータベースを記憶するメモリとを備えた、対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするためのシステムが開示され、システムは上記による方法を実施するために構成されている。
参照画像のデータベースを構築するための方法も開示され、方法はコンピュータによって実施され、
−複数の参照個人の各々について、メイクアップなしの参照個人の顔の画像、及びメイクアップ製品でメイクアップされた同じ参照個人の顔の画像を取得するステップと、
−画像の複数の周波数範囲の各々の複数の空間エリアの各々について、空間エリアの色特徴値を抽出するように各画像を処理するステップと、
−画像から抽出された色特徴値に関連付けて各画像をメモリに記憶するステップとを備える。
この方法の実施形態において、画像を処理するステップは、
−対象者の顔の画像を複数の周波数範囲に分解して複数の二次画像を取得するステップであって、各二次画像が周波数範囲のうちの1つに対応する、ステップと、
−複数の二次画像の各々に空間分解を実行して各二次画像に対して複数の空間エリアを取得するステップと、
−各二次画像の各空間エリアの第1の色特徴値を抽出するステップと
を備え得る。
実施形態において、各画像は色パラメータを有する複数の画素を備え、空間エリアの色特徴値は空間エリアの画素の各色パラメータの平均値及び標準偏差を備える。
コンピュータによって実行される場合に、参照画像のデータベースを構築する方法を実施するためのコード命令を備えたコンピュータプログラム製品も開示される。
本発明による方法は、対象者の肌の色、及び肌のテクスチャなどの高い周波数の詳細事項を考慮するので、メイクアップ製品のレンダリングの現実的なシミュレーションを可能とし、それによって、同じメイクアップ製品のレンダリングが2人の異なる人に対して異なり、より現実的となることを可能とする。
さらに、メイクアップ製品のレンダリングのシミュレーションはまた、実際のデータ、すなわち、参照の人々におけるメイクアップ製品のレンダリングの実際の画像に基づく。したがって、すべての肌情報が考慮され、シミュレーションはより良好な結果をもたらす。
本発明の他の特徴及び効果は、添付の図面を参照して、非限定的な例によって与えられる以下の詳細な説明から明らかとなる。
図1は、本発明の実施形態によるメイクアップ製品のレンダリングをシミュレーションする方法の主要ステップを概略的に示す。 図2aは、2つの実施形態による方法を実施するためのシステムの例を概略的に示す。図2bは、2つの実施形態による方法を実施するためのシステムの例を概略的に示す。 図3は、周波数範囲への画像の分解の例を示す。図4は、画像の空間分解の例を示す。 図5は、メイクアップ適用の前及び後の対象者及び参照個人の色特徴値の射影の例を示し、メイクアップ適用後の対象者の色特徴値はシミュレーション方法から取得された値である。図6aは、メイクアップをしていない人の例示的な画像を示す。図6bは、ファンデーション製品をつけた図6aの人の写真である。図6cは、ファンデーション製品のレンダリングがシミュレーションされた、図6aの人のシミュレーション写真を示す。 図7は、画像のデータベースを構築する方法の主要ステップを概略的に示す。
図1を参照して、ここでは対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするための方法の主要ステップを説明する。この方法は、図2a及び2bに概略的に示され、少なくともコンピュータ10と、参照画像のデータベースを記憶するメモリ11とを備えたシステム1によって実施される。選択的に、システム1は、メイクアップ製品のレンダリングがその後にシミュレーションされる対象者の顔の画像を撮影するのに適した少なくとも1つのカメラ12をさらに備え得る。システム1はまた、メイクアップ製品のレンダリングがシミュレーションされる修正済み画像を表示することができるディスプレイ13を備えることが好ましい。
図2aに示す第1の実施形態によると、方法は、スマートフォン又はデジタルタブレットなどの対象者のパーソナル電子デバイスのソフトウェアアプリケーションとして利用可能とされる。その場合には、システム1は、電気通信ネットワーク(インターネット、3G、4Gなど)への接続インターフェース14を少なくとも備えてもよく、パーソナル電子デバイスと通信可能となる。システム1自体は、以下でより詳細に述べるように、カメラもディスプレイも備えないが、パーソナル電子デバイスのカメラ及びディスプレイによることができる。代替的に、システムは、パーソナル電子デバイスに完全に組み込まれてもよく、参照画像のデータベースが、デバイスのメモリと、プロセッサ、マイクロプロセッサなどのようなデバイスの構成要素であるコンピュータ10とに記憶される。
他の実施形態によると、方法は、美容室又は店舗において実施可能である。この場合には、システムは、例えば図2b示すように、美容室又は店舗の施設内に物理的に設置され、美容室又は店舗に位置するスクリーン13及びカメラ12を備え得る。代替的に、システム1は、美容室又は店舗から遠隔に位置し、美容室に位置するカメラ及びディスプレイへの接続インターフェース14を備えてもよい。
メモリ11によって記憶されたデータベースは、複数の参照個人の各々について、そのままの肌の、すなわち、いずれのメイクアップ製品もない参照個人の顔の1枚の写真、及びレンダリングがシミュレーションされるはずのメイクアップ製品でメイクアップされた同じ個人の顔の少なくとも1枚の写真を備える。好ましくは、データベースは、複数のメイクアップ製品の各々について、複数のメイクアップ製品のレンダリングのシミュレーションを可能とするために、複数の参照個人のこれらの画像の対を備える。
好ましくは、レンダリングがシミュレーションされるメイクアップ製品は、ファンデーションである。代替的に、メイクアップ製品は、アイシャドウ、口紅又はチークであってもよい。
図1では、方法の第1のステップ100は、メイクアップしていない対象者の顔の画像の取得である。システム1がカメラを備える場合には、このステップはカメラによって実行されることが好ましい。
代替的に、例えば、方法が、カメラを組み込むスマートフォン又はデジタルタブレットなどのパーソナル電子デバイスのソフトウェアアプリケーションとして利用可能な場合には、写真の撮影がパーソナル電子デバイスのカメラによってなされてから、写真がパーソナル電子デバイスによってシステム1に送信され得る。コンピュータ10及びメモリ11を備えたシステム1によって実行される写真の取得ステップは、その場合には、システムによる写真の受信である。
他の例によると、方法が店舗又は美容室に位置するカメラから遠隔にあるシステム1で店舗又は美容室において実施される場合には、画像の撮影は、前記カメラによって実行されてから、システム1に送信される。システム1による写真の取得ステップは、この場合にも、システムによる写真の受信である。
好ましくは、顔の写真は制御された照明環境において取得され、対象者は前方からかつカメラから一定の距離で見られる状態である。対象者の髪は、メイクアップされるはずの顔のゾーンから離されていなくてはならない。さらに、写真は、熟練者には周知の方法により、比色分析で補正されることが好ましい。
ステップ200中には、取得写真上で明らかな対象者の顔は、好適には前に計算され、メモリ11に記憶され得る平均形状にワーピングされることが好ましい。このワーピングを実行するには、顔の多数の特徴的な点の位置が取得されてもよく、各特徴的な点の位置が前記平均形状による同じ点の位置に対応するように、写真に変換が適用され得る。例えば、このワーピングを実施するために、Goshtasbyらによる1986年の論文「Piecewise linear mapping functions for image registration」を参考にすることができる。
そして、ステップ300中に、コンピュータ10は、画像の複数の周波数範囲の各々の複数の空間エリアの各々について、空間エリアの第1の色特徴値を抽出するように画像の処理を実行する。
このステップは、画像を複数の周波数範囲に分解するサブステップ310を備えて、各二次画像が周波数範囲のうちの1つに対応する対象者の顔の複数の二次画像を取得する。このサブステップ310は、ガウス差分アルゴリズムを実施することによって実行されることが好ましい。このアルゴリズムによると、Iを対象者の顔の画像とし、Gσを標準偏差σのガウス核とすると、初期画像の高周波数及び低周波数にそれぞれ対応する2つの二次画像が、以下の演算:HF=I−I*Gσ、LF=I*Gσを実行することによって得られ、ここでHFは高周波数範囲における二次画像に対応し、LFは低周波数範囲における二次画像に対応し、*は畳み込み演算子を表す。
LF及びHFの和が初期画像Iに正確に対応することに気付くはずである。
この演算は、各二次画像において再帰的に反復可能である。その場合には、2回目からは各反復に対して他のパラメータdσが規定されるはずである。
HFの分解は、
HF_HF=HF−HF*Gσ21
HF_LF=HF*Gσ21
を計算することよって実行可能であり、HF_HFは(HFによってカバーされる周波数の範囲の)高周波数範囲におけるHFの部分に対応し、HF_LFは低周波数範囲におけるHFの部分に対応し、σ21=σ−dσ/2である。
LFの分解は、
LF_HF=LF−LF*Gσ22
LF_LF=LF*Gσ22
を計算することよって実行可能であり、LF_HFは(LFによってカバーされる周波数の範囲の)高周波数範囲におけるLFの部分に対応し、LF_LFは低周波数範囲におけるLFの部分に対応し、σ22=σ+dσ/2である。
そして、Iの分解は、4枚の画像のセット{HF_HF、HF_LF、LF_HF、LF_LF}を結果として生成する。画像の和は、結果としてIとなる。この例示的な分解は図3に示され、左のものが最も高い周波数範囲であり、右のものがより低い周波数範囲である。そして、当然に、分解が繰り返されて、引き続き8枚、16枚などの二次画像を取得し得る。したがって、この実施によると、二次画像の枚数は、常に2の累乗である。
周波数の分解は、例えば、レンダリングがシミュレーションされるはずのメイクアップ製品のタイプに応じて調整可能である。
周波数の分解310が実現されると、その後、周波数範囲に対応する各二次画像は、サブステップ320中に空間的に分解されて、各二次画像に対して複数の空間エリアを取得する。このステップを実行するには、各二次画像に格子が重畳され、格子のセルは二次画像の空間エリアを規定する。したがって、空間エリアは、重複せず、二次画像のいずれの画素も単一の空間エリアに属するように並んで配置される。
更なる計算を可能とするために、二次画像の空間エリアは、他方の二次画像のすべてにおける空間エリアに対応する対象者の顔の正確に同じ部分に対応するように、すべての二次画像における同じ位置で同じ格子が適用される。
そして、レンダリングがシミュレーションされるはずのメイクアップ製品のタイプにより、対象とするゾーンに対応する空間エリアを維持させるためにのみ、空間エリアの一部が削除される。ファンデーションの例では、メイクアップされる肌とは異なるもの(例えば、髪、眉毛、口、目)を備える顔のエリアに対応する空間エリアが除去される。ファンデーションのレンダリング専用のアプリケーションに規定及び選択された空間エリアのセットの例を、図4に示す。格子のセルのサイズはまた、シミュレーションされるはずのメイクアップ製品のタイプにより決定される。
そして、ステップ300は、各二次画像に対して規定された各空間エリアについて、第1の色特徴値を抽出するサブステップ330を備える。第1の色特徴値は、空間エリアの画素の各々の色パラメータから計算される。画素の色パラメータは、以下の例では、RGBパラメータ、すなわち、赤色値、緑色値及び青色値である。代替的に、色パラメータは、CIE L*a*b*色空間などの他の任意の表色系において選択可能である。
空間エリアの第1の色特徴値は、色パラメータの平均及び標準偏差の値である。したがって、各二次画像における各空間エリアについて、ベクトルは、すべての平均及び標準偏差の値:
の連結を備えて生成される。
そして、単一の記述ベクトルは、すべての二次画像のすべての空間エリアに対して生成されたベクトルを連結することによって生成される。
図示によってのみ、上記の例によると、4枚の二次画像が生成され、各二次画像に対して350個の空間エリアが保持される場合には、ステップ300の終了時に4*350*6=8400個のパラメータを備えるベクトルが得られる。
そして、方法は、参照画像のデータベースのうち、メイクアップしていない場合に対象者の第1の特徴値に類似する色特徴値を有する参照個人のセットを決定するステップ400を備える。
この目的のために、データベースの各画像は、上記と同じように計算されることが好ましく、すなわち、データベースの各画像はステップ100〜300に従って同じパラメータで処理される色特徴値のそれぞれのセットに関連付けて記憶されることが好ましい。
例えば、画像は、同じ条件において取得されて平均形状にワーピングされ、画像が分解される周波数範囲の数が同じであり、空間エリアの数及びサイズが上記と同じである。
好適な実施形態によると、各画像の処理は、データベースの構築中に、メイクアップ製品のレンダリングをシミュレーションするための方法を実施するコンピュータ10とは必ずしも同じでないコンピュータによって実行され得る。この実施形態は、そのような場合には、データベースの参照画像の色特徴値が直ちに利用可能であるため好適である。この実施形態は、それぞれにステップ100、200などの説明に対応するが、対象者の画像の代わりに参照画像に適用されるステップ100’、200’などでデータベースの構築の主要ステップを示す図7で概略的に示される。その対応する色特徴値に関連付けて各取得画像を記憶するステップ900’が、ステップ300に続く。
代替的に、色特徴値を抽出するデータベースの各画像の処理はまた、メイクアップ製品のレンダリングをシミュレーションするための方法の実施中にコンピュータ10によって実行され得る。
対象者のものと同様の色特徴値を有する参照個人のセットの決定は、対象者の色特徴値と、データベースの参照個人の各々のメイクアップなしの写真から抽出されたものとの間の距離、好ましくはユークリッド距離を計算することによって実行される。当然に、データベースが複数のメイクアップ製品に対してメイクアップあり及びなしの画像の対を備える場合には、シミュレーションされるメイクアップ製品に対して1対の画像が存在する参照個人のみが選択される。
そして、計算された距離が最短の参照個人が選択される。代替的に、計算された距離が閾値未満の多数の参照個人が選択される。選択される参照個人のセットは、少なくとも2人の参照個人、例えば、2〜10人の参照個人を備える。好適な例としては、セットは3人の参照個人を備える。
そして、方法は、対象者の第1の色特徴値から、並びにメイクアップ製品あり及びなしの参照個人のセットの色特徴値から、メイクアップ製品をつけた対象者の色特徴値のシミュレーションに対応する対象者の第2の色特徴値を決定するステップ500を備える。
このステップ500は、セットの参照個人の特徴値の重心として、メイクアップなしの対象者の第1の色特徴値を表現する第1のサブステップ510を備える。例えば、セットが3人の参照個人を備える場合には、Pは対象者の第1の色特徴値を示し、P1、P2及びP3はメイクアップなしの参照個人の色特徴値を示すと、サブステップ510はP=A.P1+B.P2+C.P3となるような重み付けA、B及びCの決定を備える。
そして、対象者の第2の色特徴値は、メイクアップ製品が塗布されると対象者と参照個人の色特徴値の間の関係が同じままであることを考慮することによって、サブステップ520中に決定される。したがって、第2の色特徴値は、サブステップ510中に計算されたものと同じ参照個人間の重心に対応するように計算される。
したがって、Qを対象者の第2の色特徴値とし、Q1、Q2及びQ3を、シミュレーションされるメイクアップ製品を彼らがつけている写真におけるセットの参照個人の色特徴値とすると、Q=A.Q1+B.Q2+C.Q3となる。
図5を参照すると、より容易な理解のために、色特徴値が二次元空間に投影された例が示される。図5はP、P1、P2、P3、Q1、Q2及びQ3のそれぞれの位置、並びにそれから推定されるQの位置を示す。
そして、方法は、第2の色特徴値に基づいて、顔の修正済み画像を生成するステップ600を備える。このステップは、各周波数範囲の各空間エリアの画素の色パラメータの値を変化させることによって実行され、それにより考慮された空間エリアの修正画素の特徴値が第2の色特徴値に対応する。
例によると、Ri1及びRi2をそれぞれメイクアップなし及びメイクアップあり(シミュレーション済み)の対象者の写真の画素iの赤色値とし、
をメイクアップなし及びメイクアップ製品ありの画素iを備える空間エリアの画素の平均赤色値とし、σ1及びσ2をメイクアップなし及びありの同じ空間エリアの画素の標準偏差とすると、Ri2は
として計算可能である。
各空間エリアの画素の色パラメータが修正されると、画像は、初期画像が分解された周波数範囲に対応する二次画像のすべてを合計することによって再構築される。そして、得られた画像は、ステップ700中に、この画像を顔の平均形状にワーピングするために初期画像において実行された演算とは逆の演算によって、対象者の顔の形状にワーピングして戻される。
そして、修正済み画像は、メモリに記憶され得る。そして、それは、ステップ800中に、例えば、システムが店舗又は美容室の施設内に位置する場合には、システムに属し得るディスプレイによって表示されることが好ましい。代替的に、システム1は、修正済み画像をパーソナル電子デバイス又は店舗若しくは美容室に送信してもよく、そしてそれにより修正済み画像は、パーソナル電子デバイスの又は店舗若しくは美容室のディスプレイによって表示される。
図6a〜6cは、上記方法の例示的なアプリケーションを示し、図6aはメイクアップなしの対象者の元の画像であり、図6bはファンデーションをつけた対象者の実際の写真であり、図6cは上記の方法に従って同じファンデーション製品のレンダリングがシミュレーショされた修正済み画像である。図6cにおける現実的なレンダリングは、図6bの実際のレンダリングに非常に近く、あざなどの斑点が図6aの初期画像と比較して大幅に軽減されることが分かる。



Claims (15)

  1. 対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするための方法であって、前記方法は、コンピュータ(10)と、複数の参照個人の各々について、メイクアップなしの前記参照個人の顔の画像及び前記メイクアップ製品でメイクアップされた同じ参照個人の顔の画像を備える参照画像のデータベースを記憶するメモリ(11)とを備えるシステム(1)によって実施され、
    a.メイクアップなしの前記対象者の顔の画像を取得するステップ(100)と、
    b.前記画像の複数の空間周波数範囲の各々の複数の空間エリアの各々について、前記空間エリアの第1の色特徴値を抽出するように前記画像を処理するステップ(300)と、
    c.参照画像の前記データベースのうち、メイクアップしていない場合に前記対象者の前記第1の色特徴値に類似する前記対応空間エリアにおける色特徴値を有する複数の参照個人を備えるセットを決定するステップ(400)と、
    d.前記対象者の前記第1の色特徴値から、並びに前記メイクアップ製品あり及びなしの参照個人の前記セットの前記対応空間エリアにおける色特徴値から、第2の色特徴値を決定するステップ(500)と、
    e.前記第2の色特徴値に基づいて前記対象者の顔の修正済み画像を生成するステップ(600)と
    を備える前記方法。
  2. ステップb.は、
    −前記対象者の顔の前記画像を複数の空間周波数範囲に分解して複数の二次画像を取得するステップ(310)であって、各二次画像が前記空間周波数範囲のうちの1つに対応する、ステップ(310)と、
    −前記複数の二次画像の各々に空間分解を実行して各二次画像に対して複数の空間エリアを取得するステップ(320)と、
    −各二次画像の各空間エリアの前記第1の色特徴値を抽出するステップ(330)とを備える、請求項1に記載の方法。
  3. 複数の空間周波数範囲への前記顔の前記画像の前記分解(310)は、ガウス差分によって実行される、請求項2に記載の方法。
  4. 各画像が色パラメータを有する複数の画素を有し、空間エリアの前記色特徴値は、前記空間エリアの前記画素の各色パラメータの平均値及び標準偏差を有する、請求項1〜3のいずれかに記載の方法。
  5. ステップe.(600)は、
    各空間周波数範囲の各空間エリアが前記第2の色特徴値を示すように、各空間周波数範囲の各空間エリアの前記色パラメータを修正するステップと、
    前記対象者の前記画像の前記画素の前記色パラメータを、すべての前記空間周波数範囲にわたって修正された前記色パラメータの和に置き換えるステップと
    を備える、請求項2及び請求項4に併用して記載の方法。
  6. 前記データベースの各画像が、前記画像においてステップb.の処理を実施することによって決定された色特徴値に対応付けられ、
    ステップc.(400)は、
    前記対象者の前記第1の色特徴値と、メイクアップなしの参照個人の各画像の前記色特徴値との間の距離とを計算するステップと、
    前記対象者とともに計算された最小の距離を有するような前記セットの前記参照個人を選択するステップと
    を備える、請求項4又は5に記載の方法。
  7. ステップc.は、前記画像においてステップb.の処理を実施することによって、前記データベースの各画像に色特徴値を対応付ける予備のステップをさらに備える、請求項6に記載の方法。
  8. ステップd.(500)は、
    メイクアップなしの参照個人の前記セットの前記特徴値の重心として前記対象者の前記第1の色特徴値を表現するステップ(510)と、
    前記メイクアップをしている参照個人の前記セットの前記特徴値の同じ重心として前記第2の特徴値を決定するステップ(520)と
    を備える、請求項6又は7に記載の方法。
  9. ステップb.の前に前記対象者の顔の前記取得画像を平均形状にワーピングするステップ(200)と、
    ステップe.(600)に続いて生成された前記修正済み画像を前記対象者の顔の前記初期画像にワーピングして戻すステップ(700)とをさらに備える請求項1〜8のいずれかに記載の方法。
  10. コンピュータ(10)によって実施された場合に、請求項1〜9のいずれかに記載の方法を実施するためのコード命令を有するコンピュータプログラム製品。
  11. 対象者の顔の画像にメイクアップ製品のレンダリングをシミュレーションするためのシステム(1)であって、
    コンピュータ(10)と、
    複数の参照個人の各々について、メイクアップなしの前記参照個人の顔の画像、及び前記メイクアップ製品でメイクアップされた同じ参照個人の顔の画像を備える参照画像のデータベースを記憶するメモリ(11)と
    を備え、
    請求項1〜9のいずれかに記載の方法を実施するよう構成されているシステム(1)。
  12. 参照画像のデータベースを構築するための方法であって、該方法はコンピュータによって実施され、
    −複数の参照個人の各々について、メイクアップなしの前記参照個人の顔の画像、及び前記メイクアップ製品でメイクアップされた同じ参照個人の顔の画像を取得するステップ(100’)と、
    −前記画像の複数の空間周波数範囲の各々の複数の空間エリアの各々について、前記空間エリアの色特徴値を抽出するように各画像を処理するステップ(300’)と、
    −前記画像から抽出された前記色特徴値に関連付けて各画像をメモリに記憶するステップ(900’)と
    を備える前記方法。
  13. 前記画像を処理する前記ステップが、
    −前記対象者の顔の前記画像を複数の空間周波数範囲に分解して複数の二次画像を取得するステップ(310’)であって、各二次画像が前記空間周波数範囲のうちの1つに対応する、ステップ(310’)と、
    −前記複数の二次画像の各々に空間分解を実行して各二次画像に対して複数の空間エリアを取得するステップ(320’)と、
    −各二次画像の各空間エリアの前記第1の色特徴値を抽出するステップ(330’)とを備える、請求項12に記載の方法。
  14. 各画像が色パラメータを有する複数の画素を備え、空間エリアの前記色特徴値は前記空間エリアの前記画素の各色パラメータの平均値及び標準偏差を備える、請求項12又は13に記載の方法。
  15. コンピュータによって実行される場合に、請求項12〜14のいずれかに記載の方法を実施するためのコード命令を有するコンピュータプログラム製品。

JP2019202054A 2018-12-03 2019-11-07 メイクアップ製品の現実的レンダリングをシミュレーションするための方法 Active JP7127004B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18306600.0A EP3664035B1 (en) 2018-12-03 2018-12-03 Method for simulating the realistic rendering of a makeup product
EP18306600 2018-12-03

Publications (2)

Publication Number Publication Date
JP2020091852A true JP2020091852A (ja) 2020-06-11
JP7127004B2 JP7127004B2 (ja) 2022-08-29

Family

ID=64900824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019202054A Active JP7127004B2 (ja) 2018-12-03 2019-11-07 メイクアップ製品の現実的レンダリングをシミュレーションするための方法

Country Status (4)

Country Link
US (1) US11594071B2 (ja)
EP (1) EP3664035B1 (ja)
JP (1) JP7127004B2 (ja)
KR (1) KR102272975B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102377222B1 (ko) * 2021-08-13 2022-03-23 주식회사 에이아이네이션 다각도 이미지 인식 처리 기술을 활용한 인공지능 가상 화장 방법 및 장치
KR102515436B1 (ko) 2022-08-01 2023-03-29 주식회사 어썸커머스 인공지능 기반 얼굴 메이크업 처리 방법, 장치 및 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004506996A (ja) * 2000-08-22 2004-03-04 バーチャルメディア カンパニー リミテッド 顔映像の形態情報に基づく合成顔映像の生成装置およびその方法
JP2005293231A (ja) * 2004-03-31 2005-10-20 Kao Corp 肌のシミュレーション画像形成方法
JP2010198382A (ja) * 2009-02-25 2010-09-09 Kao Corp シミュレーション装置、シミュレーション方法、及びコンピュータプログラム
JP2011059960A (ja) * 2009-09-09 2011-03-24 Kao Corp 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム
JP2014217456A (ja) * 2013-05-02 2014-11-20 日本メナード化粧品株式会社 素肌または化粧肌の質感評価方法
JP2017123015A (ja) * 2016-01-06 2017-07-13 株式会社リコー 情報処理装置、画像処理方法およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3912834B2 (ja) 1997-03-06 2007-05-09 有限会社開発顧問室 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
KR101397045B1 (ko) 2008-02-13 2014-05-20 엘지전자 주식회사 영상 상태에 따른 화질 개선 장치 및 방법
JP4831259B1 (ja) 2011-03-10 2011-12-07 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
US9495582B2 (en) * 2011-12-04 2016-11-15 Digital Makeup Ltd. Digital makeup
JP6132232B2 (ja) 2013-02-01 2017-05-24 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
CN105263399B (zh) 2013-06-07 2017-06-23 富士胶片株式会社 透明感评价装置、透明感评价方法
US10162997B2 (en) * 2015-12-27 2018-12-25 Asustek Computer Inc. Electronic device, computer readable storage medium and face image display method
WO2018003421A1 (ja) * 2016-06-30 2018-01-04 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
US11315173B2 (en) * 2016-09-15 2022-04-26 GlamST LLC Applying virtual makeup products
WO2018159231A1 (ja) * 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 メイクシミュレーション装置、方法、及び、非一時的な記憶媒体
US10210381B1 (en) * 2017-08-01 2019-02-19 Apple Inc. Multiple enrollments in facial recognition
US20190214127A1 (en) * 2018-01-10 2019-07-11 International Business Machines Corporation Sub-optimal health detection and alert generation using a time series of images
US11257142B2 (en) * 2018-09-19 2022-02-22 Perfect Mobile Corp. Systems and methods for virtual application of cosmetic products based on facial identification and corresponding makeup information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004506996A (ja) * 2000-08-22 2004-03-04 バーチャルメディア カンパニー リミテッド 顔映像の形態情報に基づく合成顔映像の生成装置およびその方法
JP2005293231A (ja) * 2004-03-31 2005-10-20 Kao Corp 肌のシミュレーション画像形成方法
JP2010198382A (ja) * 2009-02-25 2010-09-09 Kao Corp シミュレーション装置、シミュレーション方法、及びコンピュータプログラム
JP2011059960A (ja) * 2009-09-09 2011-03-24 Kao Corp 画像処理装置、シミュレーション装置、画像処理方法、シミュレーション方法、及びプログラム
JP2014217456A (ja) * 2013-05-02 2014-11-20 日本メナード化粧品株式会社 素肌または化粧肌の質感評価方法
JP2017123015A (ja) * 2016-01-06 2017-07-13 株式会社リコー 情報処理装置、画像処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KRISTINA SCHERBAUM: "Computer‐Suggested Facial Makeup", COMPUTER GRAPHIC FORUM, vol. Volume30, Issue2, JPN6021006730, 28 April 2011 (2011-04-28), pages 485 - 492, ISSN: 0004656754 *

Also Published As

Publication number Publication date
KR102272975B1 (ko) 2021-07-02
KR20200067102A (ko) 2020-06-11
US20200170383A1 (en) 2020-06-04
US11594071B2 (en) 2023-02-28
EP3664035A1 (en) 2020-06-10
JP7127004B2 (ja) 2022-08-29
EP3664035B1 (en) 2021-03-03

Similar Documents

Publication Publication Date Title
CN109859098B (zh) 人脸图像融合方法、装置、计算机设备及可读存储介质
US9142054B2 (en) System and method for changing hair color in digital images
CN109829930B (zh) 人脸图像处理方法、装置、计算机设备及可读存储介质
JP6128309B2 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
Ibáñez et al. An experimental study on the applicability of evolutionary algorithms to craniofacial superimposition in forensic identification
WO2022095721A1 (zh) 参数估算模型的训练方法、装置、设备和存储介质
CN109712080A (zh) 图像处理方法、图像处理装置及存储介质
KR20150113751A (ko) 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법 및 장치
US10860755B2 (en) Age modelling method
US11576478B2 (en) Method for simulating the rendering of a make-up product on a body area
CN111445564A (zh) 人脸纹理图像生成方法、装置、计算机设备和存储介质
KR20160030037A (ko) 닮은얼굴그림 생성 장치, 닮은얼굴그림 생성 방법
EP3091510A1 (en) Method and system for producing output images and method for generating image-related databases
JP7127004B2 (ja) メイクアップ製品の現実的レンダリングをシミュレーションするための方法
KR20230153451A (ko) 역 gan들을 이용한 시도
CN113052783A (zh) 一种基于人脸关键点的人脸图像融合方法
WO2022089185A1 (zh) 图像处理方法和图像处理装置
KR20190071341A (ko) 신체 모델 생성 장치 및 방법
CN113516755B (zh) 图像处理方法、图像处理装置、电子设备和存储介质
US20230222750A1 (en) Method and device for three-dimensional reconstruction of a face with toothed portion from a single image
CN114266693A (zh) 图像处理方法、模型生成方法及设备
CN115239857A (zh) 图像生成方法以及电子设备
CN113223128B (zh) 用于生成图像的方法和装置
CN114663570A (zh) 贴图生成方法、装置、电子装置及可读存储介质
CN113240760A (zh) 一种图像处理方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220405

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220419

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220510

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7127004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150