JP2023036784A - 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 - Google Patents
仮想顔化粧の除去、高速顔検出およびランドマーク追跡 Download PDFInfo
- Publication number
- JP2023036784A JP2023036784A JP2022204236A JP2022204236A JP2023036784A JP 2023036784 A JP2023036784 A JP 2023036784A JP 2022204236 A JP2022204236 A JP 2022204236A JP 2022204236 A JP2022204236 A JP 2022204236A JP 2023036784 A JP2023036784 A JP 2023036784A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- makeup
- color
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 267
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 claims abstract description 332
- 230000000694 effects Effects 0.000 claims abstract description 193
- 238000004088 simulation Methods 0.000 claims abstract description 21
- 238000003062 neural network model Methods 0.000 claims abstract description 7
- 238000009826 distribution Methods 0.000 claims description 104
- 239000003086 colorant Substances 0.000 claims description 47
- 239000002537 cosmetic Substances 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 26
- 210000000720 eyelash Anatomy 0.000 claims description 20
- 210000000887 face Anatomy 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 17
- 238000013135 deep learning Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 230000033001 locomotion Effects 0.000 claims description 15
- 239000000203 mixture Substances 0.000 claims description 15
- 230000001419 dependent effect Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000007704 transition Effects 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 8
- 239000000463 material Substances 0.000 claims description 8
- 238000012805 post-processing Methods 0.000 claims description 8
- 238000012706 support-vector machine Methods 0.000 claims description 7
- 238000003708 edge detection Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 description 34
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 19
- 238000003860 storage Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 12
- 230000009466 transformation Effects 0.000 description 11
- 241000282414 Homo sapiens Species 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 238000013136 deep learning model Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000003796 beauty Effects 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000644 propagated effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004040 coloring Methods 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003020 moisturizing effect Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 240000005020 Acaciella glauca Species 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000004456 color vision Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000004042 decolorization Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000012015 optical character recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 235000003499 redwood Nutrition 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000009736 wetting Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D44/005—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
この非仮特許出願は、2017年7月13日に出願された米国仮特許出願第62/531,929号からの米国特許法第119条(e)に基づく利益を主張し、その全開示は、参照により本明細書に組み込まれる。
本開示は、ユーザ画像に対する化粧の仮想除去ならびに化粧および化粧効果の適用のための方法を含む、仮想顔化粧シミュレーションのためのシステムおよび方法に関する。本開示は、さらに、ニューラルネットワークを使用した仮想顔化粧シミュレーションのためのシステムおよび方法に関する。本開示はまた、仮想化粧チュートリアル、化粧推薦、カラーマップおよび標準を使用した明るさの自動調整および色の較正、高速顔ランドマーク検出および追跡のフレームワーク、ならびに高速な顔の動きに関連する遅延の問題と、ユーザがビデオにさらにとどまることに関連するランドマークの揺れの問題とを解決する方法を含む、仮想顔化粧シミュレーションを改善するための様々な方法およびシステムに関する。
することと、ユーザの画像から入力皮膚色を抽出することと、特定の照明条件下での入力皮膚色の対応する唇色シフトを検出することと、ユーザの顔画像の第1の領域からの除去唇色として使用するための最終修正唇色を提供することとを含み、最終修正唇色が、検出された色シフトを有することができる。
法は、さらに、ユーザの顔画像の唇領域から化粧を除去するステップを含むことができる。他の実施形態では、顔ランドマークは、第2を含むことができ、第2の領域は、目領域を含むことができる。そのような実施形態では、本方法は、さらに、(f)画像の目領域を少なくとも1つの第1のチャネルに分解し、目領域の光分布を検出および分析することと、(g)少なくとも1つの第1のチャネルを、変化する光分布にわたってヒストグラムマッチングに供給し、目領域の光分布とは異なる事前定義された光分布を有するヒストグラムを特定することによって目に少なくとも1つの第2の出力効果を生成することと、(h)第1の結果画像を第2の画像および少なくとも1つの第2の出力効果と組み合わせ、事前定義された唇色および唇に対する少なくとも1つの第1の出力効果および目に対する少なくとも1つの第2の出力効果を有する第2の結果画像を提供することとを含むことができる。
域および非顔領域の確率マップを計算することと、顔領域の検出に使用するガウス混合モデルを使用して全体的な確率マップを作成することとを含むことができる。本方法の様々な実施形態は、さらに、エッジ検出および輪郭化を使用して全体的な確率マップを平滑化することを含むことができる。
ャネルを供給し、それぞれ化粧を有しない異なる照明条件下での顔のヒストグラムのデータセットからの参照ヒストグラムを使用して第2の領域において化粧が除去された第2の画像を取得することと、第1の領域および第2の領域の両方が探索された場合、第1の画像および第2の画像を組み合わせて、第1の領域および第2の領域から化粧が除去された結果顔画像を形成し、化粧が除去された結果顔画像の第1の領域に対して所定種類の化粧を仮想的に適用し、および/または化粧が除去された結果顔画像の第2の領域に対して第2の種類の化粧を適用することと、を行うことができるように構成される。
びユーザからの入力画像に基づいて、ユーザへのパーソナライズされた段階的な化粧指示を生成することができる。また、仮想化粧チュートリアルを提供する方法と、ユーザの顔を有する入力画像に仮想出力効果を提供する方法も含まれる。そのような技術は、本明細書の図面に示され且つ図37に要約されるように、独立してまたは共同で使用することができる。さらに、仮想化粧試用(try-on)または仮想除去方法において使用するための明るさの調整および色の較正方法、入力画像ビデオにおける高速移動に関連付けられた遅延を減らし且つ動作不足による揺れを軽減する方法、および上記のような方法によって使用するための注釈システムも含むことができる高速顔検出およびランドマーク追跡のための方法も記載される。
るため、顔と目の形状情報を保持し、化粧を適用してもしなくてもほとんど変化しない。固有分解とは、分離された成分に基づいて初期画像を再構築することができるように、これらの成分を分離する能力である。
び顔認識プロセスも使用することができる。顔検出のための、Python、dlibおよびHOGなどの、ならびに、基準点のランドマーク検出および識別のための、V. Kazemi et al., “One Millisecond Face Alignment with an Ensemble of Regression Trees,” KTH, Royal Institute of Technology, Computer Vision and Active Perception Lab, Stockholm, Sweden (2014)などの、多くの適切な市販およびオープンソースのソフトウェアが存在する。本明細書における使用に好ましいのは、Giaran,Inc.ソフトウェアである。
用するために、皮膚色データセットは、標準の唇色と比較して対応する唇色のシフトを伴う異なる照明条件下で収集される。このデータセットを用いて、本開示のシステムは、最初に入力皮膚色を抽出し、この特定の照明条件下で対応する唇色シフトを見つける。次に、最終的に修正された除去唇色が、検出された色シフトとともに提供される。皮膚色データセットは、他の除去領域には必要ないが、唇化粧除去のガイダンスのために収集される。データセットがない場合、事前定義された色を使用して唇を検出することもできる。
の母集団内の正規分布の部分母集団を表す確率モデルである。一般に、混合モデルは、データ点がどの部分母集団に属するかを知る必要はないため、モデルは部分母集団を自動的に学習することができる。
62-66に記載されたようなNobuyuki Otsuのものであり、関連部分において本明細書に組み込まれる。
検出方法によって対処される。まず、Otsuの方法などの閾値方法を使用して基準閾値を見つけ、その基準閾値に基づいて、オフセットの配列を使用して基準閾値を調整する。ここで、以下のとおりである。
オフセット={0、0.05、0.10、0.15、0.18、0.2、0.22、0.24、0.25、0.26、0.27、0.28、0.29、0.30、0.31、0.32、0.33、0.34、0.35、0.36、0.37、0.38、0.39、0.4、0.5}。
適用される閾値は、基準閾値からオフセットを差し引いた差である。
1. 唇領域の外部矩形の幅と高さの比は、特定の範囲を有する。その外部矩形は、上述した2値化後の白領域の全てを含むことができる最小の矩形に基づいている。幅と高さの比は、約0.7から約10の間に設定される。
2. 唇領域の面積とその外部矩形との比は、特定の範囲を有する。唇領域の面積は、上記の2値化手順後の白領域である。例えば、図24では、各画像の白領域は、検出された唇領域の面積を定義する。外部矩形は、白領域の全てを含むことができる最小の矩形である。唇領域の面積/矩形の面積の比は、約0.3から約0.9に設定される。
3. 唇領域の面積と顔の下部の面積の比は、特定の範囲を有する。図21に示されているランドマークに示されているように、顔ランドマークが検出されると、顔の下部領域は、下部地点(地点7、地点10)から地点34まで続き、地点4から地点14まで続くと定義されることができる。例えば、図24のバイナリ画像を評価する場合、関連する画像領域は、ランドマークによって決定される顔の下部領域である。顔の下部領域の面積に対する唇領域の面積の比は、約0.1から約0.5である。
ここで、p(xi|lip)およびp(xi|non_lip)は、2つのGMMから計算された対応する確率である。この方法で得られた唇領域全体の確率マップ22は図26に示されている。
184-203に記載されており、関連部分において本明細書に組み込まれる。
ーションを提供している。例えば、最大の仮想試用サービスの1つであるSephora(登録商標)の仮想アーティストは、人々がマウスをクリックするだけで何百もの口紅を試用することを可能にし、ユーザはまた、単にショップをクリックしてショッピングカートに選択項目を追加することもできる。
ラムマッチングに供給され、好ましくはそれによって所望の出力効果を生成する所望の程度までの唇領域の光分布とは異なる値を含む様々な事前定義された光分布を有する様々な光分布のヒストグラムのデータセット内のヒストグラムを特定する。ステップ2025aにおいて、所定範囲にわたる照度/明るさパラメータを使用して、ステップ2025bと同様に、様々な光沢効果または艶効果に対して様々な程度の透明度、滑らかさおよび/または艶を提供することができる。
スタイル移行モデルは、クリエイティブコモンズ帰属ライセンスの下にあるかまたは社内データセットによって自己準備された任意の画像データセット58に対して訓練されることができる。訓練モジュールの後、スタイル移行モデルは、残りのモジュールとともに使用する準備ができる。
ILip L’=α(ILip L-μLip L)+μColor L、ここで、0≦α≦1
ILip L=M*ILip L’+(1-M)*ILip L
ILip a=M*IColor a+(1-M)*ILip a
ILip b=M*IColor b+(1-M)*ILip b
操作1は、入力唇Lチャネルの平均画素値μLip Lを、唇色画像μColor Lのものにシフトし、これは、所望の口紅RGB値のCIELAB空間L値と同じである。係数αは、アドオン唇色が肉眼でどれだけしっかり見えるかを制御する。ゼロαは、下方の全ての唇パターンを完全にカバーし、ユニットαは、全ての唇パターンを保持する。操作2から4は、カラー画像と唇画像チャネルとの間の加重合計により、CIELAB空間における全てのチャネルを更新する。
承する。各畳み込みまたは逆畳み込みユニットは、1つの畳み込みまたは逆畳み込み関数、1つの正規化関数、および1つの非線形活性化関数を含む順次操作として定義される。ネットワーク内の隠れ層(畳み込みまたは逆畳み込みユニット)の正確な数は、リアルタイムの唇テクスチャシミュレーション用に最適化されるパラメータとして扱われる。スタイル移行は、参照スタイル画像に従ってテクスチャと色の両方を合成するため、合成画像は、CIELAB空間に変換され、Lチャネル66のみ、すなわち、Gatys, Leon A. et al., “Preserving Color in Neural Artistic Style Transfer,” CoRRabs/ 1606.05897
(2016)に記載されている輝度のみの移行が後処理に使用される。
しておよびランドマーク30から41から右目に対して30地点が生成される。線形補間は、以下の式にしたがう。
(x,y):参照画像内の点の座標
(u,v):ターゲット画像内の点の座標
f、gまたはF、G:変換関数のxおよびy成分
ymin、ymax:yの最小値および最大値
xmin、xmax:xの最小値および最大値
y=yminからymaxの場合
x=xminからxmaxの場合
u=f(x,y)、およびv=g(x,y)
ソースS(x,y)の画素は、T(u,v)にコピーされる。
方法または技術とともに使用して、そのような仮想化粧シミュレーションおよび/または出力終了効果の1つ以上が適用された結果画像RIの仮想出力を作成することができる(結果画像の提供を含み、化粧は除去され、さらに化粧は適用されない)。
Board)だけでなく、適用時にそのような化粧品がどのように見えるかを評価したい。パーソナライズされた化粧推薦に対する既存のアプローチは、ほとんど化粧の専門家からアドバイスを求めることを対象としている。
より堅牢にするが、訓練から生じる深層学習モデル(DLM)4040を訓練するために化粧前後の画像を十分に収集するための深層学習訓練の問題を解決する最も難しい部分の解決策も表す。したがって、化粧のある様々な画像を収集することができ、化粧なしでかなりの数の画像を使用する代わりに、化粧除去方法を使用して、ステップ4030における訓練の入力データとして使用される化粧が適用されていない多数の画像を生成することができる。
画像は、ステップ7030cにおいて製品を認識するために美容製品データベース7045からのデータを分類した訓練済み分類器7035に供給されることができる。最悪のシナリオでは、製品が認識できない場合、システムは、ビデオ概要のキーフレームとして不明な製品を含むフレームを返してもよい。
は、以下の曲線変換フィルタを使用することができる。
Po=(1-α)Pi+αPi 2 (6a)
記のように、ビデオフレーム9015は、分離入力とすることができる。ユーザが任意の適切な入力技術を使用して色較正要求を開始したとき。それに応じて、システムは、ステップ9020において、特定の位置に色参照チャートを表示するようにユーザに要求する。較正システムは、色参照チャート9020を自動的に検出し、ステップ9025において、各色パッチの画素値を読み取る。次に、システムは、観察されたカラーチャートを、データベースに保存されているゴールデン参照システム9030aの下でキャプチャされた参照値9030と比較する。比較結果を使用して、較正システムは、オペレーティングシステムに組み込まれたSDKを使用するウェブカメラなどのビデオキャプチャ装置に制御信号を送信する。システムは、ステップ9040において、ISO速度、ホワイトバランス、シャッタスピード、色相、明るさ、コントラスト、およびゲインなどの全てのカメラパラメータをそれに応じて調整し、ゴールデンシステムの基準値を満たす。この較正は、連続的なフィードバックプロセスとして機能し、較正システムは、キャプチャされた新たなフレームに従って、較正制御信号をカメラに継続的に送信する。最終的に、全ての制御パラメータが動的なバランスを達成し、キャプチャされたフレームの色参照チャートの画素値が参照値に非常に近くなる。
Ro=Cr0+Cr1Ri+Cr2Ri 2+Cr3Ri 3 (1)
ここで、Roは、出力赤チャネル画素値であり、Riは、入力赤チャネル画素値であり、Crは、多項式の係数(定数の場合もある)である。上記関数は、以下のように行列形式で記述することができる。
Ax+b=0 (2)
未知の定数Cの数よりもはるかに大きい24の観測があるため、解くべき過剰判定システムがある。問題は、最小二乗法を使用して解決できる回帰問題に変換される。目的関数は、以下のように記述することができる。
、ゴールデンシステムによる基準値であり、nは、カラーパッチの観測値の数(この場合は24)である。
中心により多くの焦点を与えることができるように、オブジェクトの局所性が考慮される。
て計算され、上位2つの値の局所性を比較して入力画像の中心にあるオブジェクトにさらに焦点を当てることにより、ステップ240において最終戻り値を決定する。図18は、本開示の実施形態にかかる色測定システムを使用して抽出された入力画像F、G、Hおよびその主要色F’、G’、H’を示している。色測定システムの擬似コードは、付録Gに提供されている。
ンドウを備えたマルチスケールグローバル検出器を使用して画像をスキャンして(3050)顔ランドマークを検出し、さらに3050において、各関心領域について、勾配のヒストグラムが計算され、サポートベクターマシンモデル3060への入力として使用され、どの部分がパッチ抽出およびフィッティングの目的領域であるかを判定する。N. Dalal
and B. Triggs, “Histograms of oriented gradients for human detection,” CVPR, pp. 886-893 (2005)、およびC. Cortes and V. Vapnik, “Support-vector networks,” Machine Learning, pp. 273-297 (1995)を参照のこと。次に、3070において、ウィンドウをダウンサンプリングして領域をより正確にする。顔が検出されない場合、フレームを検出するために画像ピラミッドで制約付き平均シフト3030が使用され、以前のランドマークが存在する場合、3050において、グローバル検出器の初期形状として使用することができる。現在のフレームに以前のランドマークがある場合、3035において、以前のランドマークを使用して、教師付き降下法(SDM)の初期ランドマークとして現在の境界ボックスに位置合わせする。
の回帰(S. Ren, et al., “Face Alignment at 3000 FPS via Regressing Local Binary
Features,” CVPR (2014)を参照のこと)、教師あり降下法(X. Xiong et al., “Supervised descent method and its applications to face alignment,” CVPR (2013)を参照のこと)など、グローバル検出器として使用することができる多くの方法がある。本発明において、好ましいGLDR方法は、顔ランドマークを検出するためのグローバル検出方法としてのHOGであり、検出をより正確にするために、SDMの第2の特徴として点分布モデル(Point Distribution Model)を使用することも好ましい(T. Baltrusaitis, et al., “Constrained local neural fields for robust facial landmark detection in the wild,” ICCV Workshops (2013)を参照のこと)。新たな数式は、以下のように作成される。
が照合される。次に、現在のパッチで最適な関心領域が選択され、その中心が最終ランドマークとして作成される(3090)。さらに、相関係数を使用して、どのランドマークが隠されているかを分類することもできる。計算関数は、好ましくは以下のとおりである。
使用する従来のGLDRのようなローカル検出器ではなく、グローバル検出器であるGLDRモデルを使用する。したがって、現在の方法を使用した性能は、顔が非常に高速に回転する場合の遅延の問題はない。新たなフレームワークは、どのランドマークが隠されているかを検出するパッチ係数一致モジュールを備えているため、さらにスマートである。
ル時計、スマートミラー、スマートグラス、タブレットコンピュータ、ポータブルコンピュータ、テレビ、ゲーム機器、音楽プレーヤー、仮想現実ゴーグル、ラップトップ、パームトップ、スマートまたはダム端末、ネットワークコンピュータ、携帯情報端末、ホームアシスタント(Alexa(登録商標)またはGoogle(登録商標)Home(登録商標)など)を使用することができる。
ッサはまた、本明細書で説明される実行可能な学習ツールおよびシステムを作動させることができる。
説明するようなハードウェアを有する1つ以上のコンピュータで動作する、仮想化オペレーティングシステムを実行する1つ以上の仮想マシンで実装することもできる。
なお本開示は以下の項を含む実施形態を含むが、本開示はこれらの項に限定されるものではない。
(項1)
顔の化粧を仮想的に除去する方法であって、
化粧が適用されたユーザの顔画像を提供することと、
前記ユーザの顔画像から少なくとも第1の領域および前記第1の領域とは異なる第2の領域を含む顔ランドマークを探索することと、
前記顔画像の前記第1の領域を、反射率チャネルおよびシェーディングチャネルを含む第1のチャネルに分解することと、
前記第1の領域の前記第1のチャネルをヒストグラムマッチングに供給して前記第1の領域において化粧が除去された第1の画像を取得することと、
前記顔画像の前記第2の領域を、色相チャネル、彩度チャネル、および色値チャネルを含むカラーチャネルに変換することと、
異なる照明条件下で前記カラーチャネルを前記ヒストグラムマッチングに供給して前記第2の領域において化粧が除去された第2の画像を取得することと、
前記第1の画像と前記第2の画像とを組み合わせて前記第1の領域および前記第2の領域から化粧が除去された結果顔画像を形成することとを含み、
前記カラーチャネルをヒストグラムマッチングに供給することが、
それぞれが異なる照明条件下での各顔画像の対応する第2の領域に化粧を有せず、事前定義されたヒストグラムを含む顔画像のデータセットを提供することと、
異なる照明条件下での前記カラーチャネルのうちの1つ以上のヒストグラムを前記事前定義されたヒストグラムのうちの対応するものとマッチングして前記第2の画像を取得することとを含む、方法。
(項2)
前記反射率チャネルが、前記顔画像の材料依存特性を含み、前記シェーディングチャネルが、前記顔画像の光依存特性を含む、項1に記載の方法。
(項3)
前記反射率チャネルが、1色のみを含み、前記シェーディングチャネルが、前記第1の領域の形状情報を保存する、項2に記載の方法。
(項4)
前記第1の領域が、目領域を含み、前記第2の領域が、唇領域を含む、項1に記載の方法。
(項5)
前記第1の領域の前記第1のチャネルを前記ヒストグラムマッチングに供給する前の前記第1の領域の化粧の種類が、前記顔画像の前記第2の領域をカラーチャネルに変換する前の前記第2の領域の化粧の種類とは異なる、項1に記載の方法。
(項6)
前記カラーチャネルが、色値チャネルおよび/または彩度チャネルである、項1に記載の方法。
(項7)
顔の化粧を仮想的に除去する方法であって、
化粧が適用されたユーザの顔画像を提供することと、
前記ユーザの顔画像の領域内の顔ランドマークを探索することと、
前記顔画像の前記領域を、色相チャネル、彩度チャネル、および色値チャネルから選択されるカラーチャネルに変換することと、
異なる照明条件下で前記カラーチャネルをヒストグラムマッチングに供給して、前記領域において化粧が除去された結果画像を取得することとを含み、
前記カラーチャネルをヒストグラムマッチングに供給することが、
事前定義されたヒストグラムを含む、化粧なしの顔画像のデータセットを提供することと、
異なる照明条件下での前記カラーチャネルのうちの1つ以上のヒストグラムを、前記事前定義されたヒストグラムのうちの対応するものとマッチングして第2の画像を取得することとを含む、方法。
(項8)
前記ユーザの顔画像の前記領域が、唇領域を含む、項7に記載の方法。
(項9)
前記顔画像の前記領域をカラーチャネルに変換する前の前記顔画像の化粧が、口紅またはリップグロスである、項8に記載の方法。
(項10)
前記カラーチャネルが、色値チャネルおよび/または彩度チャネルである、項7に記載の方法。
(項11)
さらに、
皮膚色データセットを収集することであって、標準唇色と比較して異なる照明条件についての対応する唇色シフトを有するそのような異なる照明条件下での皮膚色データが収集される、収集することと、
前記ユーザの画像から入力皮膚色を抽出することと、
前記皮膚色データセットを使用して前記入力皮膚色の特定の照明条件下での前記入力皮膚色の対応する唇色シフトを検出することと、
前記ユーザの顔画像の第1の領域からの除去唇色として使用するための最終修正唇色を提供することとを含み、前記最終修正唇色が、前記検出された色シフトを有する、項7に記載の方法。
(項12)
入力画像から化粧を検出および除去するシステムであって、
ユーザインターフェースから化粧が適用された入力画像を受信し、
少なくとも第1の領域および/または前記第1の領域とは異なる第2の領域においてユーザの顔画像から顔ランドマークを探索することであって、前記第1の領域が化粧を含みおよび/または前記第2の領域が化粧を含む、探索することと、
前記第1の領域が探索された場合、前記顔画像の前記第1の領域を第1のチャネルに分解し、それぞれ化粧を有しない顔のヒストグラムのデータセットから参照ヒストグラムを使用して前記第1の領域の前記第1のチャネルをヒストグラムマッチングに供給し、前記第1の領域において化粧が除去された第1の画像を取得し、および/または前記第2の領域が探索された場合、前記顔画像の前記第2の領域をカラーチャネルに変換し、異なる照明条件下でのヒストグラムマッチングに前記カラーチャネルを供給し、それぞれ化粧を有しない異なる照明条件下での顔のヒストグラムのデータセットからの参照ヒストグラムを使用して前記第2の領域において化粧が除去された第2の画像を取得することと、
前記第1の領域および前記第2の領域の両方が探索された場合、前記第1の画像および前記第2の画像を組み合わせて、前記第1の領域および前記第2の領域から化粧が除去された結果顔画像を形成することと、を行うことができるように構成される、システム。
(項13)
前記システムが、システムメモリおよびシステムプロセッサを有するコントローラを備え、前記コントローラが、前記入力画像を受信し、化粧を有しない前記顔のヒストグラムのデータセットおよび異なる照明条件下での前記顔のヒストグラムのデータセットを受信および/または前記システムメモリに記憶するように構成され、前記システムプロセッサが、顔画像を検出して顔ランドマークを探索することができるプログラミング命令を実行することができる、項12に記載のシステム。
(項14)
前記システムプロセッサが、前記入力画像の前記第1の領域の前記第1のチャネルへの分解および前記第1の領域の前記第1のチャネルのヒストグラムマッチングのためのプログラミング命令を実行することができ、
前記システムプロセッサが、前記顔画像の前記第2の領域のカラーチャネルへの変換および異なる照明条件下での前記カラーチャネルのヒストグラムマッチングのためのプログラミング命令を実行することができる、項13に記載のシステム。
(項15)
前記ユーザインターフェースが、スマートフォンデジタルカメラ、デジタルカメラ、デジタルビデオカメラ、ウェブカメラ、またはスマートフォンデジタルビデオカメラである、項14に記載のシステム。
(項16)
顔を有する入力画像上に出力効果を生成する方法であって、
(a)顔ランドマークを有するユーザの顔画像を提供することと、
(b)前記ユーザの顔画像から前記顔ランドマークを探索することであって、前記顔ランドマークが第1の領域を含み、前記第1の領域に関連付けられたランドマークが唇色を有する前記顔画像の唇に関連付けられ、前記第1の領域が唇領域を含む、探索することと、
(c)前記画像の前記唇領域を少なくとも1つのカラーチャネルに変換し、前記唇領域の光分布を検出および分析することと、
(d)変化する光分布にわたって前記少なくとも1つのカラーチャネルをヒストグラムマッチングに供給し、前記唇領域の前記光分布から変化する事前定義された光分布を有するヒストグラムを特定することにより、少なくとも1つの第1の出力効果を生成することと、
(e)前記出力効果を前記第1の画像と組み合わせて、前記唇色と唇に適用された前記少なくとも1つの第1の出力効果とを有する第1の結果画像を提供することとを含む、方法。
(項17)
前記少なくとも1つのカラーチャネルが、彩度チャネルおよび/または色値チャネルを含む、項16に記載の方法。
(項18)
前記変換ステップ(c)の前に、前記方法が、さらに、前記ユーザの顔画像の前記唇領域から化粧を除去するステップを含む、項16に記載の方法。
(項19)
前記顔ランドマークが第2の領域を含み、前記第2の領域における前記ランドマークが前記顔画像の目と関連付けられ、前記第2の領域が目領域を含み、前記方法が、さらに、 (f)前記画像の前記目領域を少なくとも1つの第1のチャネルに分解し、前記目領域の光分布を検出および分析することと、
(g)前記少なくとも1つの第1のチャネルを、変化する光分布にわたってヒストグラムマッチングに供給し、前記目領域の前記光分布とは異なる事前定義された光分布を有するヒストグラムを特定することによって前記目に少なくとも1つの第2の出力効果を生成することと、
(h)前記第1の結果画像を前記第2の画像および前記少なくとも1つの第2の出力効果と組み合わせ、前記事前定義された唇色および前記唇に対する前記少なくとも1つの第1の出力効果および前記目に対する前記少なくとも1つの第2の出力効果を有する第2の結果画像を提供することとを含む、項16に記載の方法。
(項20)
前記少なくとも1つの第1のチャネルが、シェーディングまたは反射率のうちの1つを含む、項19に記載の方法。
(項21)
前記事前定義された光分布を有する前記ヒストグラムの光分布が、透明度および滑らかさを追加し、前記少なくとも1つの第1の出力効果が、光沢効果を含む、項16に記載の方法。
(項22)
前記光沢効果が、前記透明度のレベルによって変化する、項21に記載の方法。
(項23)
前記事前定義された光分布を有する前記ヒストグラムの光分布が、ランダムな反射率を追加し、前記少なくとも1つの出力効果が、自然効果を含む、項16に記載の方法。
(項24)
前記事前定義された光分布を有する前記ヒストグラムの光分布が、透明度および艶を追加し、前記少なくとも1つの第1の出力効果が、艶効果を含む、項16に記載の方法。
(項25)
前記事前定義された光分布を有する前記ヒストグラムの光分布が、きらめきを追加し、前記少なくとも1つの出力効果が、きらめき効果を含む、項16に記載の方法。
(項26)
前記ステップ(d)および(e)を繰り返して、前記第1の画像に少なくとも1つの異なる出力効果を生み出し、前記第1の画像における前記少なくとも1つの異なる出力効果のうちの1つを有する各結果画像が、前記第1の結果画像と組み合わせられ、前記少なくとも1つの第1の出力効果と、前記第1の画像に対する前記少なくとも1つの異なる出力効果のそれぞれとを有する最終結果画像を提供する、項16に記載の方法。
(項27)
前記方法が、さらに、ステップ(b)の後に、前記唇領域の面積を計算し、前記唇領域の面積を所定の比率で拡大して目標拡大ランドマークを提供し、前記少なくとも1つの第1の出力効果に加えて膨らみ出力効果を生み出すことと、前記膨らみ出力効果を前記少なくとも1つの第1の出力効果および前記第1の画像と組み合わせて歪ませ、前記唇に適用された唇色、前記膨らみ出力効果および前記少なくとも1つの第1の出力効果を有する前記第1の結果画像を提供することとを含む、項16に記載の方法。
(項28)
前記事前定義された光分布を有する前記ヒストグラムの光分布が、透明度および艶を追加し、前記少なくとも1つの第1の出力効果が、艶効果を含み、前記結果画像が、膨らんで艶のある外観を含む、項27に記載の方法。
(項29)
顔を有する入力画像に対する出力効果を生成する方法であって、
(a)顔ランドマークを有するユーザの顔画像を提供することと、
(b)前記ユーザの顔画像から前記顔ランドマークを探索することであって、前記顔ランドマークが第2の領域を含み、前記第2の領域に関連付けられたランドマークが前記顔画像の目に関連付けられ、前記第2の領域が目領域を含む、探索することと、
(c)前記画像の前記目領域を少なくとも1つの第1のチャネルに分解し、前記目領域の光分布を検出および分析することと、
(d)前記少なくとも1つの第1のチャネルを、変化する光分布にわたってヒストグラムマッチングに供給し、前記目領域の前記光分布とは異なる事前定義された光分布を有するヒストグラムを特定することによって前記目に対して少なくとも1つの第2の出力効果を生成することと、
(e)前記顔画像を前記少なくとも1つの第2の出力効果と組み合わせ、前記目に対する前記少なくとも1つの第2の出力効果を有する第2の結果画像を提供することとを含む、方法。
(項30)
高速顔検出およびランドマーク追跡のための方法であって、
2次元カメラを使用して入力画像をキャプチャすることと、
異なるスケールの画像を使用して画像ピラミッドを作成することと、
スライディングウィンドウおよびサポートベクターマシンを使用して勾配のヒストグラム特徴を適用して前記画像ピラミッドの画像上で顔の境界ボックスを見つけることと、
グローバル学習降下正規化モデルに基づく1つ以上の顔のランドマーク検出器を使用して、顔が存在する場合に前記境界ボックス内の前記顔を検出することとを含む、方法。
(項31)
さらに、パッチを抽出し、ランドマーク平均シフトフィッティングを前記画像に適用してランドマークを平滑化し、前記画像ピラミッドにわたるランドマーク位置を正規化することと、3層ニューラルネットワークモデルを正確性検証モデルとして適用して誤形状をフィルタリングし、最終ランドマークを関連付けて選択することとを含む、項30に記載の方法。
(項32)
前記ニューラルネットワークの3層が、畳み込み層、アップサンプル層およびマッピング層である、項31に記載の方法。
(項33)
さらに、点分布モデルを使用してグラウンドトゥルースデータセットからノイズをフィルタリングしてランドマークビデオをより安定にすることを含む、高速移動に関連付けられた遅延を減らし、移動不足に関連付けられた揺れを減らすステップを含む、項30に記載の方法。
(項34)
顔画像に目化粧アドオン効果を仮想的に提供する方法であって、
(a)目の少なくとも1つの目化粧特徴のテンプレートを作成し、前記目化粧特徴に関連する前記テンプレート上のランドマーク地点に手動で注釈を付け、前記ランドマーク地点の場所をテキストファイルとして保存することと、
(b)画像フレームのランドマーク検出器を使用して顔画像の目領域のランドマークを抽出することと、
(c)前記画像の前記目領域をトリミングして、前記テンプレートの前記目化粧特徴に関連する前記ランドマークに基づいて画像フレームを作成することと、
(d)前記画像フレームの前記目領域上の前記検出された抽出ランドマークから前記目領域の周りの線形補間によって地点を生成することと、
(e)前記テンプレートの注釈付きランドマークに基づいて前記テンプレートの周りの地点を生成することと、
(f)順方向歪みにより前記テンプレートを前記画像フレームに適用し、前記適用されたテンプレートから前記目化粧特徴を有する目領域画像フレームを作成することと、
(g)前記目領域画像フレームを元の顔画像にトリミングして戻し、前記目化粧特徴を有する顔画像を作成することとを含む、方法。
(項35)
前記目化粧特徴が、アイシャドウ特徴、ミドルアイシャドウ特徴、アイシャドウテール特徴、アイシャドウコーナー特徴およびまつげ特徴から選択される、項34に記載の方法。
(項36)
ステップ(a)が、アイシャドウ特徴、ミドルアイシャドウ特徴、アイシャドウテール特徴、アイシャドウコーナー特徴およびまつげ特徴のそれぞれについてテンプレートを作成することを含み、前記方法が、さらに、前記テンプレートにおける前記目特徴のうちの2つ以上について顔画像に対してステップ(b)から(g)を繰り返すことと、前記顔画像における2つ以上の特徴を組み合わせて合成目化粧外見を作成することとを含む、項35に記載の方法。
(項37)
顔画像に口紅テクスチャを仮想的に提供する方法であって、
深層畳み込みニューラルネットワーク構造を有する訓練モジュールを備えるテクスチャシミュレータを提供することと、
前処理モジュールにおいて入力唇領域を処理し、所望の口紅色のL * a * b * 色空間の輝度チャネルと重み付きカバレッジ係数とを使用して前記所望の口紅色および輝度向上を有するように前記入力唇領域を変更して輝度分布とシミュレートされた動的テクスチャとを有するLチャネル画像を作成し、a * チャネルおよびb * チャネルについて入力画像をRGBからL * a * b * 空間色に処理することと、
前記前処理モジュールから、訓練モジュールを使用して画像データセットに対して訓練されたモノチャネルスタイル移行モジュールに前記Lチャネル画像を供給し、前記データセットにおける参照スタイル画像に基づいて合成色およびテクスチャを有する合成Lチャネル画像を作成することと、
動的テクスチャシミュレーションを有する前記合成Lチャネル画像と、RGB変換のための前記前処理モジュールからのa * チャネル画像およびb * チャネル画像とを、RGB変換のための後処理モジュールにおいてさらに処理することとを含む、方法。
Claims (78)
- 顔の化粧を仮想的に除去する方法であって、
化粧が適用されたユーザの顔画像を提供することと、
前記ユーザの顔画像から少なくとも第1の領域および前記第1の領域とは異なる第2の領域を含む顔ランドマークを探索することと、
前記顔画像の前記第1の領域を第1のチャネルに分解することと、
前記第1の領域の前記第1のチャネルをヒストグラムマッチングに供給して前記第1の領域において化粧が除去された第1の画像を取得することと、
前記顔画像の前記第2の領域をカラーチャネルに変換することと、
異なる照明条件下で前記カラーチャネルを前記ヒストグラムマッチングに供給して前記第2の領域において化粧が除去された第2の画像を取得することと、
前記第1の画像と前記第2の画像とを組み合わせて前記第1の領域および前記第2の領域から化粧が除去された結果顔画像を形成することとを含む、方法。 - 前記第1のチャネルが、反射率チャネルおよびシェーディングチャネルを含む、請求項1に記載の方法。
- 前記反射率チャネルが、前記顔画像の材料依存特性を含み、前記シェーディングチャネルが、前記顔画像の光依存特性を含む、請求項2に記載の方法。
- 前記反射率チャネルが、1色のみを含み、前記シェーディングチャネルが、前記第1の領域の形状情報を保存する、請求項3に記載の方法。
- 前記第1の領域が、目領域を含み、前記第2の領域が、唇領域を含む、請求項1に記載の方法。
- 前記第1の領域の前記第1のチャネルを前記ヒストグラムマッピングに供給する前の前記第1の領域の化粧の種類が、前記顔画像の前記第2の領域をカラーチャネルに変換する前の前記第2の領域の化粧の種類とは異なる、請求項1に記載の方法。
- 前記カラーチャネルが、色相チャネル、彩度チャネル、および色値チャネルを含む、請求項1に記載の方法。
- 前記カラーチャネルをヒストグラムマッチングに供給することが、
それぞれが異なる照明条件下での各顔画像の対応する第2の領域に化粧を有せず、事前定義されたヒストグラムを含む顔画像のデータセットを提供することと、
異なる照明条件下での前記カラーチャネルのうちの1つ以上のヒストグラムを前記事前定義されたヒストグラムのうちの対応するものとマッチングして前記第2の画像を取得することとを含む、請求項1に記載の方法。 - 前記カラーチャネルが、色値チャネルおよび/または彩度チャネルである、請求項8に記載の方法。
- 顔の化粧を仮想的に除去する方法であって、
化粧が適用されたユーザの顔画像を提供することと、
前記ユーザの顔画像の領域内の顔ランドマークを探索することと、
前記顔画像の前記領域を別個のチャネルに分解することと、
前記領域の前記別個のチャネルをヒストグラムマッチングに供給して前記領域において化粧が除去された結果画像を取得することとを含む、方法。 - 前記ユーザの顔画像の前記領域が、目領域を含む、請求項10に記載の方法。
- 前記画像を分解する前の前記ユーザの顔画像の化粧が、目の化粧を含む、請求項11に記載の方法。
- 前記別個のチャネルが、反射率チャネルおよびシェーディングチャネルを含む、請求項10に記載の方法。
- 前記反射率チャネルが、前記顔画像の材料依存特性を含み、前記シェーディングチャネルが、前記顔画像の光依存特性を含む、請求項10に記載の方法。
- 前記反射率チャネルが、1色のみを含み、前記シェーディングチャネルが、前記第1の領域の形状情報を保存する、請求項10に記載の方法。
- 顔の化粧を仮想的に除去する方法であって、
化粧が適用されたユーザの顔画像を提供することと、
前記ユーザの顔画像の領域内の顔ランドマークを探索することと、
前記顔画像の前記領域をカラーチャネルに変換することと、
異なる照明条件下で前記カラーチャネルをヒストグラムマッチングに供給して、前記領域において化粧が除去された結果画像を取得することとを含む、方法。 - 前記ユーザの顔画像の前記領域が、唇領域を含む、請求項16に記載の方法。
- 前記顔画像の前記領域をカラーチャネルに変換する前の前記顔画像の化粧が、口紅またはリップグロスである、請求項17に記載の方法。
- 前記カラーチャネルが、色相チャネル、彩度チャネル、および色値チャネルを含む、請求項16に記載の方法。
- 前記カラーチャネルをヒストグラムマッチングに供給することが、
事前定義されたヒストグラムを含む、化粧なしの顔画像のデータセットを提供することと、
異なる照明条件下での前記カラーチャネルのうちの1つ以上のヒストグラムを、前記事前定義されたヒストグラムのうちの対応するものとマッチングして第2の画像を取得することとを含む、請求項16に記載の方法。 - 前記カラーチャネルが、色値チャネルおよび/または彩度チャネルである、請求項20に記載の方法。
- さらに、
皮膚色データセットを収集することであって、標準唇色と比較して異なる照明条件についての対応する唇色シフトを有するそのような異なる照明条件下での皮膚色データが収集される、収集することと、
前記ユーザの画像から入力皮膚色を抽出することと、
前記皮膚色データセットを使用して前記入力皮膚色の特定の照明条件下での前記入力皮膚色の対応する唇色シフトを検出することと、
前記ユーザの顔画像の第1の領域からの除去唇色として使用するための最終修正唇色を提供することとを含み、前記最終修正唇色が、前記検出された色シフトを有する、請求項16に記載の方法。 - 入力画像から化粧を検出および除去するシステムであって、
ユーザインターフェースから化粧が適用された入力画像を受信し、
少なくとも第1の領域および/または前記第1の領域とは異なる第2の領域においてユーザの顔画像から顔ランドマークを探索することであって、前記第1の領域が化粧を含みおよび/または前記第2の領域が化粧を含む、探索することと、
前記第1の領域が探索された場合、前記顔画像の前記第1の領域を第1のチャネルに分解し、それぞれ化粧を有しない顔のヒストグラムのデータセットから参照ヒストグラムを使用して前記第1の領域の前記第1のチャネルをヒストグラムマッチングに供給し、前記第1の領域において化粧が除去された第1の画像を取得し、および/または前記第2の領域が探索された場合、前記顔画像の前記第2の領域をカラーチャネルに変換し、異なる照明条件下でのヒストグラムマッチングに前記カラーチャネルを供給し、それぞれ化粧を有しない異なる照明条件下での顔のヒストグラムのデータセットからの参照ヒストグラムを使用して前記第2の領域において化粧が除去された第2の画像を取得することと、
前記第1の領域および前記第2の領域の両方が探索された場合、前記第1の画像および前記第2の画像を組み合わせて、前記第1の領域および前記第2の領域から化粧が除去された結果顔画像を形成することと、を行うことができるように構成される、システム。 - 前記システムが、システムメモリおよびシステムプロセッサを有するコントローラを備え、前記コントローラが、前記入力画像を受信し、化粧を有しない前記顔のヒストグラムのデータセットおよび異なる照明条件下での前記顔のヒストグラムのデータセットを受信および/または前記メモリに記憶するように構成され、前記システムプロセッサが、顔画像を検出して顔ランドマークを探索することができるプログラミング命令を実行することができる、請求項23に記載のシステム。
- 前記プロセッサが、前記入力画像の前記第1の領域の前記第1のチャネルへの分解および前記第1の領域の前記第1のチャネルのヒストグラムマッチングのためのプログラミング命令を実行することができ、
前記プロセッサが、前記顔画像の前記第2の領域のカラーチャネルへの変換および異なる照明条件下での前記カラーチャネルのヒストグラムマッチングのためのプログラミング命令を実行することができる、請求項24に記載のシステム。 - 前記ユーザインターフェースが、スマートフォンデジタルカメラ、デジタルカメラ、デジタルビデオカメラ、ウェブカメラ、またはスマートフォンデジタルビデオカメラである、請求項23に記載のシステム。
- 顔を有する入力画像上に出力効果を生成する方法であって、
(a)顔ランドマークを有するユーザの顔画像を提供することと、
(b)前記ユーザの顔画像から前記顔ランドマークを探索することであって、前記顔ランドマークが第1の領域を含み、前記第1の領域に関連付けられたランドマークが唇色を有する前記顔画像の唇に関連付けられ、前記第1の領域が唇領域を含む、探索することと、
(c)前記画像の前記唇領域を少なくとも1つのカラーチャネルに変換し、前記唇領域の光分布を検出および分析することと、
(d)変化する光分布にわたって前記少なくとも1つのカラーチャネルをヒストグラムマッチングに供給し、前記唇領域の前記光分布から変化する事前定義された光分布を有するヒストグラムを特定することにより、少なくとも1つの第1の出力効果を生成することと、
(e)前記出力効果を前記第1の画像と組み合わせて、前記唇色と唇に適用された前記少なくとも1つの第1の出力効果とを有する第1の結果画像を提供することとを含む、方
法。 - 前記少なくとも1つのカラーチャネルが、彩度チャネルおよび/または色値チャネルを含む、請求項27に記載の方法。
- 前記変換ステップ(c)の前に、前記方法が、さらに、前記ユーザの顔画像の前記唇領域から化粧を除去するステップを含む、請求項27に記載の方法。
- 前記顔ランドマークが第2の領域を含み、前記第2の領域における前記ランドマークが前記顔画像の目と関連付けられ、前記第2の領域が目領域を含み、前記方法が、さらに、
(f)前記画像の前記目領域を少なくとも1つの第1のチャネルに分解し、前記目領域の光分布を検出および分析することと、
(g)前記少なくとも1つの第1のチャネルを、変化する光分布にわたってヒストグラムマッチングに供給し、前記目領域の前記光分布とは異なる事前定義された光分布を有するヒストグラムを特定することによって前記目に少なくとも1つの第2の出力効果を生成することと、
(h)前記第1の結果画像を前記第2の画像および前記少なくとも1つの第2の出力効果と組み合わせ、前記事前定義された唇色および前記唇に対する前記少なくとも1つの第1の出力効果および前記目に対する前記少なくとも1つの第2の出力効果を有する第2の結果画像を提供することとを含む、請求項27に記載の方法。 - 前記少なくとも1つの第1のチャネルが、シェーディングまたは反射率のうちの1つを含む、請求項30に記載の方法。
- 前記事前定義された光分布を有する前記ヒストグラムの光分布が、透明度および滑らかさを追加し、前記少なくとも1つの第1の出力効果が、光沢効果を含む、請求項27に記載の方法。
- 前記光沢効果が、前記透明度のレベルによって変化する、請求項32に記載の方法。
- 前記事前定義された光分布を有する前記ヒストグラムの光分布が、ランダムな反射率を追加し、前記少なくとも1つの出力効果が、自然効果を含む、請求項27に記載の方法。
- 前記事前定義された光分布を有する前記ヒストグラムの光分布が、透明度および艶を追加し、前記少なくとも1つの第1の出力効果が、艶効果を含む、請求項27に記載の方法。
- 前記事前定義された光分布を有する前記ヒストグラムの光分布が、きらめきを追加し、前記少なくとも1つの出力効果が、きらめき効果を含む、請求項27に記載の方法。
- 前記ステップ(d)および(e)を繰り返して、前記第1の画像に少なくとも1つの異なる出力効果を生み出し、前記第1の画像における前記少なくとも1つの異なる出力効果のうちの1つを有する各結果画像が、前記第1の結果画像と組み合わせられ、前記少なくとも1つの第1の出力効果と、前記第1の画像に対する前記少なくとも1つの異なる出力効果のそれぞれとを有する最終結果画像を提供する、請求項27に記載の方法。
- 前記方法が、さらに、ステップ(b)の後に、前記唇領域の面積を計算し、前記唇領域の面積を所定の比率で拡大して目標拡大ランドマークを提供し、前記少なくとも1つの第1の出力効果に加えて膨らみ出力効果を生み出すことと、前記膨らみ出力効果を前記少なくとも1つの第1の出力効果および前記第1の画像と組み合わせて歪ませ、前記唇に適用
された唇色、前記膨らみ出力効果および前記少なくとも1つの第1の出力効果を有する前記第1の結果画像を提供することとを含む、請求項27に記載の方法。 - 前記事前定義された光分布を有する前記ヒストグラムの光分布が、透明度および艶を追加し、前記少なくとも1つの第1の出力効果が、艶効果を含み、前記結果画像が、膨らんで艶のある外観を含む、請求項38に記載の方法。
- 顔を有する入力画像に対する出力効果を生成する方法であって、
(a)顔ランドマークを有するユーザの顔画像を提供することと、
(b)前記ユーザの顔画像から前記顔ランドマークを探索することであって、前記顔ランドマークが第2の領域を含み、前記第2の領域に関連付けられたランドマークが前記顔画像の目に関連付けられ、前記第2の領域が目領域を含む、探索することと、
(c)前記画像の前記目領域を少なくとも1つの第1のチャネルに分解し、前記目領域の光分布を検出および分析することと、
(d)前記少なくとも1つの第1のチャネルを、変化する光分布にわたってヒストグラムマッチングに供給し、前記目領域の前記光分布とは異なる事前定義された光分布を有するヒストグラムを特定することによって前記目に対して少なくとも1つの第2の出力効果を生成することと、
(e)第1の結果画像を第2の画像および前記少なくとも1つの第2の出力効果と組み合わせ、事前定義された唇色および目に対する少なくとも1つの第1の出力効果および前記少なくとも1つの第2の出力効果を有する第2の結果画像を提供することとを含む、方法。 - 化粧推薦システムであって、
変化する化粧スタイルを提供するための少なくとも1つの訓練されたニューラルネットワークモデルと、
化粧品データベースと、
化粧注釈システムとを備え、
前記化粧推薦システムが、前記注釈システムによって注釈付けされた前記少なくとも1つの訓練されたニューラルネットワーク内のデータおよび/または前記化粧品データベースからの推薦品に基づいて、ユーザへのパーソナライズされた段階的な化粧指示を生成することができ、前記ユーザの入力画像に基づいて前記ユーザに仮想化粧アプリケーションを段階的に表示することができる、化粧推薦システム。 - 前記少なくとも1つの訓練されたモデルが、深層学習フレームワークから導出される、請求項40に記載のシステム。
- 前記深層学習フレームワークが、
選択された化粧スタイルが適用された顔画像、および
前記化粧注釈システムからの出力グラウンドトゥルースデータ
を含むデータ入力を受信する、請求項41に記載のシステム。 - 前記注釈システムが、選択された化粧スタイルが適用された顔画像に注釈を付け、前記注釈付き顔画像が、前記ニューラルネットワークの訓練データを提供する、請求項40に記載のシステム。
- 前記化粧スタイルが、手動で選択されて注釈付けされる、請求項44に記載のシステム。
- 入力画像がユーザのビデオからのフレームである、請求項40に記載のシステム。
- さらに、少なくとも1つの仮想化粧チュートリアルを備える、請求項40に記載のシステム。
- 前記段階的な指示が、
(a)第1の種類の化粧用の第1の選択された色を表示することと、
(b)前記選択された色の化粧の種類を前記ユーザの顔の入力画像の対応する領域に仮想的に適用することとを含む、請求項40に記載のシステム。 - 前記ステップ(a)および(b)が、少なくとも1つのさらなる選択された色および少なくとも1つの第2の種類の化粧について繰り返され、前記推薦システムにおけるデータに基づいて前記ユーザの入力画像に対して所望の化粧外見を生み出す、請求項48に記載のシステム。
- さらに、前記入力画像の明るさを調整するシステムを備え、前記明るさを調整するシステムが、皮膚色推定器を使用して、前記ユーザの入力画像内の顔の正規化皮膚色を推定し、顔ランドマークを検出し、顔領域、画像中心領域および境界領域に対して異なる重み係数を割り当て、前記入力画像の平均明るさを計算し、前記平均明るさを前記推定された正規化皮膚色と比較して補正係数を生成し、前記補正係数に従って多項式変換を使用して前記入力画像に曲線変換を適用するように構成される、請求項40に記載のシステム。
- 仮想化粧の試用または除去方法に有用な入力画像の明るさを調整するシステムであって、
皮膚色推定器を使用してユーザの入力画像における顔の正規化皮膚色を推定するステップと、
顔ランドマークを検出し、重み係数を顔領域、画像中心領域および境界領域に割り当てるステップと、
前記入力画像の平均明るさを計算するステップと、
前記平均明るさを前記顔の前記推定された正規化皮膚色と比較して補正係数を生成するステップと、
前記補正係数に従って多項式変換を使用して曲線変換を前記入力画像に適用するステップとを実行するように構成されたソフトウェアを有する、システム。 - 較正色を提供するシステムであって、
デジタルカメラを有する装置から受信したユーザの入力画像に応じてカラーパッチを有する色参照チャートを自動的に検出するステップと、
前記カラーパッチのそれぞれの画素値を読み取るステップと、
前記色参照チャートからの検出された情報を、ゴールデン標準システムに基づいてキャプチャされた記憶された色参照チャートの画素値と比較するステップと、
前記入力画像が前記ゴールデン標準システムに合わせて変更されて色の一貫性を維持するように前記カメラの較正パラメータを制御システムに送信するステップとを実行するように構成されたシステム。 - 前記較正色を提供するシステムによって較正された色が、オブジェクトの色を判定し、製品の色を判定し、ユーザに適用される化粧品の色を判定し、色の変化を評価するために使用することができる、請求項52に記載のシステム。
- 仮想化粧チュートリアルを提供する方法であって、
1つ以上の既存の化粧ビデオからキーフレームを選択すること、および/または
選択されたキーフレームにおける製品名文字の検出、製品名を探索するための文字認識
の使用、または製品データベース内の製品を評価する訓練された製品分類器から導出された分類器による製品の探索によって既存の化粧ビデオにおける製品名を検出することと、
選択されたキーフレームからの化粧情報および化粧チュートリアル概要において検出された製品名を要約することと、
前記化粧チュートリアル概要に基づいて仮想化粧チュートリアルを生成することとを含む、方法。 - 前記キーフレームが、
前記1つ以上の既存の化粧ビデオからのビデオデータをセグメントに分割し、
フレームの相違、色ヒストグラムおよび/またはカメラの動きに基づいて一組の候補キーフレームを生成し、
一組の基準と前のフレームまたは後のフレームに対する異なる種類の化粧があるかどうかとに基づいて最終キーフレームを選択する
ことによって選択される、請求項54に記載の方法。 - 高速顔検出およびランドマーク追跡のための方法であって、
2次元カメラを使用して入力画像をキャプチャすることと、
異なるスケールの画像を使用して画像ピラミッドを作成することと、
スライディングウィンドウおよびサポートベクターマシンを使用して勾配のヒストグラム特徴を適用して前記画像ピラミッドの画像上で顔の境界ボックスを見つけることと、
グローバル学習降下正規化モデルに基づく1つ以上の顔のランドマーク検出器を使用して、顔が存在する場合に前記境界ボックス内の前記顔を検出することとを含む、方法。 - さらに、パッチを抽出し、ランドマーク平均シフトフィッティングを前記画像に適用してランドマークデータを平滑化し、前記画像ピラミッドにわたるランドマーク位置を正規化することと、3層ニューラルネットワークモデルを正確性検証モデルとして適用して誤形状をフィルタリングし、最終ランドマークを関連付けて選択することとを含む、請求項56に記載の方法。
- 前記ニューラルネットワークの3層が、畳み込み層、アップサンプル層およびマッピング層である、請求項57に記載の方法。
- さらに、点分布モデルを使用してグラウンドトゥルースデータセットからノイズをフィルタリングしてランドマークビデオをより安定にすることを含む、高速移動に関連付けられた遅延を減らし、移動不足に関連付けられた揺れを減らすステップを含む、請求項56に記載の方法。
- 顔画像から唇領域を抽出する方法であって、
(a)入力顔画像上の顔ランドマークを使用して顔領域を探索することと、
(b)前記ランドマークを使用して前記顔領域を取得して非顔背景を除去することと、
(c)各画素がL*a*b*空間における色値を有するL*a*b*空間を使用して顔色に基づくガウス混合モデルを前記入力顔画像の下部に適用し、前記入力顔画像の一部における各画素の確率を計算して基準閾値以上であるかどうかを判定し、前記顔領域が検出される前記顔画像の一部における皮膚領域の確率マップを生成することと、
(d)前記確率顔マップから初期顔領域バイナリ画像を生成することと、
(e)反復法を使用して前記基準閾値を調整し、改良バイナリ画像を判定することと、
(f)事前に決定された基準に基づいて各反復において前記改良バイナリ画像を評価し、前記改良バイナリ画像を使用して前記顔領域を検出することとを含む、方法。 - 前記ガウス混合モデルが3つの成分を有する、請求項60に記載の方法。
- 前記閾値が、配列を使用してオフセットによって調整され、前記基準閾値を繰り返し改良する、請求項60に記載の方法。
- 前記事前に決定された基準が、前記顔領域の周りの外部矩形の幅と高さの比、前記顔領域の面積と前記外部矩形の面積との比、および前記顔領域の面積と前記顔画像の一部の面積との比のうちの1つ以上を含む、請求項60に記載の方法。
- 前記顔領域が、唇領域であり、前記顔画像の一部が、前記顔画像の下部である、請求項60に記載の方法。
- さらに、改良ガウス混合モデルにおける前記初期顔領域および前記非顔領域の画素のL*a*b*色空間色を使用することと、前記初期顔領域および前記非顔領域の確率マップを計算することと、前記顔領域の検出に使用する前記ガウス混合モデルを使用して全体的な確率マップを作成することとを含む、請求項60に記載の方法。
- さらに、エッジ検出および輪郭化を使用して前記全体的な確率マップを平滑化することを含む、請求項65に記載の方法。
- 顔画像に目化粧アドオン効果を仮想的に提供する方法であって、
(a)目の少なくとも1つの目化粧特徴のテンプレートを作成し、前記目化粧特徴に関連する前記テンプレート上のランドマーク地点に手動で注釈を付け、前記ランドマーク地点の場所をテキストファイルとして保存することと、
(b)画像フレームのランドマーク検出器を使用して顔画像の目領域のランドマークを抽出することと、
(c)前記画像の前記目領域をトリミングして、前記テンプレートの前記目化粧特徴に関連する前記ランドマークに基づいて画像フレームを作成することと、
(d)前記画像フレームの前記目領域上の前記検出された抽出ランドマークから前記目領域の周りの線形補間によって地点を生成することと、
(e)前記テンプレートの注釈付きランドマークに基づいて前記テンプレートの周りの地点を生成することと、
(f)順方向歪みにより前記テンプレートを前記画像フレームに適用し、前記適用されたテンプレートから前記目化粧特徴を有する目領域画像フレームを作成することと、
(g)前記目領域画像フレームを元の顔画像にトリミングして戻し、前記目化粧特徴を有する顔画像を作成することとを含む、方法。 - 前記目化粧特徴が、アイシャドウ特徴、ミドルアイシャドウ特徴、アイシャドウテール特徴、アイシャドウコーナー特徴およびまつげ特徴から選択される、請求項67に記載の方法。
- ステップ(a)が、アイシャドウ特徴、ミドルアイシャドウ特徴、アイシャドウテール特徴、アイシャドウコーナー特徴およびまつげ特徴のそれぞれについてテンプレートを作成することを含み、前記方法が、さらに、前記テンプレートにおける前記目特徴のうちの2つ以上について顔画像に対してステップ(b)から(g)を繰り返すことと、前記顔画像における2つ以上の特徴を組み合わせて合成目化粧外見を作成することとを含む、請求項68に記載の方法。
- 顔画像に口紅テクスチャを仮想的に提供する方法であって、
深層畳み込みニューラルネットワーク構造を有する訓練モジュールを備えるテクスチャシミュレータを提供することと、
前処理モジュールにおいて入力唇領域を処理し、所望の口紅色のL*a*b*色空間の輝度チャネルと重み付きカバレッジ係数とを使用して前記所望の口紅色および輝度向上を有するように前記入力唇領域を変更して輝度分布とシミュレートされた動的テクスチャとを有するLチャネル画像を作成し、a*チャネルおよびb*チャネルについて入力画像をRGBからL*a*b*空間色に処理することと、
前記前処理モジュールから、訓練モジュールを使用して画像データセットに対して訓練されたモノチャネルスタイル移行モジュールに前記Lチャネル画像を供給し、前記データセットにおける参照スタイル画像に基づいて合成色およびテクスチャを有する合成Lチャネル画像を作成することと、
動的テクスチャシミュレーションを有する前記合成Lチャネル画像と、RGB変換のための前記前処理モジュールからのa*チャネル画像およびb*チャネル画像とを、RGB変換のための後処理モジュールにおいてさらに処理することとを含む、方法。 - 入力画像を使用した仮想化粧除去および仮想化粧適用のためのシステムであって、
ユーザインターフェースから化粧が適用された入力画像を受信し、
少なくとも第1の領域および/または前記第1の領域とは異なる第2の領域においてユーザの顔画像から顔ランドマークを探索することであって、前記第1の領域が化粧を含みおよび/または前記第2の領域が化粧を含む、探索することと、
前記第1の領域が探索された場合、前記顔画像の前記第1の領域を第1のチャネルに分解し、それぞれ化粧を有しない顔のヒストグラムのデータセットから参照ヒストグラムを使用して前記第1の領域の前記第1のチャネルをヒストグラムマッチングに供給し、前記第1の領域において化粧が除去された第1の画像を取得し、および/または前記第2の領域が探索された場合、前記顔画像の前記第2の領域をカラーチャネルに変換し、異なる照明条件下でのヒストグラムマッチングに前記カラーチャネルを供給し、それぞれ化粧を有しない異なる照明条件下での顔のヒストグラムのデータセットからの参照ヒストグラムを使用して前記第2の領域において化粧が除去された第2の画像を取得することと、
前記第1の領域および前記第2の領域の両方が探索された場合、前記第1の画像および前記第2の画像を組み合わせて、前記第1の領域および前記第2の領域から化粧が除去された結果顔画像を形成することと、
前記化粧が除去された前記結果顔画像の前記第1の領域に対して所定種類の化粧を仮想的に適用し、および/または前記化粧が除去された前記結果顔画像の前記第2の領域に対して第2の種類の化粧を適用することと、を行うことができるように構成される、システム。 - 前記第1の種類の化粧が、仮想化粧アドオンであり、前記第2の種類の化粧が、仮想口紅である、請求項71に記載のシステム。
- 前記システムが、さらに、前記第1の種類の化粧および/または前記第2の種類の化粧に出力終了効果を提供することができる、請求項72に記載のシステム。
- 前記システムが、さらに、前記第2の種類の化粧にシミュレートされたテクスチャを提供することができる、請求項73に記載のシステム。
- 入力画像を使用した仮想化粧除去および仮想化粧適用のための方法であって、
ユーザインターフェースから化粧が適用された入力画像を受信することと、
少なくとも第1の領域および/または前記第1の領域とは異なる第2の領域においてユーザの顔画像から顔ランドマークを探索することであって、前記第1の領域が化粧を含みおよび/または前記第2の領域が化粧を含む、探索することと、
前記第1の領域が探索された場合、前記顔画像の前記第1の領域を第1のチャネルに分解し、それぞれ化粧を有しない顔のヒストグラムのデータセットから参照ヒストグラムを
使用して前記第1の領域の前記第1のチャネルをヒストグラムマッチングに供給し、前記第1の領域において化粧が除去された第1の画像を取得し、および/または前記第2の領域が探索された場合、前記顔画像の前記第2の領域をカラーチャネルに変換し、異なる照明条件下でのヒストグラムマッチングに前記カラーチャネルを供給し、それぞれ化粧を有しない異なる照明条件下での顔のヒストグラムのデータセットからの参照ヒストグラムを使用して前記第2の領域において化粧が除去された第2の画像を取得することと、
前記第1の領域および前記第2の領域の両方が探索された場合、前記第1の画像および前記第2の画像を組み合わせて、前記第1の領域および前記第2の領域から化粧が除去された結果顔画像を形成することと、
前記化粧が除去された前記結果顔画像の前記第1の領域に対して所定種類の化粧を仮想的に適用し、および/または前記化粧が除去された前記結果顔画像の前記第2の領域に対して第2の種類の化粧を適用することとを含む、方法。 - 前記第1の種類の化粧が、仮想化粧アドオンであり、前記第2の種類の化粧が、仮想口紅である、請求項75に記載の方法。
- 前記システムが、さらに、前記第1の種類の化粧および/または前記第2の種類の化粧に出力終了効果を提供することができる、請求項75に記載の方法。
- 前記システムが、さらに、前記第2の種類の化粧にシミュレートされたテクスチャを提供することができる、請求項77に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024098425A JP2024120013A (ja) | 2017-07-13 | 2024-06-19 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762531929P | 2017-07-13 | 2017-07-13 | |
US62/531,929 | 2017-07-13 | ||
PCT/US2018/042175 WO2019014646A1 (en) | 2017-07-13 | 2018-07-13 | REMOVAL OF VIRTUAL FACIAL MAKE-UP, FAST FACIAL DETECTION AND TRACK POINT TRACKING |
JP2019566775A JP7200139B2 (ja) | 2017-07-13 | 2018-07-13 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019566775A Division JP7200139B2 (ja) | 2017-07-13 | 2018-07-13 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024098425A Division JP2024120013A (ja) | 2017-07-13 | 2024-06-19 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023036784A true JP2023036784A (ja) | 2023-03-14 |
Family
ID=64999954
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019566775A Active JP7200139B2 (ja) | 2017-07-13 | 2018-07-13 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
JP2022204236A Pending JP2023036784A (ja) | 2017-07-13 | 2022-12-21 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
JP2024098425A Pending JP2024120013A (ja) | 2017-07-13 | 2024-06-19 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019566775A Active JP7200139B2 (ja) | 2017-07-13 | 2018-07-13 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024098425A Pending JP2024120013A (ja) | 2017-07-13 | 2024-06-19 | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 |
Country Status (7)
Country | Link |
---|---|
US (5) | US10939742B2 (ja) |
EP (1) | EP3652701A4 (ja) |
JP (3) | JP7200139B2 (ja) |
KR (1) | KR20200026808A (ja) |
CN (1) | CN111066060B (ja) |
TW (1) | TW201931179A (ja) |
WO (1) | WO2019014646A1 (ja) |
Families Citing this family (123)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9544598B2 (en) | 2010-09-10 | 2017-01-10 | Thomson Licensing | Methods and apparatus for pruning decision optimization in example-based data pruning compression |
WO2019010134A1 (en) | 2017-07-03 | 2019-01-10 | Hunsmann Margrit Sieglinde | COLOR MOTOR |
TW201931179A (zh) | 2017-07-13 | 2019-08-01 | 美商美國資生堂公司 | 用於虛擬面部化妝之移除與模擬、快速面部偵測及標記追蹤、降低輸入視訊之延遲及振動的系統與方法,以及用於建議化妝之方法 |
US11410400B2 (en) | 2017-12-29 | 2022-08-09 | Pcms Holdings, Inc. | Method and system for maintaining color calibration using common objects |
US10755447B2 (en) * | 2018-04-19 | 2020-08-25 | Adobe Inc. | Makeup identification using deep learning |
JP7135472B2 (ja) * | 2018-06-11 | 2022-09-13 | カシオ計算機株式会社 | 表示制御装置、表示制御方法及び表示制御プログラム |
US10571799B1 (en) * | 2018-08-27 | 2020-02-25 | Asml Us, Llc | Hessian-free calculation of product of Hessian matrix and vector for lithography optimization |
US10685470B2 (en) * | 2018-09-12 | 2020-06-16 | Adobe Inc. | Generating and providing composition effect tutorials for creating and editing digital content |
US11940978B2 (en) * | 2018-09-19 | 2024-03-26 | International Business Machines Corporation | Distributed platform for computation and trusted validation |
US11032063B2 (en) | 2018-09-19 | 2021-06-08 | International Business Machines Corporation | Distributed platform for computation and trusted validation |
JP6949795B2 (ja) * | 2018-09-25 | 2021-10-13 | 富士フイルム株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
US11803974B2 (en) * | 2018-10-05 | 2023-10-31 | The Trustees Of Princeton University | Automated system to measure multi-animal body part dynamics |
JP7412348B2 (ja) * | 2018-10-29 | 2024-01-12 | サターン ライセンシング エルエルシー | 表示装置、及び表示制御方法 |
US10846518B2 (en) * | 2018-11-28 | 2020-11-24 | National Yunlin University Of Science And Technology | Facial stroking detection method and system thereof |
US10664642B1 (en) * | 2018-11-30 | 2020-05-26 | International Business Machines Corporation | Constructing via meshes for high performance routing on silicon chips |
US11908234B2 (en) * | 2018-11-30 | 2024-02-20 | Interdigital Vc Holdings, Inc. | Method and apparatus to estimate scene illuminant based on skin reflectance database |
US11961224B2 (en) * | 2019-01-04 | 2024-04-16 | Stella Surgical | Device for the qualitative evaluation of human organs |
CN109784281A (zh) * | 2019-01-18 | 2019-05-21 | 深圳壹账通智能科技有限公司 | 基于人脸特征的产品推荐方法、装置及计算机设备 |
CN111582005B (zh) * | 2019-02-18 | 2023-08-15 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
US10949649B2 (en) * | 2019-02-22 | 2021-03-16 | Image Metrics, Ltd. | Real-time tracking of facial features in unconstrained video |
KR20200106113A (ko) * | 2019-02-26 | 2020-09-11 | 주식회사 틸투원 | 컨볼루션 뉴럴 네트워크 모델을 이용한 이미지의 원색 복원 장치 및 방법 |
CN109961488A (zh) * | 2019-03-25 | 2019-07-02 | 中国银联股份有限公司 | 一种实物图像生成方法及装置 |
US11182963B2 (en) * | 2019-04-03 | 2021-11-23 | Posnap, Inc. | Computerized system and method for providing a mobile augmented reality item display and selection experience |
JP7417631B2 (ja) * | 2019-04-23 | 2024-01-18 | ロレアル | 畳み込みニューラルネットワークベースのランドマークトラッカ |
US11218668B2 (en) * | 2019-05-09 | 2022-01-04 | Present Communications, Inc. | Video conferencing method |
US11902708B2 (en) * | 2019-05-09 | 2024-02-13 | Present Communications, Inc. | Method for generating a synthetic skin model |
US11069094B1 (en) * | 2019-05-13 | 2021-07-20 | Facebook, Inc. | Generating realistic makeup in a digital video stream |
CN110223218B (zh) * | 2019-05-16 | 2024-01-12 | 北京达佳互联信息技术有限公司 | 人脸图像处理方法、装置、电子设备及存储介质 |
CN110363704B (zh) * | 2019-05-29 | 2023-01-03 | 西北大学 | 融合形态及色彩的图像超分辨率重建模型构建及重建方法 |
CN113924603A (zh) * | 2019-06-11 | 2022-01-11 | Oppo广东移动通信有限公司 | 使用面部组分特定局部细化于面部界标检测的方法及系统 |
US11348334B1 (en) * | 2019-06-30 | 2022-05-31 | George Douglas MacEwen | Methods and systems for skin color matching using an imaging device and a controlled light source |
US11191342B2 (en) * | 2019-07-18 | 2021-12-07 | L'oreal | Techniques for identifying skin color in images having uncontrolled lighting conditions |
WO2021031147A1 (en) * | 2019-08-21 | 2021-02-25 | L'oreal | Computing device, method and apparatus for recommending at least one of makeup palette or hair coloration scheme |
US11488359B2 (en) | 2019-08-28 | 2022-11-01 | Snap Inc. | Providing 3D data for messages in a messaging system |
US11457196B2 (en) | 2019-08-28 | 2022-09-27 | Snap Inc. | Effects for 3D data in a messaging system |
KR102624635B1 (ko) * | 2019-08-28 | 2024-01-15 | 스냅 인코포레이티드 | 메시징 시스템에서의 3d 데이터 생성 |
CN110619598B (zh) * | 2019-09-03 | 2023-04-18 | 云南白药集团健康产品有限公司 | 一种图像处理方法、装置及系统 |
JP2021043797A (ja) * | 2019-09-12 | 2021-03-18 | フリュー株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
US11323627B2 (en) | 2019-09-12 | 2022-05-03 | Samsung Electronics Co., Ltd. | Method and electronic device for applying beauty effect setting |
CN110689479B (zh) * | 2019-09-26 | 2023-05-30 | 北京达佳互联信息技术有限公司 | 一种人脸上妆方法、装置、设备及介质 |
EP3971820A4 (en) | 2019-09-30 | 2022-08-10 | Beijing Sensetime Technology Development Co., Ltd. | IMAGE PROCESSING METHOD, DEVICE AND ELECTRONIC DEVICE |
CN110728620A (zh) * | 2019-09-30 | 2020-01-24 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置和电子设备 |
CN112733570B (zh) * | 2019-10-14 | 2024-04-30 | 北京眼神智能科技有限公司 | 眼镜检测的方法、装置、电子设备及存储介质 |
CN110796593A (zh) * | 2019-10-15 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置、介质及电子设备 |
CN110895809B (zh) * | 2019-10-18 | 2022-07-15 | 中国科学技术大学 | 准确提取髋关节影像中关键点的方法 |
CN110738654B (zh) * | 2019-10-18 | 2022-07-15 | 中国科学技术大学 | 髋关节影像中的关键点提取及骨龄预测方法 |
US11030782B2 (en) * | 2019-11-09 | 2021-06-08 | Adobe Inc. | Accurately generating virtual try-on images utilizing a unified neural network framework |
CN111091610B (zh) * | 2019-11-22 | 2023-04-11 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
US11403788B2 (en) | 2019-11-22 | 2022-08-02 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method and apparatus, electronic device, and storage medium |
CN111062260B (zh) * | 2019-11-25 | 2024-03-05 | 杭州绿度信息技术有限公司 | 一种面部整容推荐方案自动生成方法 |
CN110956595B (zh) * | 2019-11-29 | 2023-11-24 | 广州酷狗计算机科技有限公司 | 一种人脸美型处理的方法、装置、系统及存储介质 |
US20210182950A1 (en) * | 2019-12-16 | 2021-06-17 | Myntra Designs Private Limited | System and method for transforming images of retail items |
US11216922B2 (en) | 2019-12-17 | 2022-01-04 | Capital One Services, Llc | Systems and methods for recognition of user-provided images |
CN112991147B (zh) * | 2019-12-18 | 2023-10-27 | 抖音视界有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
JP2021114111A (ja) * | 2020-01-17 | 2021-08-05 | Necソリューションイノベータ株式会社 | 撮像支援装置、撮像支援方法、及びプログラム |
EP4049235A4 (en) * | 2020-01-23 | 2023-01-11 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND ELECTRONIC DEVICE CONTROL METHOD |
US11922540B2 (en) | 2020-02-14 | 2024-03-05 | Perfect Mobile Corp. | Systems and methods for segment-based virtual application of facial effects to facial regions displayed in video frames |
US11404086B2 (en) | 2020-02-14 | 2022-08-02 | Perfect Mobile Corp. | Systems and methods for segment-based virtual application of makeup effects to facial regions displayed in video frames |
US11508148B2 (en) * | 2020-03-18 | 2022-11-22 | Adobe Inc. | Automatic makeup transfer using semi-supervised learning |
CN111345803B (zh) * | 2020-03-20 | 2022-04-12 | 浙江大学城市学院 | 一种基于移动设备摄像头的心率变异性测量方法 |
US11676354B2 (en) | 2020-03-31 | 2023-06-13 | Snap Inc. | Augmented reality beauty product tutorials |
CN115699130A (zh) * | 2020-03-31 | 2023-02-03 | 斯纳普公司 | 增强现实美容产品教程 |
US11521334B2 (en) | 2020-04-01 | 2022-12-06 | Snap Inc. | Augmented reality experiences of color palettes in a messaging system |
CN113496459A (zh) * | 2020-04-01 | 2021-10-12 | 华为技术有限公司 | 辅助化妆方法、终端设备、存储介质及程序产品 |
US11915305B2 (en) | 2020-04-01 | 2024-02-27 | Snap Inc. | Identification of physical products for augmented reality experiences in a messaging system |
CN111612687B (zh) * | 2020-04-22 | 2023-04-18 | 杭州电子科技大学 | 一种人脸图像自动上妆方法 |
CN111523473B (zh) * | 2020-04-23 | 2023-09-26 | 北京百度网讯科技有限公司 | 口罩佩戴识别方法、装置、设备和可读存储介质 |
KR20210070377A (ko) * | 2020-04-29 | 2021-06-14 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 이미지 처리 방법 및 장치 |
CN111586428A (zh) * | 2020-04-30 | 2020-08-25 | 永康精信软件开发有限公司 | 具有虚拟人物上妆功能的化妆品直播系统及方法 |
CN111640057B (zh) * | 2020-05-25 | 2022-04-15 | 武汉理工大学 | 基于隐藏变量解耦的人脸图像局部特征迁移网络及方法 |
KR102503711B1 (ko) * | 2020-05-26 | 2023-02-24 | 문명일 | 데이터베이스 연동 얼굴 분석 시스템 및 그것의 화면 표시 제어 방법 |
CN111601129B (zh) * | 2020-06-05 | 2022-04-01 | 北京字节跳动网络技术有限公司 | 控制方法、装置、终端及存储介质 |
KR102223753B1 (ko) * | 2020-06-05 | 2021-03-05 | 주식회사 픽스트리 | 얼굴 이미지 개선 방법 및 장치 |
US11423652B2 (en) | 2020-06-10 | 2022-08-23 | Snap Inc. | Adding beauty products to augmented reality tutorials |
US11580682B1 (en) * | 2020-06-30 | 2023-02-14 | Snap Inc. | Messaging system with augmented reality makeup |
JP7499362B2 (ja) * | 2020-06-30 | 2024-06-13 | ロレアル | パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法 |
FR3115146B1 (fr) * | 2020-10-14 | 2022-10-28 | Oreal | systeme et procédé d'essayage de maquillage virtuel précis et personnalisé |
CN111815533B (zh) * | 2020-07-14 | 2024-01-19 | 厦门美图之家科技有限公司 | 妆容处理方法、装置、电子设备和可读存储介质 |
TWI768478B (zh) * | 2020-09-25 | 2022-06-21 | 宏碁股份有限公司 | 適應性調用外部硬體資源的方法 |
KR102416554B1 (ko) * | 2020-10-08 | 2022-07-05 | 주식회사 써머캣 | 이미지에 포함된 얼굴 윤곽을 보정하기 위한 장치 및 이의 작동 방법 |
US11361515B2 (en) * | 2020-10-18 | 2022-06-14 | International Business Machines Corporation | Automated generation of self-guided augmented reality session plans from remotely-guided augmented reality sessions |
BR102020022162A2 (pt) * | 2020-10-29 | 2022-05-10 | Botica Comercial Farmacêutica Ltda. | Método de detecção e segmentação da região labial |
CN112308769B (zh) * | 2020-10-30 | 2022-06-10 | 北京字跳网络技术有限公司 | 图像合成方法、设备及存储介质 |
WO2022098087A1 (ko) * | 2020-11-03 | 2022-05-12 | 주식회사 메디트 | 데이터 처리 장치 및 데이터 처리 방법 |
KR102395083B1 (ko) * | 2020-11-18 | 2022-05-10 | 주식회사 에스알유니버스 | 인공지능을 활용한 가상 얼굴 생성 방법 및 장치 |
US12079306B2 (en) * | 2020-11-20 | 2024-09-03 | Mediatek Inc. | Methods and apparatuses of contrastive learning for color constancy |
KR20220073444A (ko) | 2020-11-26 | 2022-06-03 | 삼성전자주식회사 | 오브젝트 추적 방법, 장치 및 그 방법을 수행하는 단말기 |
WO2022120202A1 (en) * | 2020-12-04 | 2022-06-09 | Skin Posi Inc. | Systems and methods to order cosmetic products in a skincare routine to maximize product efficacy |
CN112651322B (zh) * | 2020-12-22 | 2024-05-24 | 北京眼神智能科技有限公司 | 脸颊遮挡检测方法、装置及电子设备 |
US11659193B2 (en) * | 2021-01-06 | 2023-05-23 | Tencent America LLC | Framework for video conferencing based on face restoration |
CN112750531A (zh) * | 2021-01-21 | 2021-05-04 | 广东工业大学 | 一种中医自动化望诊系统、方法、设备和介质 |
CN112767285B (zh) * | 2021-02-23 | 2023-03-10 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
KR20230147649A (ko) * | 2021-02-23 | 2023-10-23 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | 이미지 처리 방법, 장치, 전자 기기 및 기억 매체 |
CN112766234B (zh) * | 2021-02-23 | 2023-05-12 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN112819017B (zh) * | 2021-03-09 | 2022-08-16 | 遵义师范学院 | 基于直方图的高精度色偏图像识别方法 |
WO2022195323A1 (en) * | 2021-03-15 | 2022-09-22 | One Game Studio S.A.P.I De C.V. | System and method to interpret a surround of a user to generate an augmented reality environment |
CN113298936B (zh) * | 2021-06-01 | 2022-04-29 | 浙江大学 | 一种基于深度学习的多rgb-d全脸材质恢复方法 |
CN113362422B (zh) * | 2021-06-08 | 2022-07-05 | 武汉理工大学 | 一种阴影鲁棒的基于解耦表示的妆容迁移系统及方法 |
CN113435443B (zh) * | 2021-06-28 | 2023-04-18 | 中国兵器装备集团自动化研究所有限公司 | 一种从视频中自动识别地标的方法 |
CN113313811B (zh) * | 2021-06-29 | 2024-06-28 | 完美世界(北京)软件科技发展有限公司 | 一种光照处理方法、装置、电子设备及存储介质 |
CN113449657B (zh) * | 2021-07-05 | 2022-08-30 | 中山大学 | 一种基于人脸关键点的深度伪造人脸视频检测方法、系统及介质 |
US11373059B2 (en) * | 2021-07-23 | 2022-06-28 | MIME, Inc. | Color image analysis for makeup color prediction model |
CN113592880A (zh) * | 2021-07-30 | 2021-11-02 | 复旦大学 | 一种基于高斯混合模型的唇部分割方法 |
KR102377222B1 (ko) * | 2021-08-13 | 2022-03-23 | 주식회사 에이아이네이션 | 다각도 이미지 인식 처리 기술을 활용한 인공지능 가상 화장 방법 및 장치 |
CN113837020B (zh) * | 2021-08-31 | 2024-02-02 | 北京新氧科技有限公司 | 一种化妆进度检测方法、装置、设备及存储介质 |
CN113837017B (zh) * | 2021-08-31 | 2022-11-04 | 北京新氧科技有限公司 | 一种化妆进度检测方法、装置、设备及存储介质 |
CN115731142A (zh) * | 2021-08-31 | 2023-03-03 | 北京新氧科技有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN115829827A (zh) * | 2021-09-16 | 2023-03-21 | 北京字跳网络技术有限公司 | 人脸图像处理方法、装置、设备及介质 |
WO2023069086A1 (en) * | 2021-10-20 | 2023-04-27 | Innopeak Technology, Inc. | System and method for dynamic portrait relighting |
US11995757B2 (en) | 2021-10-29 | 2024-05-28 | Snap Inc. | Customized animation from video |
US12020358B2 (en) * | 2021-10-29 | 2024-06-25 | Snap Inc. | Animated custom sticker creation |
CN114220172A (zh) * | 2021-12-16 | 2022-03-22 | 云知声智能科技股份有限公司 | 一种唇动识别的方法、装置、电子设备和存储介质 |
CN116484932B (zh) * | 2022-01-14 | 2024-09-06 | 腾讯科技(深圳)有限公司 | 妆容迁移模型的训练方法、装置及妆容迁移方法、装置 |
JP7308318B1 (ja) | 2022-03-04 | 2023-07-13 | 株式会社Zozo | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7308317B1 (ja) | 2022-03-04 | 2023-07-13 | 株式会社Zozo | 情報処理装置、情報処理方法及び情報処理プログラム |
US20230289930A1 (en) * | 2022-03-10 | 2023-09-14 | Samsung Electronics Company, Ltd. | Systems and Methods for Lightweight Machine Learning for Image Illumination Control |
CN114663552B (zh) * | 2022-05-25 | 2022-08-16 | 武汉纺织大学 | 一种基于2d图像的虚拟试衣方法 |
CN115243033A (zh) * | 2022-06-30 | 2022-10-25 | 东莞华贝电子科技有限公司 | 一种偏色检测方法、装置、电子设备和存储介质 |
KR102515436B1 (ko) * | 2022-08-01 | 2023-03-29 | 주식회사 어썸커머스 | 인공지능 기반 얼굴 메이크업 처리 방법, 장치 및 시스템 |
TWI835238B (zh) * | 2022-08-05 | 2024-03-11 | 瑞昱半導體股份有限公司 | 影像處理方法及影像處理裝置 |
WO2024050760A1 (en) * | 2022-09-08 | 2024-03-14 | Intel Corporation | Image processing with face mask detection |
CN118132842B (zh) * | 2024-03-07 | 2024-09-03 | 浙江百姿化妆品股份有限公司 | 一种基于物联网的口红配色选择分析系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004283357A (ja) * | 2003-03-20 | 2004-10-14 | Kao Corp | 肌のシミュレーション画像の形成方法 |
JP2012190287A (ja) * | 2011-03-10 | 2012-10-04 | Omron Corp | 画像処理装置、画像処理方法、および制御プログラム |
Family Cites Families (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW511040B (en) | 1999-07-07 | 2002-11-21 | Fd Man Inc | Color cosmetic selection system |
FR2799022B1 (fr) | 1999-09-29 | 2002-02-01 | Oreal | Dispositif d'aide au maquillage et ensemble constitue d'un tel dispositif et d'un dispositif permettant de delivrer un produit ayant une brdf predeterminee, selectionne par le dispositif d'aide au maquillage |
AU4521201A (en) | 1999-12-10 | 2001-06-25 | Jerry W. Lennon | Customer image capture and use thereof in a retailing system |
FR2802679B1 (fr) | 1999-12-21 | 2002-02-08 | Oreal | Systeme et procede d'analyse et de simulation previsionnelle de l'evolution d'une zone pileuse, et plus particulierement du cuir chevelu humain |
US10755286B2 (en) | 2000-08-24 | 2020-08-25 | Facecake Marketing Technologies, Inc. | Targeted marketing system and method |
US7337127B1 (en) | 2000-08-24 | 2008-02-26 | Facecake Marketing Technologies, Inc. | Targeted marketing system and method |
US9064344B2 (en) | 2009-03-01 | 2015-06-23 | Facecake Technologies, Inc. | Image transformation systems and methods |
JP2002131135A (ja) | 2000-10-20 | 2002-05-09 | Kao Corp | 基準色票およびメイクシミュレーション装置 |
US7437344B2 (en) | 2001-10-01 | 2008-10-14 | L'oreal S.A. | Use of artificial intelligence in providing beauty advice |
US7324668B2 (en) | 2001-10-01 | 2008-01-29 | L'oreal S.A. | Feature extraction in beauty analysis |
US6761697B2 (en) | 2001-10-01 | 2004-07-13 | L'oreal Sa | Methods and systems for predicting and/or tracking changes in external body conditions |
US7634103B2 (en) | 2001-10-01 | 2009-12-15 | L'oreal S.A. | Analysis using a three-dimensional facial image |
JP2003187230A (ja) * | 2001-12-14 | 2003-07-04 | Kao Corp | 撮影画像処理装置および化粧シミュレーション装置 |
JP3993029B2 (ja) * | 2002-06-24 | 2007-10-17 | デジタルファッション株式会社 | 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム及びそのプログラムを記録した記録媒体 |
US7773091B2 (en) | 2004-09-07 | 2010-08-10 | L'oreal | Method and device for generating a synthesized image of at least one fringe of lashes |
WO2006034256A2 (en) * | 2004-09-17 | 2006-03-30 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US7948481B2 (en) | 2005-03-01 | 2011-05-24 | Nissi Vilcovsky | Devices, systems and methods of capturing and displaying appearances |
JP2006254309A (ja) | 2005-03-14 | 2006-09-21 | Fuji Photo Film Co Ltd | 撮影システム |
FR2883395B1 (fr) * | 2005-03-16 | 2007-06-01 | Marie Anne Senckeisen | Procede d'assistance au maquillage en temps reel et son dispositif de mise en oeuvre |
US7319467B2 (en) | 2005-03-29 | 2008-01-15 | Mitsubishi Electric Research Laboratories, Inc. | Skin reflectance model for representing and rendering faces |
KR101363691B1 (ko) * | 2006-01-17 | 2014-02-14 | 가부시키가이샤 시세이도 | 메이크업 시뮬레이션 시스템, 메이크업 시뮬레이션 장치,메이크업 시뮬레이션 방법 및 메이크업 시뮬레이션프로그램 |
US7634108B2 (en) | 2006-02-14 | 2009-12-15 | Microsoft Corp. | Automated face enhancement |
JP4753025B2 (ja) | 2006-03-22 | 2011-08-17 | 花王株式会社 | メイクアップシミュレーション方法 |
US8660319B2 (en) | 2006-05-05 | 2014-02-25 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
US8620038B2 (en) | 2006-05-05 | 2013-12-31 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
GB2451050B (en) | 2006-05-05 | 2011-08-31 | Parham Aarabi | Method, system and computer program product for automatic and semiautomatic modification of digital images of faces |
CN101668451B (zh) | 2007-03-08 | 2012-05-30 | 惠普开发有限公司 | 用于基于从图像估计的皮肤色彩推荐产品的方法和系统 |
JP2009064423A (ja) * | 2007-08-10 | 2009-03-26 | Shiseido Co Ltd | メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム |
US20090234716A1 (en) | 2008-03-17 | 2009-09-17 | Photometria, Inc. | Method of monetizing online personal beauty product selections |
US8005270B2 (en) | 2008-04-11 | 2011-08-23 | Youdocs Llc | System and method for determining an objective measure of human beauty |
US20090290791A1 (en) * | 2008-05-20 | 2009-11-26 | Holub Alex David | Automatic tracking of people and bodies in video |
CA2651539C (en) | 2008-07-18 | 2016-07-05 | Modiface Inc. | Method and apparatus for hair colour simulation |
JP2010086036A (ja) | 2008-09-29 | 2010-04-15 | Fujifilm Corp | 診断装置及び診断方法 |
US8725560B2 (en) | 2009-02-02 | 2014-05-13 | Modiface Inc. | Method and system for simulated product evaluation via personalizing advertisements based on portrait images |
US9965778B2 (en) | 2009-02-02 | 2018-05-08 | Modiface Inc. | System and method for the indication of modification region boundaries on facial images |
JP2010211308A (ja) * | 2009-03-06 | 2010-09-24 | Fujifilm Corp | メイクアップアドバイス装置、メイクアップアドバイス方法及びプログラム |
US8823934B2 (en) | 2009-03-27 | 2014-09-02 | Brightex Bio-Photonics Llc | Methods and systems for imaging and modeling skin using polarized lighting |
JP5544764B2 (ja) * | 2009-06-09 | 2014-07-09 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8498456B2 (en) | 2009-07-13 | 2013-07-30 | Stylecaster, Inc. | Method and system for applying cosmetic and/or accessorial enhancements to digital images |
US8550818B2 (en) | 2010-05-21 | 2013-10-08 | Photometria, Inc. | System and method for providing and modifying a personalized face chart |
JP4760999B1 (ja) | 2010-10-29 | 2011-08-31 | オムロン株式会社 | 画像処理装置、画像処理方法、および制御プログラム |
US8711175B2 (en) | 2010-11-24 | 2014-04-29 | Modiface Inc. | Method and system for simulating superimposition of a non-linearly stretchable object upon a base object using representative images |
JP5656603B2 (ja) | 2010-12-14 | 2015-01-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびそのプログラム |
KR101733512B1 (ko) * | 2010-12-22 | 2017-05-10 | 에스케이플래닛 주식회사 | 얼굴 특징 기반의 가상 체험 시스템 및 그 방법 |
JP2012181688A (ja) | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
US8478077B2 (en) | 2011-03-20 | 2013-07-02 | General Electric Company | Optimal gradient pursuit for image alignment |
KR101850527B1 (ko) | 2011-03-25 | 2018-04-19 | 삼성전자주식회사 | 휴대용 디바이스 및 휴대용 디바이스의 무선 전력 충전 시스템 |
US8804122B2 (en) | 2011-09-22 | 2014-08-12 | Brightex Bio-Photonics Llc | Systems and methods for determining a surface profile using a plurality of light sources |
US8983203B2 (en) | 2011-10-14 | 2015-03-17 | Ulsee Inc. | Face-tracking method with high accuracy |
JP2015507241A (ja) * | 2011-12-04 | 2015-03-05 | デジタル メイクアップ リミテッドDigital Makeup Ltd | デジタルメイクアップ |
US8634647B2 (en) | 2011-12-07 | 2014-01-21 | Elwha Llc | Informational data indicative of a possible non-imaged portion of a region of interest |
US20130159895A1 (en) | 2011-12-15 | 2013-06-20 | Parham Aarabi | Method and system for interactive cosmetic enhancements interface |
US8908904B2 (en) * | 2011-12-28 | 2014-12-09 | Samsung Electrônica da Amazônia Ltda. | Method and system for make-up simulation on portable devices having digital cameras |
US9118876B2 (en) | 2012-03-30 | 2015-08-25 | Verizon Patent And Licensing Inc. | Automatic skin tone calibration for camera images |
US9104908B1 (en) | 2012-05-22 | 2015-08-11 | Image Metrics Limited | Building systems for adaptive tracking of facial features across individuals and groups |
US9111134B1 (en) | 2012-05-22 | 2015-08-18 | Image Metrics Limited | Building systems for tracking facial features across individuals and groups |
US9460462B1 (en) | 2012-05-22 | 2016-10-04 | Image Metrics Limited | Monetization using video-based simulation of cosmetic products |
US9449412B1 (en) | 2012-05-22 | 2016-09-20 | Image Metrics Limited | Adaptive, calibrated simulation of cosmetic products on consumer devices |
US9224248B2 (en) | 2012-07-12 | 2015-12-29 | Ulsee Inc. | Method of virtual makeup achieved by facial tracking |
US9262869B2 (en) | 2012-07-12 | 2016-02-16 | UL See Inc. | Method of 3D model morphing driven by facial tracking and electronic device using the method the same |
US9182813B2 (en) | 2012-08-10 | 2015-11-10 | Ulsee Inc. | Image-based object tracking system in 3D space using controller having multiple color clusters |
US8910082B2 (en) | 2012-08-10 | 2014-12-09 | Modiface Inc. | Method and system for modification of digital images through rotational cascading-effect interface |
TWI582708B (zh) | 2012-11-22 | 2017-05-11 | 緯創資通股份有限公司 | 臉部表情控制系統、表情控制之方法及其電腦系統 |
US9317136B2 (en) | 2013-01-10 | 2016-04-19 | UL See Inc. | Image-based object tracking system and image-based object tracking method |
EP2953090A4 (en) | 2013-02-01 | 2016-05-25 | Panasonic Ip Man Co Ltd | MAKEUP AID, MAKEUP AID, MAKEUP ASSISTANCE AND MAKEUP ASSISTANCE |
JP6008323B2 (ja) | 2013-02-01 | 2016-10-19 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
CN105209870B (zh) | 2013-03-15 | 2018-11-20 | Matchco公司 | 用于指定和配制定制的外用制剂的系统和方法 |
CN105229673B (zh) | 2013-04-03 | 2021-12-03 | 诺基亚技术有限公司 | 一种装置和相关联的方法 |
JP6396890B2 (ja) | 2013-04-08 | 2018-09-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム |
WO2014170886A1 (en) * | 2013-04-17 | 2014-10-23 | Digital Makeup Ltd | System and method for online processing of video images in real time |
WO2014190509A1 (en) | 2013-05-29 | 2014-12-04 | Nokia Corporation | An apparatus and associated methods |
EP3000386B1 (en) | 2013-06-28 | 2021-01-20 | Panasonic Intellectual Property Corporation of America | Skin function evaluation device and skin evaluation method |
GB2518589B (en) | 2013-07-30 | 2019-12-11 | Holition Ltd | Image processing |
US9779527B2 (en) | 2013-08-15 | 2017-10-03 | Xiaomi Inc. | Method, terminal device and storage medium for processing image |
WO2015029392A1 (ja) | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム |
WO2015052706A1 (en) | 2013-10-13 | 2015-04-16 | Inuitive Ltd. | Hands on computerized emulation of make up |
FR3015872B1 (fr) | 2013-12-27 | 2017-03-24 | Oreal | Dispositif de maquillage comportant une pluralite d'encres cosmetiques |
US9687155B2 (en) | 2014-02-20 | 2017-06-27 | Modiface Inc. | System, method and application for skin health visualization and quantification |
US10339685B2 (en) * | 2014-02-23 | 2019-07-02 | Northeastern University | System for beauty, cosmetic, and fashion analysis |
US9501689B2 (en) | 2014-03-13 | 2016-11-22 | Panasonic Intellectual Property Management Co., Ltd. | Image processing apparatus and image processing method |
JP6331515B2 (ja) | 2014-03-13 | 2018-05-30 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置およびメイクアップ支援方法 |
US9760935B2 (en) | 2014-05-20 | 2017-09-12 | Modiface Inc. | Method, system and computer program product for generating recommendations for products and treatments |
US9665984B2 (en) | 2014-07-31 | 2017-05-30 | Ulsee Inc. | 2D image-based 3D glasses virtual try-on system |
GB201414144D0 (en) * | 2014-08-08 | 2014-09-24 | Imagination Tech Ltd | Relightable texture for use in rendering an image |
US20160042557A1 (en) | 2014-08-08 | 2016-02-11 | Asustek Computer Inc. | Method of applying virtual makeup, virtual makeup electronic system, and electronic device having virtual makeup electronic system |
US10002452B2 (en) | 2014-10-07 | 2018-06-19 | Cyberlink Corp. | Systems and methods for automatic application of special effects based on image attributes |
KR102214918B1 (ko) | 2014-10-21 | 2021-02-10 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
EP3017755A1 (en) | 2014-11-04 | 2016-05-11 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
US10083345B2 (en) | 2015-05-05 | 2018-09-25 | Myongsu Choe | Makeup supporting methods for creating and applying a makeup guide content to makeup user's face on a real-time basis |
US20160357578A1 (en) | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Method and device for providing makeup mirror |
US10121055B1 (en) | 2015-09-08 | 2018-11-06 | Carnegie Mellon University | Method and system for facial landmark localization |
US9633250B2 (en) | 2015-09-21 | 2017-04-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for estimating locations of facial landmarks in an image of a face using globally aligned regression |
US9576351B1 (en) | 2015-11-19 | 2017-02-21 | Adobe Systems Incorporated | Style transfer for headshot portraits |
US9984282B2 (en) | 2015-12-10 | 2018-05-29 | Perfect Corp. | Systems and methods for distinguishing facial features for cosmetic application |
JP6200483B2 (ja) | 2015-12-23 | 2017-09-20 | 株式会社オプティム | 画像処理システム、画像処理方法、および画像処理プログラム |
US10162997B2 (en) | 2015-12-27 | 2018-12-25 | Asustek Computer Inc. | Electronic device, computer readable storage medium and face image display method |
EP3423990A1 (en) * | 2016-03-02 | 2019-01-09 | Holition Limited | Locating and augmenting object features in images |
US10614567B2 (en) * | 2016-07-25 | 2020-04-07 | Case Western Reserve University | Quantifying mass effect deformation with structural radiomics in brain tumor patients |
US11315173B2 (en) * | 2016-09-15 | 2022-04-26 | GlamST LLC | Applying virtual makeup products |
CN106682958A (zh) * | 2016-11-21 | 2017-05-17 | 汕头市智美科技有限公司 | 一种虚拟试妆方法及装置 |
US10068135B2 (en) | 2016-12-22 | 2018-09-04 | TCL Research America Inc. | Face detection, identification, and tracking system for robotic devices |
KR20190129064A (ko) | 2017-03-07 | 2019-11-19 | 시쉐이도 아메리카스 코포레이션 | 맞춤형 국소제를 조정하기 위한 시스템 및 방법 |
TW201931179A (zh) | 2017-07-13 | 2019-08-01 | 美商美國資生堂公司 | 用於虛擬面部化妝之移除與模擬、快速面部偵測及標記追蹤、降低輸入視訊之延遲及振動的系統與方法,以及用於建議化妝之方法 |
US10750453B2 (en) | 2017-09-07 | 2020-08-18 | Ofinno, Llc | Sounding reference signal transmission for uplink beam management |
-
2018
- 2018-07-13 TW TW107124321A patent/TW201931179A/zh unknown
- 2018-07-13 KR KR1020197036633A patent/KR20200026808A/ko not_active Application Discontinuation
- 2018-07-13 US US16/035,509 patent/US10939742B2/en active Active
- 2018-07-13 WO PCT/US2018/042175 patent/WO2019014646A1/en unknown
- 2018-07-13 CN CN201880042814.8A patent/CN111066060B/zh active Active
- 2018-07-13 JP JP2019566775A patent/JP7200139B2/ja active Active
- 2018-07-13 EP EP18832841.3A patent/EP3652701A4/en active Pending
-
2019
- 2019-05-03 US US16/403,274 patent/US11039675B2/en active Active
- 2019-06-11 US US16/438,341 patent/US11000107B2/en active Active
- 2019-09-26 US US16/584,310 patent/US11344102B2/en active Active
-
2022
- 2022-05-29 US US17/827,750 patent/US20220386759A1/en active Pending
- 2022-12-21 JP JP2022204236A patent/JP2023036784A/ja active Pending
-
2024
- 2024-06-19 JP JP2024098425A patent/JP2024120013A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004283357A (ja) * | 2003-03-20 | 2004-10-14 | Kao Corp | 肌のシミュレーション画像の形成方法 |
JP2012190287A (ja) * | 2011-03-10 | 2012-10-04 | Omron Corp | 画像処理装置、画像処理方法、および制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11344102B2 (en) | 2022-05-31 |
KR20200026808A (ko) | 2020-03-11 |
US20190014884A1 (en) | 2019-01-17 |
CN111066060B (zh) | 2024-08-02 |
US20190269224A1 (en) | 2019-09-05 |
CN111066060A (zh) | 2020-04-24 |
US20190289986A1 (en) | 2019-09-26 |
WO2019014646A1 (en) | 2019-01-17 |
EP3652701A1 (en) | 2020-05-20 |
US20220386759A1 (en) | 2022-12-08 |
US10939742B2 (en) | 2021-03-09 |
JP2024120013A (ja) | 2024-09-03 |
US11000107B2 (en) | 2021-05-11 |
JP7200139B2 (ja) | 2023-01-06 |
EP3652701A4 (en) | 2021-11-03 |
TW201931179A (zh) | 2019-08-01 |
US20200015575A1 (en) | 2020-01-16 |
JP2020526809A (ja) | 2020-08-31 |
US11039675B2 (en) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7200139B2 (ja) | 仮想顔化粧の除去、高速顔検出およびランドマーク追跡 | |
US11741639B2 (en) | Locating and augmenting object features in images | |
US10796480B2 (en) | Methods of generating personalized 3D head models or 3D body models | |
CN109690617B (zh) | 用于数字化妆镜的系统和方法 | |
US20170372505A1 (en) | Systems and Methods for Generating Computer Ready Animation Models of a Human Head from Captured Data Images | |
WO2022095721A1 (zh) | 参数估算模型的训练方法、装置、设备和存储介质 | |
JP2020526809A5 (ja) | ||
Liang et al. | Facial skin beautification using adaptive region-aware masks | |
WO2016011834A1 (zh) | 一种图像处理方法及系统 | |
KR20230097157A (ko) | 개인화된 3d 헤드 모델 변형을 위한 방법 및 시스템 | |
CN116997933A (zh) | 用于构造面部位置图的方法和系统 | |
JP7462120B2 (ja) | 2次元(2d)顔画像から色を抽出するための方法、システム及びコンピュータプログラム | |
JP2024506170A (ja) | 個人化された3d頭部モデルおよび顔モデルを形成するための方法、電子装置、およびプログラム | |
Ma et al. | A lighting robust fitting approach of 3D morphable model for face reconstruction | |
Zhang et al. | Monocular face reconstruction with global and local shape constraints | |
Liang et al. | Adaptive label propagation for facial appearance transfer | |
US20240005581A1 (en) | Generating 3d facial models & animations using computer vision architectures | |
Zhao | 3D Human Face Reconstruction and 2D Appearance Synthesis | |
Jorstad | Measuring deformations and illumination changes in images with applications to face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230111 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240619 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240821 |