JP2020505989A - メイクアップ評価システム及びその動作方法 - Google Patents

メイクアップ評価システム及びその動作方法 Download PDF

Info

Publication number
JP2020505989A
JP2020505989A JP2019541436A JP2019541436A JP2020505989A JP 2020505989 A JP2020505989 A JP 2020505989A JP 2019541436 A JP2019541436 A JP 2019541436A JP 2019541436 A JP2019541436 A JP 2019541436A JP 2020505989 A JP2020505989 A JP 2020505989A
Authority
JP
Japan
Prior art keywords
makeup
score
image
evaluation
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019541436A
Other languages
English (en)
Other versions
JP7020626B2 (ja
Inventor
サン・イー・キム
ト・ヒョク・クォン
ト・シク・ファン
テ・ソン・キム
トゥ・ヒョン・パク
キ・フン・バン
テ・ジュン・オ
ヨ・ハン・ジュン
セ・ウォン・ファン
Original Assignee
エルジー ハウスホールド アンド ヘルスケア リミテッド
エルジー ハウスホールド アンド ヘルスケア リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170014403A external-priority patent/KR101872635B1/ko
Application filed by エルジー ハウスホールド アンド ヘルスケア リミテッド, エルジー ハウスホールド アンド ヘルスケア リミテッド filed Critical エルジー ハウスホールド アンド ヘルスケア リミテッド
Priority claimed from KR1020180012931A external-priority patent/KR102066892B1/ko
Publication of JP2020505989A publication Critical patent/JP2020505989A/ja
Application granted granted Critical
Publication of JP7020626B2 publication Critical patent/JP7020626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本発明は、イメージに含まれた顔のメイクアップを評価するメイクアップ評価システム及びその動作方法に関するものであって、顔イメージを撮影し、撮影した顔イメージをメイクアップサーバーに伝送する移動端末機と、メイクアップスコアデータを保存しており、移動端末機から顔イメージを受信すると、顔イメージから少なくとも一つ以上の顔領域を検出し、メイクアップスコアデータに基づいて検出された顔領域別のメイクアップスコアを算出し、算出されたメイクアップスコアを移動端末機に伝送するメイクアップサーバーとを含むことができる。

Description

本発明は、メイクアップ評価システム及びその動作方法に関する。
ビューティー産業(beauty industry)の発展にしたがって、ユーザの化粧品、メイクアップ(make−up)などに対する関心が増加している。これにしたがって、ユーザの化粧品、メイクアップなどに対する欲求が多様になっている傾向である。
一方、ユーザ個人ごとに肌色相、顔型、目鼻立ちなどが多様なので、個人に似合うメイクアップが異なり得る。したがって、ユーザは自分に似合うメイクアップの選択に困難を有し得る。ユーザはメイクアップ後にメイクアップがよくできたか、どの部分を補完するといいか気にすることがある。
このような傾向に合わせて、最近は、ユーザの顔に仮想のメイクアップを加えてくれるアプリケーション(application)などが開発されている。この場合、ユーザの好奇心と興味を誘発することはできるが、どんなメイクアップがユーザに似合うかは個人が判断しなければならないという限界がある。すなわち、ユーザ個々人に対するカスタマイズサービスを提供するには困難がある。例えば、現在提供されるビューティーサービスの場合にはメイクアップ専門家の協業が含まれていないか、メイクアップ専門家の協業があっても限定的なデータに基づいている。したがって、ユーザ個々人に対するカスタマイズサービスを提供するには困難がある。
一方、最近では機械学習(Machine Learning、ML)技術、特にディープラーニング(Deep Learning、DL)技術の利用分野が拡張されている。
機械学習技術とは、多くのデータを介して特徴を抽出し、新しいデータが入力されると、コンピュータが自ら特徴によって分類することができる技術である。
ディープラーニング技術は、機械学習技術の一部である。ディープラーニング技術は、人工知能を構成するための人工ニューラルネットワークANN(Artificial Neural Networks)をベースに、人間が物事を区別するように、ビッグデータの中からパターンを発見してコンピュータがデータを分類する技術を言う。
ディープラーニング技術をメイクアップサービスに適用することによって、より客観的なデータに基づいてユーザにカスタマイズメイクアップを提供することができると考えられる。
本発明は、ユーザのメイクアップを評価するメイクアップ評価システム及びその動作方法を提供しようとする。
本発明は、写真の中のメイクアップを分析して、メイクアップの優秀性を数値で提供するメイクアップ評価システム及びその動作方法を提供しようとする。
より具体的には、本発明は、メイクアップ専門家の評価に基づいた信頼性あるスコアデータを介してメイクアップを評価するメイクアップ評価システム及びその動作方法を提供しようとする。
本発明は、機械学習技術を介してメイクアップを自動的に評価するデータベースを構築しているメイクアップ評価システム及びその動作方法を提供しようとする。
本発明は、ユーザの顔の各部位ごとにメイクアップを評価するメイクアップ評価システム及びその動作方法を提供しようとする。
本発明の実施態様によるメイクアップ評価システムは、顔イメージを撮影し、撮影した顔イメージをメイクアップサーバーに伝送する移動端末機と、メイクアップスコアデータを保存しており、移動端末機から顔イメージを受信すると、顔イメージから少なくとも一つ以上の顔領域を検出し、メイクアップスコアデータに基づいて検出された顔領域別のメイクアップスコアを算出し、算出されたメイクアップスコアを移動端末機に伝送するメイクアップサーバーとを含み、メイクアップサーバーは、移動端末機からメイクアップテーマを受信すると、メイクアップテーマに応じてメイクアップスコアを算出し、メイクアップスコアは、検出された顔領域の形状及びメイクアップテーマに応じて異なるように算出され得る。
本発明の実施態様によると、ユーザにより信頼性あるメイクアップ評価サービスを提供することができる効果がある。具体的には、本発明の実施態様によると、実際のメイクアップ専門家の評価と類似したメイクアップ評価サービスを提供することができる効果がある。
本発明の実施態様によると、顔の各領域を検出してアルゴリズムを適用することによってメイクアップの評価が可能であるという利点がある。より詳細には、ユーザごとに顔のサイズ、形状などが異なって、同じメイクアップをしても似合う人がいて、似合わない人がいることがある。したがって、本発明では特に顔各部位領域を抽出し、抽出された領域にアルゴリズムを適用してユーザの顔特性を考慮するメイクアップ評価を行うことができるので、精緻なメイクアップ評価が可能であるという利点がある。
本発明の実施態様によると、顔の各部位領域を抽出し、抽出された領域ごとに異なるアルゴリズムを適用して該当の部位ごとにメイクアップがよくできたか評価が可能であり、顔各部位を総合した全体的なメイクアップスコアの評価が可能であるという利点がある。
本発明の実施態様によると、顔の各部位領域のRGB値を用いて顔領域をより正確に認識が可能であるという利点がある。
本発明の実施態様によると、ディスプレイ部の特性などと関係なく、同じ値を示すLab値を用いてメイクアップを評価することによって、移動端末機のモデルなどのような評価媒体に関係なく、客観的なメイクアップ評価が可能であるという利点がある。
本発明の実施態様によると、単純にメイクアップの色相を評価するだけでなく、色相調和、色相の均一性など細密なメイクアップ評価が可能であるという利点がある。
本発明の実施形態によるメイクアップ評価システムの構成を示したブロック図である。 本発明の実施形態による移動端末機を説明するためのブロック図である。 本発明の第1実施形態によるメイクアップサーバーを説明するためのブロック図である。 本発明の第1実施形態によるメイクアップ評価システムの動作方法を示すラダーダイヤグラムである。 本発明の第1実施形態によるメイクアップサーバーがイメージデータを受信する方法を説明するための例示図である。 本発明の第1実施形態によるメイクアップスコアデータを説明するための例示図である。 本発明の第1実施形態によるメイクアップスコアデータをチューニングする方法を説明するための例示図である。 本発明の第1実施形態によるメイクアップスコアデータをチューニングする方法を説明するための例示図である。 本発明の第1実施形態よって生成されたメイクアップ評価データベースを説明するための図である。 本発明の第1実施形態によるメイクアップ評価要請信号を伝送するための画面を説明するための例示図である。 本発明の第1実施形態によるメイクアップサーバーが顔イメージを分析する方法を説明するための例示図である。 本発明の第1実施形態によるメイクアップ分析部が顔イメージのメイクアップを分析する方法を説明するための例示図である。 本発明の第1実施形態による再生成されたメイクアップ評価データベースを説明するための例示図である。 本発明の第1実施形態によるメイクアップスコア画面を説明するための例示図である。 本発明の第1実施形態によるメイクアップスコア画面を説明するための例示図である。 本発明の第1実施形態によるメイクアップテーマがメイクアップ評価に及ぶ影響を説明するための図である。 本発明の第1実施形態による領域別のスコアウィンドウを説明するための図である。 本発明の第1実施形態によるメイクアップのバランス評価を説明するための図である。 本発明の第1実施形態によるノーメイクアップ評価結果を説明するための図である。 本発明の第2実施形態によるメイクアップサーバーを説明するためのブロック図である。 本発明の第2実施形態によるメイクアップ評価システムの動作方法を示すラダーダイヤグラムである。 本発明の第2実施形態による眉毛部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による眉毛部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による眉毛部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による眉毛部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による眉毛部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による眉毛部門の評価結果を表示する方法を説明するための例示図である。 本発明の第2実施形態によるクマ部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態によるクマ部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態によるクマ部門の評価結果を表示する方法を説明するための例示図である。 本発明の第2実施形態による色相調和部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による色相調和部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による色相調和部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による色相調和部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による色相調和部門を評価するときに適用される評価アルゴリズムを説明するための図面である。 本発明の第2実施形態による色相調和部門の評価結果を表示する方法を説明するための例示図である。 本発明の第2実施形態による唇部門評価のときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による唇部門の評価結果を表示する方法を説明するための例示図である。 本発明の第2実施形態による傷部門を評価するときに適用される評価アルゴリズムを説明するための図である。 本発明の第2実施形態による傷部門の評価結果を表示する方法を説明するための例示図である。 本発明の第2実施形態によるメイクアップ評価結果を表示する方法を説明するための例示図である。
以下、添付された図面を参照して本明細書に開示された実施形態を詳しく説明するが、図面符号に関係なく同一または類似の構成要素は同一の参照符号を付与し、これに対する重複説明は省略することにする。以下の説明で使用される構成要素に対する接尾辞「モジュール」および「部」は明細書作成の容易さだけが考慮されて付与されたり混用されるものであって、それ自体で互いに区別される意味または役割を有するものではない。また、本明細書に開示された実施形態を説明するにおいて、関連した公知技術に対する具体的な説明が、本明細書に開示された実施形態の要旨を曖昧にし得ると判断される場合にはその詳細な説明を省略する。また、添付された図面は本明細書に開示された実施形態を易しく理解するようにするためのものに過ぎず、添付された図面によって本明細書に開示された技術的思想が制限されず、本発明の思想および技術範囲に含まれるすべての変更、均等物ないし代替物を含むものと理解されるべきである。
第2、第1などのように序数を含む用語は多様な構成要素を説明するために使用され得るが、前記構成要素は前記用語によって限定されない。前記用語は一つの構成要素を他の構成要素から区別する目的だけで使用される。
ある構成要素が他の構成要素に「連結されて」いるとか「接続されて」いると言及された際には、その他の構成要素に直接的に連結されているか、または接続されていることもあるが、中間に他の構成要素が存在することもあると理解されるべきである。一方、ある構成要素が他の構成要素に「直接連結されて」いるとか「直接接続されて」いると言及された際には、中間に他の構成要素が存在しないと理解されるべきである。
単数の表現は文脈上明白に異なるように意味しない限り、複数の表現を含む。
本出願において、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするのであって、一つまたはその以上の他の特徴や数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものなどの存在または付加可能性を予め排除しないと理解されるべきである。
次に、図1ないし図40を参照して本発明の実施形態によるメイクアップ(make−up)評価システム及びその動作方法を説明する。
最初に、図1は、本発明の実施形態によるメイクアップ評価システムの構成を示したブロック図である。
図1を参照すると、本発明の実施形態によるメイクアップ評価システムは、移動端末機10、アプリケーションサーバー200及びメイクアップサーバー100で構成され得る。
移動端末機10は、メイクアップ評価を要請することができる。移動端末機10は、少なくとも一つのメイクアップイメージと関連してメイクアップ評価を要請し、メイクアップ評価結果を表示することができる。
アプリケーションサーバー200は、メイクアップ評価のためのアプリケーション動作に用いられる構成要素であって、メイクアップ評価のためのアプリケーション動作に必要な情報を保存することができる。
アプリケーションサーバー200は、メイクアップ評価アプリケーションの実行によって移動端末機10及びメイクアップサーバー100の少なくとも一つ以上と信号及びデータを送受信することができる。
メイクアップサーバー100は、メイクアップ評価に必要なデータを保存することができる。例えば、メイクアップサーバー100は、顔の各部位を識別するためのデータ、メイクアップを評価するための評価アルゴリズムなどを保存することができる。
メイクアップサーバー100は、保存されたデータに基づいてメイクアップを評価するか、または、メイクアップ評価に必要な情報を移動端末機10またはアプリケーションサーバー200に伝送することができる。メイクアップサーバー100は、メイクアップの評価結果情報を含む評価結果信号を移動端末機10に伝送することができる。
移動端末機10とアプリケーションサーバー200及びメイクアップサーバー100は、相互間に信号を送受信することができる。
移動端末機10は、アプリケーションサーバー200にメイクアップ評価要請信号を伝送することができ、アプリケーションサーバー200は、メイクアップ評価要請信号を受信すると、受信されたメイクアップ評価要請信号に対応するメイクアップイメージをメイクアップサーバー100に伝送することができる。
一実施形態によると、メイクアップサーバー100は、メイクアップ評価要請信号を受信すると保存されたデータに基づいて受信されたイメージのメイクアップを評価し、評価結果をアプリケーションサーバー200に伝送することができる。アプリケーションサーバー200は、移動端末機10に評価結果を伝送することができる。
しかし、実施形態にしたがって、アプリケーションサーバー200とメイクアップサーバー100は、別個に分離せずに、一つのサーバーとして移動端末機10と信号を送受信することができる。例えば、アプリケーションサーバー200は、メイクアップサーバー100に含まれ得る。この場合、移動端末機10は、メイクアップサーバー100にメイクアップ評価要請信号を伝送し、メイクアップサーバー100は、メイクアップを評価して移動端末機10に評価結果データを伝送することができる。
別の実施形態によると、メイクアップサーバー100は、メイクアップ評価要請信号を受信すると受信されたメイクアップ評価要請信号と係わるデータを移動端末機10に伝送し、移動端末機10は、受信されたデータに基づいてメイクアップを評価する。
本明細書で説明される移動端末機10には携帯電話、スマートフォン(smart phone)、コンピュータ(computer)、ノートパソコン(notebook computer)、タブレットPC(tablet PC)、ウェアラブルデバイス(wearable device)、デジタルTV、デジタルサイネージ、化粧品などのようなビューティー関連製品を販売する売場に備えられるディスプレイ装置、家庭または売場などに備えられるスマートミラーなどが含まれ得る。
図2は、本発明の実施形態による移動端末機を説明するためのブロック図である。
移動端末機10は、無線通信部11、入力部12、カメラ13、ディスプレイ部14、メモリ15、電源供給部16及び制御部17を含むことができる。このように図2に示された構成要素は、本発明による移動端末機の理解を助けるために例示で挙げた構成要素であって、移動端末機は、前で列挙された構成要素よりさらに多いか、またはさらに少ない構成要素を有し得る。
以下、移動端末機10の各構成要素をより具体的に説明する。
無線通信部11は、移動端末機10と他の移動端末機10との間、または移動端末機100と外部サーバーとの間の無線通信ができるようにする一つ以上のモジュールを含むことができる。具体的には、無線通信部11は、放送受信モジュール、移動通信モジュール、無線インターネットモジュール、近距離通信モジュール、位置情報モジュールの少なくとも一つ以上を含むことができる。
無線通信部11は、他の移動端末機10または外部サーバーと信号を送受信することができる。例えば、無線通信部11は、アプリケーションサーバー200及びメイクアップサーバー100の少なくとも一つ以上と信号を送受信することができる。
入力部12は、ユーザからデータまたは命令などを受信することができる。入力部は、プッシュキー(mechanical key)、タッチキー(touch key)、音声認識などを介して入力信号を受信することができる。入力部12を介して受信されたデータまたは命令は、制御命令として処理されて、他の構成要素に伝達することができる。
カメラ13は、映像信号入力を受信することができる。映像信号は写真のような静止イメージ、動画などを含む。したがって、カメラ13は、写真、動画などを撮影することによって映像信号入力を受信することができる。例えば、カメラ13は、ユーザの顔イメージを撮影することができる。
ディスプレイ部14は、移動端末機10で処理される情報を表示(出力)する。例えば、ディスプレイ部14はユーザに提供する内容であって、無線通信部11を介して受信されたり入力部12を介して入力された内容などを画面に表示することができる。また、ディスプレイ部14は、移動端末機10で駆動される応用プログラムの画面情報を表示することができる。
または、ディスプレイ部14は、カメラ13を介して撮影中であるか、または撮影されたイメージを表示することができる。例えば、ディスプレイ部14は、カメラ13を介して撮影された顔イメージを表示することができる。
また、ディスプレイ部14は、撮影された顔イメージに基づいてメイクアップを評価した結果情報を表示することができる。
一方、ディスプレイ部151は、タッチセンサーと互いにレイヤー構造を形成するか、または一体型に形成されることによって、タッチスクリーンを具現することができる。このようなタッチスクリーンは、入力部12として機能すると共に、移動端末機10とユーザとの間の出力インターフェースを提供することができる。
メモリ15は、移動端末機10の多様な機能を支援するデータを保存する。メモリ15は、移動端末機10で駆動される複数の応用プログラム(application program)またはアプリケーション(application)、移動端末機10の動作のためのデータ、命令語などを保存することができる。このような応用プログラムの少なくとも一部は、無線通信を介して外部サーバーからダウンロードされ得る。または、このような応用プログラムの少なくとも一部は、移動端末機10の基本的な機能(例えば、電話着信、発信機能、メッセージ受信、発信機能)のために出庫の当時から移動端末機10上に存在することができる。
一方、このような応用プログラムの少なくとも一つは、メイクアップ評価のためのアプリケーションであり得る。
電源供給部16は、外部の電源または内部の電源が印加されて移動端末機10に含まれた各構成要素に電源を供給する。このような電源供給部190は、バッテリーを含み、バッテリーは、内蔵型バッテリーまたは交替可能な形状のバッテリーであり得る。
制御部17は、移動端末機10の全般的な動作を制御する。具体的には、制御部17は、移動端末機10を構成する各構成要素の動作または応用プログラムと関連した動作を制御することができる。制御部17は、前記構成要素を介して入力または出力される信号、データ、情報などを処理するか、またはメモリ15に保存された応用プログラムを駆動することによって、ユーザに適切な情報または機能を提供または処理することができる。制御部17は、前記構成要素の少なくとも一部を制御するか、または少なくとも二つ以上を互いに組み合わせて動作させることができる。
図2を介して説明した前記構成要素の少なくとも一部は、以下で説明される多様な実施形態による移動端末機の動作、制御、または制御方法を具現するために互いに協力して動作することができる。また、移動端末機の動作、制御、または制御方法は、メモリ15に保存された少なくとも一つの応用プログラムの駆動によって移動端末機で具現され得る。
次に、図3は、本発明の第1実施形態によるメイクアップサーバーを説明するためのブロック図である。
メイクアップサーバー100は、メイクアップDB管理部110、メイクアップ評価部120、制御部130及び無線通信部140で構成され得る。
最初に、メイクアップDB管理部110を説明する。
メイクアップDB管理部110は、メイクアップテーマ獲得部111、メイクアップイメージ獲得部112、スコアデータ生成部113、メイクアップ評価DB114及びメイクアップスコア学習部115で構成され得る。
メイクアップテーマ獲得部111は、データ分析またはユーザ入力を介してメイクアップテーマを決定する。メイクアップは、全体的なバランス(balance)が重要である。また、時代の流れなどによって流行するメイクアップが変わる。したがって、メイクアップテーマ獲得部111は、オンライン上に存在するデータを分析してメイクアップテーマを獲得することができる。または、メイクアップテーマ獲得部111は、ユーザからメイクアップテーマの入力を受信してメイクアップテーマを獲得することができる。
メイクアップイメージ獲得部112は、メイクアップ評価の基礎となる複数のメイクアップイメージデータを受信する。具体的には、メイクアップイメージ獲得部112は、メイクアップテーマに応じて区分される複数のメイクアップイメージデータを受信することができる。また、メイクアップイメージ獲得部112は、テーマ別のメイクアップイメージと共にノーメイクアップ(no make−up)イメージを獲得することができる。
メイクアップイメージ獲得部112を介して受信されたメイクアップイメージは、メイクアップ評価データベース114に保存され得る。
スコアデータ生成部113は、メイクアップイメージ及びこれに対応するメイクアップスコアを含むメイクアップスコアデータを生成する。メイクアップスコアデータのメイクアップイメージは、メイクアップイメージ獲得部112を介して受信され得る。メイクアップスコアデータのメイクアップスコアは、メイクアップ専門家の評価に基づいて形成され得る。具体的には、メイクアップスコアデータは、メイクアップ専門家のメイクアップ評価のための入力に基づいて生成され得る。例えば、メイクアップスコアは、顔イメージごとにメイクアップ専門家によって入力され得る。また、メイクアップスコアは、機械学習によってメイクアップサーバー100自ら算出したスコアを含むことができる。
また、スコアデータ生成部113は、メイクアップ評価システムの誤差率を低減するためにメイクアップスコアデータをチューニングすることができる。また、スコアデータ生成部113は、メイクアップ評価システムの客観性を確保するためにメイクアップスコアデータの信頼度を補正することができる。
メイクアップ評価DB114は、スコアデータ生成部113を介して生成されたメイクアップスコアデータを保存する。メイクアップスコアデータは、チューニングされたり信頼度を補正することができる。
また、メイクアップ評価DB114は、スコアデータ生成部113を介して生成されたメイクアップスコアデータと共に、新しいイメージと関連して算出したスコアデータを一緒に保存することができる。このようにメイクアップスコアデータを保存しているメイクアップ評価DB114を用いてメイクアップスコア学習部115は、メイクアップスコアの算出方法を機械学習することができる。
メイクアップスコア学習部115は、メイクアップ評価DB114に基づいてメイクアップスコアの算出方法を機械学習する。具体的には、メイクアップスコア学習部115は、実際のメイクアップ専門家が評価する方法と類似するようにメイクアップスコアを算出する方法を機械学習することができる。
次に、メイクアップ評価部120を具体的に説明する。
メイクアップ評価部120は、顔イメージ獲得部121、メイクアップ分析部122及びメイクアップスコア出力部123で構成され得る。
顔イメージ獲得部121は、メイクアップ評価の対象となる顔イメージを受信する。具体的には、顔イメージ獲得部121は、無線通信部140を介してメイクアップ評価の対象となる顔イメージの伝達を受けることができる。
メイクアップ分析部122は、顔イメージ獲得部121が受信した顔イメージのメイクアップを分析する。メイクアップ分析部122は、顔イメージに含まれた顔各領域のメイクアップを分析することができる。例えば、メイクアップ分析部122は、顔イメージとメイクアップスコアデータに含まれたイメージデータを比較する方法を介してメイクアップを分析することができる。すなわち、メイクアップ分析部122は、メイクアップスコアデータの統計的な数値を介してメイクアップを分析することができる。具体的な方法は後述する。
メイクアップスコア出力部123は、メイクアップ分析結果に基づいて顔イメージのメイクアップスコアを算出する。メイクアップスコア出力部123は、メイクアップ総合スコアと顔領域別のスコアを算出することができる。
制御部130は、メイクアップサーバー100の全般的な動作を制御する。具体的には、制御部130は、メイクアップDB管理部110と、メイクアップ評価部120及び無線通信部140の動作を制御することができる。
無線通信部140は、外部とデータを送受信することができる。例えば、無線通信部140は、移動端末機10またはアプリケーションサーバー200からイメージデータを受信することができる。無線通信部140は、受信されたイメージデータをメイクアップDB管理部110に伝達したりメイクアップ評価部120に伝達することができる。
一方、以下で説明する実施形態は、例えば、ソフトウェア、ハードウェアまたはこれらを組み合わせたものを用いてコンピュータまたはこれと類似の装置で読み取り可能な記録媒体内で具現され得る。
次に、図4を参照して本発明の第1実施形態によるメイクアップ評価システムの動作方法を説明する。図4は、本発明の第1実施形態によるメイクアップ評価システムの動作方法を示すラダーダイヤグラムである。
最初に、メイクアップサーバー100のメイクアップテーマ獲得部111は、メイクアップのテーマを決定することができる(S101)。
本発明の一実施形態によると、メイクアップテーマ獲得部111は、無線通信を介してメイクアップのテーマを決定することができる。
具体的には、メイクアップテーマ獲得部111は、オンラインでビューティー関連データを獲得することができる。ビューティー関連データは、メイクアップ関連検索語、アップロードされたメイクアップ関連コンテンツ、メイクアップ製品の販売量などを含むことができる。メイクアップテーマ獲得部111は、獲得されたビューティー関連データをメイクアップテーマごとに分析して、データの量に基づいてメイクアップのテーマを決定することができる。例えば、メイクアップテーマ獲得部111は、データの量が多い順に三つのメイクアップスタイルを獲得して、獲得された三つのメイクアップスタイルをメイクアップテーマとして決定することができる。
このような方法を介して、メイクアップテーマ獲得部111は、最近流行するメイクアップのテーマを容易に獲得することができるという効果がある。
本発明の別の実施形態によると、メイクアップテーマ獲得部111は、入力信号を受信することによってメイクアップテーマを決定することができる。
具体的には、ユーザは、任意のメイクアップテーマをメイクアップサーバー100に入力することができる。メイクアップテーマ獲得部111は、入力されたデータに対応するメイクアップテーマを獲得して、メイクアップテーマを決定することができる。
このような方法を介して、オフラインで流行するメイクアップのテーマをメイクアップサーバー100に反映させることができるという効果がある。
メイクアップテーマ獲得部111は、第1または第2実施形態を介して少なくとも一つ以上のメイクアップテーマを決定することができる。例えば、メイクアップテーマ獲得部111は、Aメイクアップ、Bメイクアップ及びCメイクアップを決定することができる。Aメイクアップはナチュラル(natural)メイクアップ、Bメイクアップはラブリー(lovely)メイクアップ、Cメイクアップはスモーキー(smoky)メイクアップであり得るが、これは例示的なことに過ぎない。
前述したメイクアップテーマを決定する実施形態は、例示的なものであって、メイクアップテーマ獲得部111は、他の方法を介してメイクアップテーマを決定することもできる。
一方、メイクアップテーマ獲得部111は、メイクアップテーマを獲得するとき、メイクアップ基準を一緒に獲得することができる。メイクアップ基準は、メイクアップテーマごとにメイクアップを区分する少なくとも一つ以上の特徴を意味することができる。メイクアップ基準は、以後のイメージデータ受信ステップ及びメイクアップ分析ステップでガイドライン(guide line)として利用され得る。
次に、メイクアップイメージ獲得部112は、決定されたメイクアップテーマに対応するイメージデータを受信することができる(S103)。
メイクアップイメージ獲得部112は、外部からメイクアップテーマに対応するイメージデータを受信することができる。例えば、メイクアップイメージ獲得部112は、外部保存媒体、移動端末機または外部サーバーなどからメイクアップテーマに対応するイメージデータを受信することができる。
メイクアップイメージ獲得部112は、メイクアップテーマごとに複数のメイクアップイメージデータを受信することができる。例えば、メイクアップイメージ獲得部112は、Aメイクアップに対応するイメージデータ、Bメイクアップに対応するイメージデータ及びCメイクアップに対応するイメージデータを受信することができる。
一方、メイクアップイメージ獲得部112は、イメージデータをグループに応じて分類して受信することもできる。すなわち、メイクアップイメージ獲得部112は、複数に分類される各グループからメイクアップテーマ別のイメージデータを受信することができる。
次に、図5は、本発明の実施形態によるメイクアップサーバーがイメージデータを受信する方法を説明するための例示図である。
図5に示されたイメージ分類表500は、メイクアップイメージ獲得部112を介して受信されたイメージデータの分布を示す。A1ないしA5、B1ないしB5、C1ないしC5及びD1ないしD5は、受信されたイメージデータの集合を意味する。
特に、A1、A2、B1、B2、C1、C2、D1及びD2は、第1グループに対応するイメージデータの集合であり、メイクアップ評価DBの下位圏(下、中下)を構成するために受信されたイメージデータの集合である。
A3、A4、B3、B4、C3、C4、D3及びD4は、第2グループに対応するイメージデータの集合であり、メイクアップ評価DBの中位圏(中、中上)を構成するために受信されたイメージデータの集合である。
A5、B5、C5、D5は、第3グループに対応するイメージデータの集合であり、メイクアップ評価DBの上位圏(上)を構成するために受信されたイメージデータの集合である。
このように、メイクアップイメージ獲得部112は、スコア対を異にする第1ないし第3グループに含まれた人々それぞれのAメイクアップイメージ、Bメイクアップイメージ、Cメイクアップイメージ及びノーメイクアップイメージを獲得することができる。Aメイクアップイメージ、Bメイクアップイメージ、Cメイクアップイメージはそれぞれメイクアップテーマ別の評価の基礎となるイメージデータである。ノーメイクアップイメージは、メイクアップ分析ステップで最低点処理に用いられるイメージデータであり得る。
第1グループは一般人を示し、第2グループはビューティー関連業界人を示し、第3グループはメイクアップ専門家を示すことができるが、これは例示的なことに過ぎない。
このように、イメージデータをメイクアップテーマ別及びグループに応じて分類して受信する場合、メイクアップ分析をより正確にできるという効果がある。また、メイクアップ分析に影響を及ぼすことができる統制変因である写真角度、照明などを考慮して正確にメイクアップを分析して評価することができるガイドラインを提供するという効果がある。
一方、メイクアップイメージ獲得部112は、Aメイクアップ、Bメイクアップ及びCメイクアップ以外のメイクアップイメージを受信することができる。すなわち、メイクアップイメージ獲得部112は、決定されたメイクアップテーマと異なるテーマのメイクアップイメージを獲得することができる。これは、メイクアップの完成度と関係なくテーマを外れるか、またはバランス(balance)が崩れるメイクアップを0点処理するためのイメージデータである。
再び、図4を説明する。
スコアデータ生成部113は、受信されたイメージデータに基づいてメイクアップスコアデータを生成することができる(S105)。
スコアデータ生成部113は、受信されたイメージデータ及びそれぞれのイメージデータに対応するスコアを含んだスコアデータを生成することができる。すなわち、スコアデータ生成部113は、イメージデータをスコアデータ化することができる。
次に、図6は、本発明の第1実施形態によるメイクアップスコアデータを説明するための例示図である。
図6に示されたメイクアップスコアデータ600は、イメージデータ及びそれぞれのイメージデータに対応するスコアを含む。イメージデータに対応するスコアは領域によって細分化され得る。例えば、図6に示されたように、各イメージデータは、ベース(base)領域、アイブロウ(eyebrow)領域、アイ(eye)領域、リップ(lip)領域、ブラッシャー及びシェーディング(blush&shading)領域別のスコアを含むことができる。しかし、各領域は例示的なことに過ぎない。
図6に示されたメイクアップスコアデータ600は、Aメイクアップに対応する2個のイメージデータ及びこれに対応するスコアだけが示されているが、スコアデータ生成部113は、ステップS103で受信したすべてのイメージデータを含むスコアデータを生成する。
スコアデータ生成部113は、各イメージデータに対応する領域別のスコア入力を受信することによってスコアデータを生成することができる。例えば、少なくとも一つ以上のメイクアップ専門家は、イメージデータの領域ごとにスコアをメイクアップサーバー100に入力することができる。スコアデータ生成部113は、メイクアップサーバー100に入力されるスコアデータに基づいてメイクアップスコアデータを生成することができる。図6に示されたメイクアップスコアデータは、5、3.5、4などの数値に表示されたがこれは例示的なことに過ぎず、メイクアップスコアデータは、上、中上、中、中下、下、などに区分されることもある。
メイクアップスコアデータ600は、メイクアップテーマ別のメイクアップの特徴を示す。具体的には、メイクアップスコアデータ600は、同じメイクアップイメージであってもメイクアップのテーマに応じて異なるスコアを示す。また、同じメイクアップが加えられた場合でもイメージに含まれた顔型、目つきなどによってスコアが変わる。したがって、メイクアップスコアデータ600は、複数のメイクアップイメージデータを含み、メイクアップテーマに応じて区別される領域別のスコアを含む。
メイクアップスコアデータ600を用いると、メイクアップテーマと関連がないメイクアップイメージデータの場合、これに対応するスコアは0点に算出され得る。
このように、メイクアップイメージを受信してスコアデータ化すると、専門家の評価を土台にするスコアデータを生成することができる。これにしたがって、メイクアップ評価に対する信頼性が高くなる。また、メイクアップ関連ビッグデータが構築され得る。
再び、図4を説明する。
スコアデータ生成部113は、メイクアップスコアデータをチューニングすることができる(S107)。
スコアデータ生成部113は、生成されたメイクアップスコアデータの信頼度を向上させるためにメイクアップスコアデータをチューニングすることができる。具体的には、スコアデータ生成部113は、複数の顔イメージが撮影角度または照明が異なるように撮影された場合、同じメイクアップスコアを算出するようにスコアデータをチューニングすることができる。メイクアップスコアデータをチューニングする方法は下の通りである。
前述のステップS103で受信した第1イメージデータと関連して、メイクアップイメージ獲得部112は、第1イメージデータに対応する第2イメージデータを再受信することができる。第2イメージデータは、第1イメージデータとは異なるイメージデータであって、新たに製作されたメイクアップイメージ及び新たに撮影されたノーメイクアップイメージを含むことができる。すなわち、第2イメージデータは、第1イメージデータと同一人が行ったメイクアップである点で同じであるが、撮影角度または照明などによって異なるメイクアップに認識され得るイメージデータを意味することができる。
したがって、スコアデータ生成部113は、第1イメージデータによって算出されるスコアと第2イメージデータによって算出されるスコアが同一になるようにメイクアップスコアデータをチューニングすることができる。
次に、図7及び図8を参照して、メイクアップスコアデータをチューニングする動作を例として説明する。
図7及び図8は、本発明の第1実施形態によるメイクアップスコアデータをチューニングする方法を説明するための例示図である。
最初に、図7を参照すると、第1イメージデータ71と第2イメージデータ72は同じようにメイクアップされたイメージである。しかし、第1イメージデータ71と第2イメージデータ72は異なる撮影角度で撮影された場合である。スコアデータ生成部113は第1イメージデータ71によって算出されるスコアと第2イメージデータ72によって算出されるスコアが同一になるようにメイクアップスコアデータをチューニングすることができる。
例えば、スコアデータ生成部113は、第1イメージデータ71と第2イメージデータ72を一つのグループに形成して、同一スコアが算出されるようにチューニングすることができる。または、スコアデータ生成部113は、イメージデータチューニングを介して第1イメージデータ71によって算出されるスコアと第2イメージデータ72によって算出されるスコアが同一になるように調節することができる。
次に、図8を参照すると、第1イメージデータ81はメイクアップイメージデータであり、第2イメージデータ82は同一人のノーメイクアップイメージデータである。この場合、スコアデータ生成部113は第2イメージデータ82に対して算出されるスコアが最低点になるようにメイクアップスコアデータをチューニングすることができる。
具体的には、スコアデータ生成部113は、第1イメージデータ81と第2イメージデータ82とのメイクアップをそれぞれ認識することができる。スコアデータ生成部113は、第1イメージデータ81と一緒にメイクアップが認識される場合、メイクアップスコアデータ600に基づいて認識されたメイクアップのスコアを算出することができる。一方、スコアデータ生成部113は、第2イメージデータ82と一緒にメイクアップが認識されない場合、最低点を算出するようにメイクアップスコアデータをチューニングすることができる。
このように、スコアデータ生成部113がイメージデータと撮影角度、撮影当時の照明、ノーメイクアップの識別などが反映されるようにメイクアップスコアデータをチューニングすることによって、メイクアップ評価システムの品質を向上させることができる効果がある。
再び、図4を説明する。
スコアデータ生成部113は、メイクアップスコアデータの信頼度を補正することができる(S109)。
制御部130は、メイクアップスコアデータに含まれていない新しいイメージデータを受信することができる。スコアデータ生成部113は、受信された新しいイメージデータに対するスコアがメイクアップスコアデータに基づいて誤りなしに算出されるかを判断することができる。以下、メイクアップスコアデータの信頼度を補正する具体的な方法を説明する。
本発明の一実施形態によると、スコアデータ生成部113は、新しいイメージに対応するメイクアップスコアを算出し、新しいイメージと類似のイメージをメイクアップスコアデータから獲得することができる。
スコアデータ生成部113は、新しいイメージに対応するスコアがメイクアップスコアデータに含まれた類似イメージのスコアと既に設定された誤差率以内に算出されるかを判断することができる。スコアデータ生成部113は、判断結果に基づいてメイクアップスコアデータに含まれた関連イメージデータのスコアを補正することができる。
または、本発明の別の実施形態によると、スコアデータ生成部113は、メイクアップスコアデータに基づいて算出された新しいイメージに対応するメイクアップスコアである第1スコアを獲得することができる。また、スコアデータ生成部113は、メイクアップ専門家のメイクアップ評価のための入力に基づいた新しいイメージに対応するメイクアップスコアである第2スコアを獲得することができる。
スコアデータ生成部113は、同じイメージと関連して獲得された第1スコアと第2スコアとを比較することができる。スコアデータ生成部113は、比較した結果、第1スコアと第2スコアとが既に設定された範囲以上に異なるかを判断することができる。
スコアデータ生成部113は、第1スコアと第2スコアが既に設定された範囲以上に異なる場合、メイクアップ専門家から比較結果に対応するフィードバックを受信することができる。
フィードバックは、第1スコアと第2スコアとの間の格差の理由を含むことができる。例えば、フィードバックは、第1スコアまたは第2スコアを修正するための情報、イメージ認識情報またはメイクアップ専門家の意見情報を含むことができる。
スコアデータ生成部113は、受信されたフィードバックに基づいてメイクアップスコアデータに含まれたイメージデータのスコアを補正することができる。
メイクアップスコアの信頼度を補正するための方法は、前で例示をあげた第1ないし第2実施形態の外に他の方法をさらに含むことができる。
本発明は、このようにメイクアップスコアを補正することによってメイクアップスコアデータの誤差率を低め、信頼度を向上させることができるという効果がある。
制御部130は、メイクアップスコアデータを保存することができる(S111)。
制御部130は、生成されたメイクアップスコアデータを保存することができる。また、チューニングされたり信頼度が補正されたメイクアップスコアデータを保存することができる。
最初に、本発明の一実施形態によるメイクアップ評価データベースを説明する。
本発明の一実施形態によるメイクアップ評価データベースは、図6を介して説明したように、顔イメージごとにメイクアップスコアデータを保存することができる。これにしたがって、メイクアップ評価データベースは、メイクアップ顔イメージとこれに対応する領域別のスコアが整列されるように形成され得る。
次に、図9を参照して、本発明の別の実施形態によるメイクアップ評価データベースを説明する。
本発明の別の実施形態によるメイクアップ評価データベースは、図9に示されたように顔領域とスコアを区分して部分イメージが整列されるように保存することができる。これにしたがって、メイクアップ評価データベースは、顔領域を区分し、顔領域ごとにスコアを細分化し、細分化された顔領域のスコアに部分イメージが配列されるように形成され得る。
前述したメイクアップ評価データベースは、例示的なものであって、これと他の形態に生成され得る。
再び、図4を説明する。
メイクアップサーバー100は、メイクアップ評価データベースを生成することによってメイクアップイメージを評価することができる。
最初に、移動端末機10は、アプリケーションサーバー200に顔イメージを伝送し(S113)、アプリケーションサーバー200は、移動端末機10から受信された顔イメージをメイクアップサーバー100に伝送することができる(S113)。
メイクアップサーバー100の無線通信部140は、アプリケーションサーバー200から顔イメージを受信することができる。
移動端末機10は、メイクアップ評価アプリケーションを介してアプリケーションサーバー200にメイクアップ評価要請信号を伝送することができる。移動端末機10は、メイクアップ評価要請信号を伝送するための画面を表示することができる。
図10は、本発明の第1実施形態によるメイクアップ評価要請信号を伝送するための画面を説明するための例示図である。
移動端末機10のディスプレイ部14は、図10に示されたようなメイクアップ評価要請画面を表示することができる。
図10を参照すると、メイクアップ評価要請画面は、メイクアップテーマ項目1001、顔イメージ選択アイコン1002、顔イメージウィンドウ1003及び評価アイコン1004を含むことができる。
メイクアップテーマ項目1001は、メイクアップテーマを選択するための項目である。メイクアップ評価は、メイクアップテーマに応じて異なることがある。したがって、移動端末機10の制御部17は、メイクアップテーマ項目1001を介してメイクアップテーマを設定することができる。
顔イメージ選択アイコン1002は、メイクアップ評価を要請しようとする顔イメージを選択するための項目である。本発明の一実施形態によると、移動端末機10の制御部17は、顔イメージ選択アイコン1002を選択する命令を受信すると、カメラ13を用いた撮影画面を表示するようにディスプレイ部14を制御することができる。カメラ13は、メイクアップした顔を撮影することができる。制御部17は、撮影された顔イメージを顔イメージウィンドウ1003に表示することができる。
本発明の別の実施形態によると、移動端末機10の制御部17は、顔イメージ選択アイコン1002を選択する命令を受信すると、メモリ15に保存された少なくとも一つ以上の静止イメージを表示することができる。または、制御部17は、メモリ15に保存された静止イメージで顔を含むイメージを識別して、少なくとも一つ以上の顔を含む静止イメージを表示することができる。制御部17は、ディスプレイ部14に表示された少なくとも一つ以上の静止イメージからいずれか一つの顔イメージを選択する命令を受信することができる。制御部17は、選択された顔イメージを顔イメージウィンドウ1003に表示することができる。
顔イメージウィンドウ1003は、メイクアップ評価を要請しようとする顔イメージを予め見せるウィンドウである。カメラ13を介して撮影されたりメモリ15に保存されたいずれか一つの顔イメージが顔イメージウィンドウ1003に表示され得る。ユーザは、顔イメージウィンドウ1003を介してメイクアップ評価を要請しようとする顔に該当するかを確認することができる。
評価アイコン1004は、メイクアップ評価要請を行うためのアイコンである。制御部17は、評価アイコン1004を選択する命令を受信すると、アプリケーションサーバー200にメイクアップ評価要請信号を伝送することができる。すなわち、制御部17は、顔イメージを含むメイクアップ評価要請信号をアプリケーションサーバー200に伝送するように無線通信部11を制御することができる。
アプリケーションサーバー200は、メイクアップサーバー100にメイクアップ評価要請信号を伝送することができる。これにしたがって、メイクアップサーバー100の無線通信部140は、顔イメージを含んだメイクアップ要請信号をアプリケーションサーバー200から受信することができる。
実施形態にしたがって、移動端末機10は、メイクアップサーバー100に直接メイクアップ評価要請信号を伝送することもできる。
メイクアップ評価要請信号は、顔イメージのほかにメイクアップテーマ、ユーザ情報などをさらに含むことができる。
再び、図4を説明する。
メイクアップサーバー100のメイクアップ分析部122は、受信された顔イメージのメイクアップを分析することができる(S115)。
顔イメージ獲得部121は、無線通信部140から顔イメージを受信することができる。メイクアップ分析部122は、顔イメージ獲得部121が受信した顔イメージのメイクアップを分析することができる。
次に、図11は、本発明の第1実施形態によるメイクアップサーバーが顔イメージを分析する方法を説明するための例示図である。
メイクアップ分析部122は、メイクアップを分析するために顔の各領域を検出することができる。具体的には、本発明の一実施形態によると、メイクアップ分析部122は、受信された顔イメージを前処理することができる。メイクアップ分析部122は、前処理された顔イメージを複数の領域に分割し、分割された各領域を既に保存された顔領域イメージと比較して目、鼻、口などを検出することができる。
本発明の別の実施形態によると、メイクアップ分析部122は、事前訓練モデル(pre−trained model)を用いて顔の各領域を認識することができる。事前訓練モデル(pre−trained model)は、既存の畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)モデルの一部を活用したものである。事前訓練モデル(pre−trained model)を顔写真学習に用いて目、鼻、口などを認識するようにできる。事前訓練モデル(pre−trained model)を用いると、分析に使用するデータの量が少ない場合生じることがある過適合(overfitting)の問題を緩和することができる。
図11に示されたように、メイクアップ分析部122は、顔イメージ1100の目領域1151、1152、鼻領域1153及び口領域1154、1155を認識することができる。メイクアップ分析部122は、認識された目領域、鼻領域及び口領域に基づいてメイクアップ評価領域を分析することができる。すなわち、メイクアップ分析部122は、顔イメージ1100のベース、アイブロウ、アイ、リップ、ブラッシャー及びシェーディングメイクアップを分析することができる。
次に、図12は、本発明の第1実施形態によるメイクアップ分析部が顔イメージのメイクアップを分析する方法を説明するための例示図である。
メイクアップ分析部122は、移動端末機10から受信された顔イメージをメイクアップ評価データベース114に含まれた複数のイメージと比較することができる。メイクアップ分析部122は、受信された顔イメージと類似のイメージデータをメイクアップ評価データベース114から少なくとも一つ以上を抽出することができる。
特に、メイクアップ分析部122は、メイクアップ領域ごとに受信された顔イメージと類似のイメージデータとを抽出することができる。具体的には、メイクアップ分析部122は、顔イメージのベースと類似のベースとを含む少なくとも一つ以上のイメージデータを抽出し、顔イメージのアイブロウと類似のアイブロウを含む少なくとも一つ以上のイメージデータを抽出する。
メイクアップ分析部122は、抽出されたイメージデータに対応するスコアを獲得して、図12に示されたようなメイクアップ分析グラフ1200を生成することができる。メイクアップ分析グラフ1200は、抽出されたイメージデータのスコア分布を示す。
具体的には、メイクアップ分析部122は、ベースが類似のものと抽出された少なくとも一つ以上のイメージデータと関連して、獲得されたスコアをベース領域1201のスコア領域にマッピングさせることができる。同様に、メイクアップ分析部122は、アイブロウが類似のものと抽出された少なくとも一つ以上のイメージデータと関連して獲得されたスコアをアイブロウ領域1202のスコア領域にマッピングさせることができる。メイクアップ分析部122は、アイ領域1203、リップ領域1204、ブラッシャー及びシェーディング領域1205の全てにスコアをマッピングさせてメイクアップ分析グラフ1200を生成することができる。
メイクアップ分析部122は、このようにメイクアップ分析グラフ1200を生成して、顔イメージのメイクアップを分析することができる。しかし、これは例示的なもので、メイクアップ分析部122は他の方法を介してメイクアップを分析することもできる。
再び、図4を説明する。
メイクアップサーバー100のメイクアップスコア出力部123は、メイクアップ分析結果に基づいて顔イメージのメイクアップスコアを算出することができる(S117)。
メイクアップスコア出力部123は、メイクアップ分析グラフ1200に基づいて顔イメージのメイクアップスコアを算出することができる。
具体的には、メイクアップスコア出力部123は、メイクアップ分析グラフ1200から各領域ごとにマッピングされたスコアが最も多いスコアを獲得して算出することができる。
例えば、図12を参照すると、メイクアップスコア出力部123は、ベース領域1201のスコアを5点、アイブロウ領域1202のスコアを9点、アイ領域1203のスコアを3点、リップ領域1203のスコアを4.5点、ブラッシャー及びシェーディング領域1205のスコアを8点と獲得して、算出することができる。
メイクアップサーバー100のメイクアップスコア学習部115は、顔イメージ及びそれに対応するメイクアップスコアを学習することができる(S119)。
メイクアップスコア学習部115は、顔イメージ及びそれに対応するメイクアップスコアを機械学習することができる。特に、メイクアップスコア学習部115は、ディープラーニング(Deep Learning)技術を用いてメイクアップスコア算出方法を学習することができる。
ディープラーニング技術は、機械学習技術の一部であって、入力と出力との間にある人工ニューロンを複数の段に積んで連結した人工ニューラルネットワーク技法を用いる。
すなわち、メイクアップスコア学習部115は、既に保存されているメイクアップスコアデータ及び算出されたメイクアップスコアを用いてメイクアップスコア算出方法を機械学習することができる。
特に、メイクアップスコア学習部115は、畳み込みニューラルネットワーク(CNN)を用いて顔イメージ及びそれに対応するメイクアップスコアを学習することができる。畳み込みニューラルネットワークは、一つまたは複数の畳み込み階層とその上に上げられた一般的な人工ニューラルネットワーク階層で形成され、加重値と統合階層(pooling layer)をさらに活用する。畳み込みニューラルネットワークは、このような構造のおかげで2次元構造の入力データを十分に活用することができる。
メイクアップスコア学習部115は、畳み込みニューラルネットワークを用いて、既存メイクアップ評価データベース114に新たに認識された顔イメージの特徴を追加してメイクアップスコア算出方法を機械学習することができる。
したがって、メイクアップスコア学習部115は、既存メイクアップ専門家のメイクアップ評価のための入力に基づいて生成されたメイクアップスコアデータに新たに算出した顔イメージのスコアを追加して、メイクアップスコア算出方法を機械学習することができる。
このように、メイクアップスコア学習部115がメイクアップスコアを学習すると、新しいメイクアップイメージが与えられたとき、実際のメイクアップ専門家の評価と類似するように評価することができる効果がある。これを介して、ユーザにより信頼性あるメイクアップ評価サービスを提供することができる効果がある。
メイクアップスコア学習部115は、学習したメイクアップスコアをメイクアップ評価データベースに保存するように制御することができる。
次に、図13は、本発明の第1実施形態による再生成されたメイクアップ評価データベースを説明するための例示図である。
前述した一実施形態によるメイクアップ評価データベース114を用いて再生成されたメイクアップ評価データベースを説明する。
図13に示されたように、メイクアップ評価データベース114は、既存メイクアップ専門家の評価に基づいたデータ1301に新たに算出された顔イメージスコアデータ1302をさらに保存することができる。
制御部130は、メイクアップ評価データベース114に新たに算出された顔イメージスコアデータを追加させることによって、より客観的なメイクアップスコアを算出することができる。
再び、図4を説明する。
メイクアップサーバー100の無線通信部140は、算出されたメイクアップスコアをアプリケーションサーバー200に伝送し(S120)、アプリケーションサーバー200は、受信されたメイクアップスコアを移動端末機10に伝送することができる(S121)。
移動端末機10の無線通信部11は、メイクアップスコアをアプリケーションサーバー200から受信することができる。実施形態にしたがって、移動端末機10は、メイクアップスコアをメイクアップサーバー100から直接受信することもできる。
移動端末機10のディスプレイ部14は、受信されたメイクアップスコアを表示することができる。
次に図14a及び図14b、図15ないし図18は、本発明の多様な実施形態によるメイクアップスコアを説明するための図である。
最初に、図14a及び図14bは、本発明の一実施形態によるメイクアップスコア画面を説明するための例示図である。
ディスプレイ部14は、図14a及び図14bに示されたようにメイクアップ評価結果画面を表示することができる。具体的には、図14aに示されたメイクアップスコア画面は、ユーザによって選択されたメイクアップテーマで評価されたメイクアップスコアを示し、図14bに示されたメイクアップスコア画面は、最高スコアと評価されたメイクアップテーマに応じたメイクアップスコアを示す。
最初に、メイクアップ評価結果画面を構成するそれぞれの構成要素を説明する。
メイクアップ評価結果画面は、顔イメージウィンドウ1401、メイクアップテーマウィンドウ1402、総合スコアウィンドウ1403、領域別スコアウィンドウ1404及びメイクアップ再評価アイコン1405を含むことができる。
顔イメージウィンドウ1401は、メイクアップサーバー100によって分析された顔イメージを含む。これを介して、ユーザは、評価を受けようと意図した顔イメージが正しく評価されたかを再確認することができる。
メイクアップテーマウィンドウ1402は、メイクアップ評価のもとになったメイクアップテーマを示す。メイクアップ評価は、同じ顔イメージでもメイクアップテーマに応じて異なることがある。したがって、ユーザがメイクアップテーマを正しく選択したのかを示す。
総合スコアウィンドウ1403は、顔イメージのメイクアップ評価結果を総合したスコアを示す。例えば、総合スコアウィンドウ1403は、顔領域ごとのスコアの平均値を示すことができる。これを介して、ユーザは、自分のメイクアップ結果を一つの指標で確認することができる。
領域別スコアウィンドウ1404は、顔イメージを領域ごとに区分してメイクアップを評価した結果を示す。これを介して、ユーザは、どの領域に対するメイクアップを補完しなければならないかを容易に分かる効果がある。
メイクアップ再評価アイコン1405は、新しい顔イメージを用いてメイクアップ評価を受けるためのアイコンである。制御部17は、メイクアップ再評価アイコン1405を選択する命令を受信することによって図10に示されたようなメイクアップ評価要請画面を表示することができる。
移動端末機10は、このようにメイクアップ評価結果画面を表示して、メイクアップ専門家による評価と類似の評価サービスを提供することができる。
本発明の一実施形態によると、図14aに示されたように移動端末機10は、選択されたメイクアップテーマで評価したメイクアップ評価結果画面を表示することができる。
具体的には、メイクアップサーバー100は、ユーザによるメイクアップテーマ選択を受信すると、選択されたテーマに応じて顔イメージのメイクアップスコアを算出することができる。この場合、移動端末機10は、メイクアップテーマウィンドウ1402にユーザによって選択されたメイクアップテーマを表示し、総合スコアウィンドウ1403及び領域別のスコアウィンドウ1404に選択されたメイクアップテーマに応じたスコアを表示することができる。
本発明の別の実施形態によると、図14bに示されたように移動端末機10は、最高スコアと評価されたメイクアップテーマにメイクアップ評価結果画面を表示することができる。
具体的には、メイクアップサーバー100は、メイクアップテーマごとに少なくとも一つ以上の顔イメージのメイクアップスコアを算出することができる。メイクアップサーバー100は、メイクアップテーマごとに算出されたスコアの中で最高スコアを示すメイクアップテーマを獲得することができる。メイクアップサーバー100は、メイクアップテーマ別のメイクアップスコアを全て移動端末機10に伝送するか、または最高スコア及び最高スコアに対応するメイクアップテーマのみを移動端末機10に伝送することができる。
この場合、移動端末機10は、メイクアップテーマウィンドウ1402に最高スコアと評価されたメイクアップテーマを表示し、総合スコアウィンドウ1402及び領域別のスコアウィンドウ1404に最高スコアと評価されたメイクアップテーマに応じたスコアを表示することができる。
本発明のさらに別の実施形態によると、移動端末機10は、ユーザによって選択されたメイクアップテーマに応じたスコアと、最高スコアと評価されたメイクアップテーマに応じたスコアを同時に表示することもできる。
次に、図15は、本発明の第1実施形態によるメイクアップ評価にメイクアップテーマが及ぶ影響を説明するための図である。
図14a及び図14bで説明したように、移動端末機10のディスプレイ部14は、メイクアップ評価結果画面を表示することができる。
図15のメイクアップ評価結果画面は、図14a及び図14bと比較して、同じ顔イメージを対象にするが、メイクアップテーマを異にした場合のメイクアップ評価結果画面である。すなわち、図14a及び図14bと比較して、顔イメージウィンドウ1501は、同じ顔イメージを含むが、メイクアップテーマ1502が異なる。
これにしたがって、メイクアップ評価結果が異なることが分かる。すなわち、総合スコアウィンドウ1503と領域別のスコアウィンドウ1404が図14a及び図14bと比較して異なるスコアを示すことを確認することができる。
これを介して、ユーザは、メイクアップスキルだけでなく、メイクアップテーマに適したメイクアップを学ぶことができる効果が予想される。
次に、図16は、本発明の第1実施形態による領域別のスコアウィンドウを説明するための図である。
領域別のスコアウィンドウ1604は、メイクアップテーマに基づいた各領域別のスコアを示す。したがって、領域別のスコアウィンドウ1604は、メイクアップ領域によって異なるスコアを示すことができる。特に、いずれか一つの顔領域と関連して、メイクアップテーマと完全に異なるメイクアップと判断されれば、0点処理される領域があり得る。
これを介して、ユーザに顔領域別のメイクアップをガイドすることができる効果がある。
次に、図17は、本発明の第1実施形態によるメイクアップのバランス評価を説明するための図である。
図17を参照すると、総合スコア1703は0点を示すが、領域別のスコアウィンドウ1704の各領域は0点ではないことを確認することができる。これは、顔全体のメイクアップバランス(balance)があわないことを示すことができる。すなわち、メイクアップ評価システムは、顔領域別メイクアップを評価するだけでなく顔の全体的なメイクアップバランスまで評価することができる。
次に、図18は、本発明の第1実施形態によるノーメイクアップ評価結果を説明するための図である。
図18を参照すると、総合スコアウィンドウ1803及び領域別のスコアウィンドウ1804は、全て最低点を示す。これは、顔イメージウィンドウ1801の顔がノーメイクアップと判断された場合である。このように、ノーメイクアップの顔に対応するスコアで最低点を算出することによって、メイクアップ評価システムの信頼度を向上させることができる。
次に、図19は、本発明の第2実施形態によるメイクアップサーバーを説明するためのブロック図である。
メイクアップサーバー100は、メイクアップDB管理部110、メイクアップ評価部120、制御部130及び無線通信部140で構成され得る。
最初に、メイクアップDB管理部110を説明する。
メイクアップDB管理部110は、メイクアップ評価と関連した多様なデータを保存することができる。
メイクアップDB管理部110は、メイクアップを評価するために顔領域に適用される少なくとも一つ以上の評価アルゴリズムを保存することができる。ここで、顔領域は、イメージに含まれた顔領域であって、後述する領域検出部124によって検出される顔領域を意味することができる。また、顔領域は、顔全体を含む領域と、顔を構成する顔各部位領域とを含むことができる。例えば、顔領域は、顔全体領域、眉毛領域、目領域、鼻領域、頬領域、額領域、顎領域及び唇領域などの少なくとも一つ以上を含むことができる。
評価アルゴリズムは、イメージに含まれた顔領域を構成する少なくとも一つ以上のピクセルのRGB値を用いるアルゴリズムであり得る。すなわち、イメージは、RGB値に表現されるイメージであり得、評価アルゴリズムは、顔領域を構成するピクセルのRGB値を用いるアルゴリズムであり得る。
また、評価アルゴリズムは、イメージに含まれた顔領域を構成する少なくとも一つ以上のピクセルのRGB値をLab色相値に変換し、変換されたLab色相値を用いるアルゴリズムであり得る。すなわち、評価アルゴリズムは、RGB値に表現されるイメージをLab色空間に変換し、Lab色相値を介してメイクアップを評価するアルゴリズムであり得る。Lab色相値は、出力媒体に応じて色が変わらないため、Lab色相値を用いる評価アルゴリズムを適用するとき、出力媒体と関係せずに一貫した評価が可能で、メイクアップ評価の信頼性を確保できるという利点がある。
また、メイクアップDB管理部110は、メイクアップ評価に用いられるスコアテーブル(図34参照)を保存することができる。具体的には、スコアテーブルは、複数の第1サンプル色相と複数の第2サンプル色相とを含むことができる。ここで、第1サンプル色相は、肌色相を代表するサンプル色相であり、第2サンプル色相は、唇色相、ブラッシャー色相またはアイシャドー色相を代表するサンプル色相であり得る。
複数の第1サンプル色相それぞれと複数の第2サンプル色相それぞれは、マッピングされてあり得、一対の第1サンプル色相と第2サンプル色相にはスコアデータがマッピングされてあり得る。すなわち、スコアテーブルは、複数の第1サンプル色相のいずれか一つと複数の第2サンプル色相のいずれか一つとにマッピングされるスコアデータで構成され得る。
このようなスコアテーブルは、メイクアップの色相調和を評価する場合、用いられることができる。例えば、メイクアップ分析部122は、ユーザの顔領域から第1色相と、第2色相とを検出し、第1色相と第2色相に基づいてメイクアップの色相調和を評価することができる。具体的には、メイクアップ分析部122は、第1色相と同じ色相を複数の第1サンプル色相から検索し、第2色相と同じ色相を複数の第2サンプル色相から検索し、検索された一対の色相にマッピングされているスコアを獲得して色相調和を評価することができる。
また、一実施形態によると、スコアテーブルは、メイクアップ専門家のメイクアップ評価のための入力に基づいて生成されたテーブルであり得る。すなわち、スコアテーブルは、メイクアップ専門家が予め色相組合せに対してスコアを入力しておいたテーブルであり得る。
後述するメイクアップ分析部122がメイクアップ専門家のメイクアップ評価のための入力に基づいて生成されたテーブルを用いてメイクアップを評価する場合、専門性に基盤したメイクアップ評価結果をユーザに提供できるという利点がある。これにしたがって、メイクアップ評価システムの信頼度が増加され得る。
次に、メイクアップ評価部120を具体的に説明する。
メイクアップ評価部120は、領域検出部124及びメイクアップ分析部122で構成され得る。
領域検出部124は、写真または動画に含まれた顔イメージを獲得することができる。具体的には、領域検出部124は、無線通信部140を介して写真または動画を受信し、写真または動画からメイクアップ評価の対象となる顔イメージを検出することができる。
また、領域検出部124は、顔イメージで顔の各領域を検出することができる。例えば、領域検出部124は、眉毛領域、目領域、鼻領域、頬領域、口域及び顎領域の少なくとも一つ以上を検出することができる。
例えば、領域検出部124は、顔認識(face recognition)アルゴリズムを介して顔と、顔各部位を検出することができる。
また、領域検出部124は、顔を認識するとき、ディープラーニング技術を介して顔及び顔部位をより正確に認識できるという利点がある。
メイクアップ分析部122は、領域検出部124が獲得した顔領域及び顔各領域のメイクアップを分析する。例えば、メイクアップ分析部122は、顔領域及び顔各領域をメイクアップDB管理部110に保存されたスコアテーブル及び評価アルゴリズムに基づいてメイクアップを分析することができる。具体的な方法は後述する。
実施形態にしたがって、メイクアップ分析部122は、メイクアップ分析結果に基づいて顔イメージのメイクアップスコアを算出する。例えば、メイクアップ分析部122は、メイクアップ総合スコアと顔領域別のスコアとをそれぞれ算出することができる。
制御部130は、メイクアップサーバー100の全般的な動作を制御する。具体的には、制御部130は、メイクアップDB管理部110、メイクアップ評価部120及び無線通信部140の動作を制御することができる。
無線通信部140は、外部とデータを送受信することができる。例えば、無線通信部140は、移動端末機10またはアプリケーションサーバー200からイメージデータを受信することができる。無線通信部140は、受信されたイメージデータをメイクアップDB管理部110またはメイクアップ評価部120に伝達することができる。
一方、以下で説明する実施形態は、例えば、ソフトウェア、ハードウェアまたはこれらを組み合わせたものを用いてコンピュータまたはこれと類似の装置で読み取り可能な記録媒体内で具現され得る。
次に、図20は、本発明の第2実施形態によるメイクアップ評価システムの動作方法を示すラダーダイヤグラムである。
図20においては、説明の便宜のために移動端末機10は、メイクアップサーバー100と信号を送受信し、図1で説明したアプリケーションサーバー200は、メイクアップサーバー100に含まれていると仮定する。
移動端末機10の制御部17は、イメージを獲得することができる(S11)。
制御部17は、無線通信部11またはカメラ13を介してイメージを獲得することができる。無線通信部11は、外部からイメージを受信することができる。カメラ13は、写真または動画を撮影してイメージを獲得することができる。
ユーザは、メイクアップ評価を受けるためにメイクアップされた顔イメージを移動端末機10に送信または入力することができる。例えば、ユーザは、外部に保存されたイメージを移動端末機10に伝送するか、または移動端末機10のカメラ13でメイクアップされた顔を撮影することができる。
移動端末機10の制御部17は、メイクアップ評価要請命令を受信することができる(S11)。
制御部17は、入力部12を介してメイクアップ評価要請命令を受信することができる。入力部12は、少なくとも一つ以上のイメージを選択する命令を受信した後、メイクアップ評価要請命令を受信することができる。
ユーザは、メイクアップ評価を受けたいイメージを選択した後、メイクアップ評価要請を入力部12に入力することができる。
また、制御部17は、メイクアップ評価要請命令を受信するとき、入力部12を介してメイクアップテーマ選択命令をさらに受信することができる。メイクアップテーマは、ナチュラル(natural)、ラブリー(lovely)またはスモーキー(smoky)などを含むことができる。メイクアップテーマに応じてメイクアップ評価は異なることがある。したがって、より正確なメイクアップ評価のために制御部17は、メイクアップ評価要請命令を受信する場合、メイクアップテーマを選択する命令を一緒に受信することができる。
移動端末機10の制御部17は、メイクアップサーバー100にメイクアップ評価要請信号を伝送することができる(S15)。
制御部17は、無線通信部11を介してメイクアップサーバー100にメイクアップ評価要請信号を伝送するように制御することができる。
メイクアップ評価要請信号は、イメージデータを含むことができる。すなわち、制御部17は、ステップS11で獲得したイメージに対応するイメージデータを含むメイクアップ評価要請信号をメイクアップサーバー100に伝送することができる。
メイクアップ評価要請信号は、イメージデータによるイメージに含まれた顔に対応するメイクアップ評価を要請する信号であり得る。
メイクアップサーバー100の無線通信部140は、メイクアップ評価要請信号を受信することができる。
メイクアップサーバー100の制御部130は、メイクアップ評価要請信号に含まれたイメージデータを分析することができる。具体的には、メイクアップ評価要請信号に含まれたイメージデータは、イメージ送信のために変調されたデータであり得る。制御部130は、メイクアップ評価要請信号に含まれたイメージデータをイメージに復元することができる。
メイクアップサーバー100の制御部130は、メイクアップ評価要請信号を介して受信されたイメージから既に設定された領域を検出することができる(S17)。
制御部130は、メイクアップ評価の対象となる少なくとも一つ以上の評価部門を予め設定してあり得る。制御部130は、評価部門に対応する少なくとも一つ以上の領域をイメージから検出することができる。
例えば、制御部130は、眉毛(eyebrow)部門、クマ(dark circle)部門、色相調和(hue harmony)部門、唇(lip)部門及び傷(blemish)部門の少なくとも一つ以上をメイクアップ評価の対象となる評価部門に設定してあり得る。しかし、前で並べた評価部門は、説明の便宜のために例示としてあげたことに過ぎないので、これに制限される必要はない。
制御部130は、眉毛部門を評価するための眉毛領域、クマ部門を評価するためのクマ領域、色相調和部門を評価するための色相調和領域、唇部門を評価するための唇領域及び傷部門を評価するための傷領域の少なくとも一つ以上の領域を受信されたイメージから検出することができる。
このとき、眉毛領域、クマ領域などのようなそれぞれの領域は、該当の部位に制限されず、領域別の評価アルゴリズムによって少なくとも一つ以上の部位を含むことができる。例えば、眉毛領域は、眉毛部位に制限されなく、眉毛部位及び鼻部位などを含むことができる。これは、眉毛領域を評価することにおいて眉毛の模様、色相などのみを評価することではなく、眉毛部位と顔全体の調和などを考慮して評価するためのことである。それぞれの領域に対応する検出部位は、後述する領域別の評価アルゴリズムを介して詳しく説明するようにする。
制御部130は、検出された少なくとも一つ以上の領域に各領域別の評価アルゴリズムを適用して評価することができる(S19)。
制御部130は、検出された領域に応じて異なる評価アルゴリズムを適用することができる。例えば、制御部130は、眉毛領域には第1評価アルゴリズムを適用し、クマ領域には第2評価アルゴリズムを適用することができる。
このように、本発明の実施形態によると、検出された複数の領域に同じ評価アルゴリズムを適用して一貫して評価することではなく、検出された領域に応じてそれぞれ異なる評価アルゴリズムを適用してメイクアップをより精密に評価できるという利点がある。
次に、制御部130がステップS17で検出された領域それぞれに適用する少なくとも一つ以上の評価アルゴリズムを説明する。
最初に、図21ないし図25は、本発明の第2実施形態による眉毛部門を評価するとき、適用される評価アルゴリズムを説明するための図であり、図26は、本発明の第2実施形態による眉毛部門の評価結果を表示する方法を説明するための例示図である。
本発明の実施形態によると、メイクアップサーバー100のメイクアップDB管理部110は、眉毛部門を評価するための評価アルゴリズムを保存することができる。制御部130は、ステップS17で領域検出部124を介して眉毛領域を検出し、メイクアップ分析部122を介して検出された眉毛領域に評価アルゴリズムを適用することができる。
眉毛部門を評価するための評価アルゴリズムは、複数のアルゴリズムを含むことができ、それぞれのアルゴリズムは、眉毛部門を異なるように評価することができる。例えば、眉毛部門を評価するための評価アルゴリズムは、眉毛長さを評価するアルゴリズム、水平程度を評価するアルゴリズム、眉毛前方長さを評価するアルゴリズム及び眉毛色相の均一性を評価するアルゴリズムなどを含むことができる。
メイクアップ分析部122は、眉毛領域に評価アルゴリズムを適用するとき、眉毛長さ、水平程度、眉毛将来が及び眉毛色相の均一性を皆分析及び評価することができる。
図21を参考して、制御部130が眉毛領域の眉毛長さを評価する方法を説明する。
領域検出部124は、イメージからいずれか一つの目の外側末端である第1地点501と鼻の外側末端である第2地点502を検出することができる。このとき、領域検出部124は、右目の外側末端地点を検出した場合、鼻の右側末端を検出し、左目の外側末端地点を検出した場合、鼻の左側末端を検出することができる。
メイクアップ分析部122は、第1地点501と第2地点502を連結する直線510を獲得することができる。
メイクアップ分析部122は、眉毛の外側末端である第3地点503を検出し、第3地点503と直線510との距離d1を算出することができる。
メイクアップ分析部122は、算出された距離d1を介して眉毛長さの適切性を判断することができる。例えば、メイクアップ分析部122は、算出された距離d1が第1距離以下であると、眉毛長さを‘短い'と判断し、算出された距離d1が第1距離より長くて第2距離以下であると、眉毛長さを‘適正'と判断し、算出された距離d1が第2距離より長いと、眉毛長さを‘長い'と判断することができる。しかし、このような判断方法は例示的なものに過ぎないので、これに制限される必要はない。
図22を参考して、制御部130が眉毛領域の水平程度を評価する方法を説明する。
領域検出部124は、イメージからいずれか一つの眉毛を基準に眉毛の内側末端である第1地点601と、同じ眉毛の外側末端である第2地点602を検出することができる。
領域検出部124は、第1地点601と第2地点602を連結する直線610を獲得し、直線と水平線620との角度θを算出することができる。
メイクアップ分析部122は、算出された角度θを介して眉毛の水平程度の適切性を判断することができる。
例えば、メイクアップ分析部122は、算出された角度θが第1角度以下であると、眉毛の水平程度を‘直線型'と判断し、算出された角度θが第1角度より大きくて第2角度以下であると、眉毛の水平程度を‘一般型'と判断し、算出された角度θが第2角度より大きいと、眉毛の水平程度を‘アーチ型'と判断することができる。しかし、このような判断方法は例示的なことに過ぎないので、これに制限される必要はない。
また、メイクアップ分析部122は、‘直線型'、‘一般型'または‘アーチ型'のような眉毛の水平程度による眉毛類型を判断し、判断したそれぞれの類型によって眉毛模様のスコアを算出することができる。例えば、眉毛類型による眉毛模様を示すデータを予め保存してあり得、メイクアップ分析部122は、判断した眉毛類型による眉毛模様データをイメージから獲得された眉毛模様のデータと比較し、比較した結果、保存されたデータとイメージから獲得されたデータとの差が小さいほど眉毛スコアを高く算出する方式でスコアを決定することもできる。
図23を参考して、制御部130が眉毛領域の眉毛の前方長さを評価する方法を説明する。
領域検出部124は、イメージからいずれか一つの眉毛を基準に眉毛の内側末端である第1地点701と鼻の外側末端である第2地点702を検出することができる。このとき、領域検出部124は、右側眉毛の内側末端地点を検出した場合、鼻の右側末端を検出し、左側眉毛の内側末端地点を検出した場合、鼻の左側末端を検出することができる。
メイクアップ分析部122は、第2地点702を垂直方向に通る直線710を獲得し、直線710と第1地点701との間の距離d2を獲得することができる。
メイクアップ分析部122は、算出された距離d2を介して眉毛の前方長さの適切性を判断することができる。例えば、メイクアップ分析部122は、算出された距離d2が第1距離以下であると、眉毛の前方長さを‘短い'と判断し、算出された距離d2が第1距離より長くて第2距離以下であると、眉毛前方長さを‘適正'と判断し、算出された距離d2が第2距離より長いと、眉毛の前方長さを‘長い'と判断することができる。しかし、このような判断方法は例示的なことに過ぎないので、これに制限される必要はない。
図21ないし図23で説明した方法によると、人ごとに異なる目のサイズ、鼻のサイズなどを反映したメイクアップ評価ができるという利点がある。すなわち、眉毛は、5cmが適当だと一貫して判断することではなく、人の目の長さ、鼻の長さ、眉毛の位置などユーザごとに異なる顔特性を考慮してメイクアップの評価ができるという利点がある。
図24及び図25を参考して、制御部130は、眉毛領域の眉毛色相の均一性を評価する方法を説明する。眉毛色相の均一性は、眉毛の色相が均一にメイクアップされたかを示す項目であり得る。
制御部130は、眉毛色相の均一性を判断するために眉毛判断動作を行うことができる。
領域検出部124は、眉毛から第1ないし第5地点801ないし805を検出することができる。具体的には、領域検出部124は、眉毛の外側末端である第1地点801と眉毛の内側末端である第2地点802を検出し、眉毛の第1地点801と第2地点802との中である第3地点803を検出し、眉毛の第1地点801と第3地点803との中である第4地点804と、第2地点802と第3地点803との中である第5地点805を検出することができる。
図24(a)に示されたように、メイクアップ分析部122は、第1ないし第5地点801ないし805を連結する曲線810を獲得することができる。
図24(b)に示されたように、メイクアップ分析部122は、曲線810に沿って曲線の各地点で垂直線820を獲得し、垂直線820から映像の値を抽出することができる。ここで、映像の価はRGB値を含むことができ、垂直線820は所定の長さを有する直線であり得る。
メイクアップ分析部122は、垂直線820に沿って抽出されたRGB値の中で最大値を獲得し、最大値と、最大値から決定された割合以内の映像の値を有する地点を眉毛と判断することができる。例えば、メイクアップ分析部122は、抽出された映像の値が40、41、120、122、126、43、40の場合、最大値126を獲得し、最大値126から20%以内の映像の値である120及び122の地点と126の地点を眉毛と判断することができる。
メイクアップ分析部122は、前述した眉毛判断動作をイメージのgray channel、red channel及びblue channelでそれぞれ行うことができる。
図25(a)が原本イメージである場合、メイクアップ分析部122は、gray channelで眉毛判断動作を行って図25(b)に示されたように第1領域901を眉毛と判断することができる。また、メイクアップ分析部122は、red channelで眉毛判断動作を行って図25(c)に示されたように第2領域902を眉毛と判断することができる。
メイクアップ分析部122は、第1領域901と第2領域902の類似度を測定することができる。メイクアップ分析部122は、第1領域901と第2領域902の重なる領域の広さを介して類似度を測定することができる。すなわち、メイクアップ分析部122は、第1領域901と第2領域902の重なる領域の広さが広いほど類似度を高く算出し、重なる領域の広さが狭いほど類似度を低く算出することができる。
メイクアップ分析部122は、算出された類似度を介して眉毛の均一性を判断することができる。例えば、メイクアップ分析部122は、算出された類似度が第1基準値以下であると、眉毛均一性を‘バラ付き'と判断し、算出された類似度が第2基準値を超過すると。眉毛均一性を‘均一'と判断することができる。しかし、このような判断方法は例示的なことに過ぎないので、これに制限される必要はない。
一方、メイクアップ分析部122は、red channelで眉毛と判断した第2領域902の広さが基準広さ以下の場合には、blue channelイメージで眉毛判断動作を行って図25(d)に示されたように第3領域903を眉毛と判断することができる。メイクアップ分析部122は、第1領域901と第3領域903の類似度を測定して前述したように眉毛均一性を判断することができる。
無線通信部140は、メイクアップを評価した後に評価結果信号を移動端末機10に伝送することができ、移動端末機10のディスプレイ部14は、評価結果を表示することができる。
図26は、眉毛部門に対するメイクアップ評価結果を示す例示図であり得る。ディスプレイ部14は、眉毛長さ、水平程度、眉毛の前方長さ及び眉毛均一性に対する評価結果を表示することができる。しかし、図26に示された評価結果を示す方法は例示的なことに過ぎない。
次に、図27及び図28は、本発明の第2実施形態によるクマ部門を評価するとき、適用される評価アルゴリズムを説明するための図であり、図29は、本発明の実施形態によるクマ部門の評価結果を表示する方法を説明するための例示図である。
領域検出部124は、目領域から複数の地点を検出することができる。例えば、領域検出部124は、目領域から第1ないし第4地点1101ないし1104を検出することができ、第1地点1101は目の外側末端地点であり、第2地点1102は目の内側末端地点であり、第3地点1103は目の上側末端地点であり、第4第店1104は目の下側末端地点であり得る。
メイクアップ分析部121は、第1及び第2地点1101、1102を連結する直線距離を測定して目の水平距離11を算出し、第3及び第4地点1103、1104を連結する直線距離を測定して目の垂直距離12を算出することができる。
メイクアップ分析部121は、第1ないし第4地点1101ないし1104と水平距離11及び垂直距離12に基づいて基準線1110を獲得することができる。例えば、メイクアップ分析部121は、第3地点1103から垂直距離12だけ下に離隔した位置に水平距離11の所定の割合に該当する長さを有する基準線1110を獲得することができる。基準線1110の長さは、水平距離11の80%であり得るが、これは例示的なことに過ぎない。
図28を参考すると、メイクアップ分析部121は、基準線1110の左側1/3領域1111のRGB値の中で最大値を抽出し、基準線1110の右側1/3領域1112のRGB値の中で最大値を抽出し、基準線1110の中央1/2領域1113のRGB値の中で最小値を抽出することができる。
メイクアップ分析部121は、抽出された二つの最大値の中で小さい値を獲得し、獲得された小さい値と前で抽出された最小値の差を算出することができる。メイクアップ分析部121は、算出された差に基づいてクマの濃い程度を評価することができる。
本発明によると、第1ないし第4地点1101ないし1104と目の距離を介してクマ対象領域を検出することができ、クマ対象領域で両側のRGB値を介して周辺色を獲得し、中のRGB値を介して目の下で最も濃い部分の色を獲得して、クマの濃い程度をより精密に測定できるという利点がある。すなわち、単純にクマを測定することではなく、クマが周辺色と類似するようによくカバーされるようにメイクアップしたかを評価できるという利点がある。
次に、図30ないし図34は、本発明の第2実施形態による色相調和部門を評価するとき、適用される評価アルゴリズムを説明するための図であり、図35は、本発明の第2実施形態による色相調和部門の評価結果を表示する方法を説明するための例示図である。
最初に、制御部130は、色を抽出するように制御することができる。具体的には、図30(a)を参照すると、領域検出部124は、イメージに含まれた顔から鼻領域3001を検出することができる。特に、領域検出部124は鼻面領域を検出することができる。メイクアップ分析部122は、鼻領域3001に含まれた複数の地点に対応する複数のRGB色相値を抽出し、抽出されたRGB色相値の平均値を算出することができる。メイクアップ分析部122は、算出されたRGB平均値に対応する色相を肌色として抽出することができる。
メイクアップ分析部122は、抽出された色をLab色空間に分布させて、抽出された色と最も近い色を検出し、検出された色を肌色として決定することができる。図30(b)に示されたように、メイクアップDB管理部110は、複数の代表肌色相を保存しており、メイクアップ分析部122は、検出された色と最も近い色を保存された代表色相で獲得することができ、獲得された色相を肌色として決定することができる。例えば、図30でメイクアップ分析部122は、s5を肌色として決定することができる。
次に、制御部130は、唇色を抽出するように制御することができる。具体的には、図31(a)を参照すると、領域検出部124は、イメージに含まれた顔から唇領域3101を検出することができる。特に、領域検出部124は、下唇領域を検出することができる。メイクアップ分析部122は、唇領域3101に含まれた複数の地点に対応する複数のRGB色相値を抽出し、抽出されたRGB色相値の平均を算出することができる。メイクアップ分析部122は、算出されたRGB平均値に対応する色相を唇色として抽出することができる。
メイクアップ分析部122は、抽出された唇色をLab色空間に分布して抽出された唇色と最も近い色を検出し、検出された色を唇色として決定することができる。図31(b)に示されたように、メイクアップDB管理部110は、複数の代表唇色相を保存しており、メイクアップ分析部122は、複数の代表唇色相の中で検出された唇色と最も近い色相を獲得することができ、獲得された色相を唇色として決定することができる。例えば、図31でメイクアップ分析部122は、l7を唇色として決定することができる。
次に、制御部130は、ブラッシャー色を抽出するように制御することができる。具体的には、図32(a)を参照すると、領域検出部124は、イメージに含まれた顔で頬領域3201を検出することができる。頬領域3201は、左側頬領域と右側頬領域を両方とも含むことができる。
メイクアップ分析部122は、ブラッシャー色を抽出する場合、障害除去動作を行うことができる。ここで、障害除去動作は、髪の毛などによって頬領域が隠れてブラッシャー色相が間違って決定される場合を最小化するための動作であり得る。メイクアップ分析部122は、障害除去動作を行う場合、イメージをgrayイメージに変換した後、映像の値が所定の基準値より小さい領域は除去することができ、例えば、所定の基準値は0.35であり得るが、これは例示としてあげたことに過ぎないので、ここに制限されない。メイクアップ分析部122は、頬領域3201のうち除去された領域を除いた残りの領域に対応する複数のRGB色相値を抽出し、抽出されたRGB色相値の平均値を算出することができる。メイクアップ分析部122は、算出されたRGB平均値に対応する色相をブラッシャー色として抽出することができる。
メイクアップ分析部122は、抽出されたブラッシャー色をLab色空間に分布して抽出されたブラッシャー色と最も近い色を検出し、検出された色をブラッシャー色として決定することができる。図32(b)に示されたように、メイクアップDB管理部110は、複数の代表ブラッシャー色相を保存しており、メイクアップ分析部122は、複数の代表ブラッシャー色相のうち検出されたブラッシャー色と最も近い色相を獲得することができ、獲得された色相をブラッシャー色として決定することができる。例えば、図32でメイクアップ分析部122は、b8をブラッシャー色として決定することができる。
一方、メイクアップ分析部122は、頬領域3201のうちLab色空間でa値が大きい値を代表ブラッシャー色として決定することもできる。
次に、制御部130は、アイシャドー色を抽出するように制御することができる。
具体的には、図33を参照すると、領域検出部124は、イメージに含まれた顔から目の上領域3301を検出することができる。目の上領域3301は、左目の上領域と右目の上領域を両方とも含むことができる。
メイクアップ分析部122は、アイシャドー色を抽出する場合、前述したような障害除去動作を行うことができる。メイクアップ分析部122は、目の上領域3301のうち障害除去動作を介して除去された領域を除いた残りの領域に対応する複数のRGB色相値を抽出し、抽出されたRGB色相値の平均を算出することができる。メイクアップ分析部122は、算出されたRGB平均値に対応する色相をアイシャドー色として抽出することができる。特に、メイクアップ分析部122は、左側アイシャドー色と右側アイシャドー色をそれぞれ抽出することができる。メイクアップ分析部122は、抽出されたアイシャドー色に基づいて代表シャドー色を決定することができる。
一実施形態によると、メイクアップ分析部122は、メイクアップテーマに応じて代表シャドー色を異なる方法で決定することができる。メイクアップ分析部122は、メイクアップテーマがナチュラル(natural)またはラブリー(lovely)の場合、抽出された左側アイシャドー色と右側アイシャドー色のうちLab色空間でa値が大きい値を代表シャドー色として決定することができる。メイクアップ分析部122は、メイクアップテーマがスモーキー(Smoky)の場合、抽出された左側アイシャドー色と右側アイシャドー色のうちLab色空間でL値が小さい値を代表シャドー色として決定することができる。これは、メイクアップテーマに応じて推薦されるアイシャドー色が異なるためであり、メイクアップテーマに応じて異なる方法で代表シャドー色を決定することによって、メイクアップがよくできたかだけでなく、テーマに合うようによくできたかまで評価できるという利点がある。
次に、決定された色、唇色、ブラッシャー色及びシャドー色で色相調和を評価する方法を説明する。
メイクアップDB管理部110は、複数の第1サンプル色相と複数の第2サンプル色相を含み、複数の第1サンプル色相のいずれか一つと複数の第2サンプル色相のいずれか一つで構成される一対のサンプル色相にスコアデータがマッピングされるスコアテーブルを保存することができる。
例えば、図34(a)を参照すると、メイクアップDB管理部110は、複数の色と複数の唇色をマッピングしてそれに対応するスコアを示す肌−唇スコアテーブルを保存することができる。メイクアップ分析部122は、決定された色と決定された唇色を肌−唇スコアテーブルで検索し、検索された色と唇色にマッピングされたスコアを獲得することができ、獲得されたスコアを肌&唇調和スコアとして判断することができる。
同様に、図34(b)を参照すると、メイクアップDB管理部110は、複数の色と複数のブラッシャー色をマッピングしてそれに対応するスコアを示す肌−ブラッシャースコアテーブルを保存することができる。メイクアップ分析部122は、肌−ブラッシャースコアテーブルで決定された色と決定されたブラッシャー色を検索し、検索された色とブラッシャー色にマッピングされたスコアを獲得することができ、獲得されたスコアを肌&ブラッシャー調和スコアとして判断することができる。
次に、肌&アイシャドー調和スコアを判断する方法を説明する。メイクアップ分析部122は、図33を介して説明した方法で決定された代表シャドー色と肌色の差を算出することができる。具体的には、メイクアップ分析部122は、代表シャドー色と肌色のa値の差とL値の差をそれぞれ算出し、算出されたa値の差とL値の差に基づいてスコアを判断することができる。同様に、メイクアップ分析部122は、メイクアップテーマに応じてスコアを異なるように判断することができる。
このように、メイクアップ分析部122は、アイシャドーの場合、肌との色相調和分析を唇色及びブラッシャーの場合とは異なるように判断することができる。これは、ブラッシャーまたは唇は、メイクアップテーマが異なっても色相系列が類似の傾向があるが、アイシャドーの場合、メイクアップテーマに応じて色相系列が完全に変わることができるためである。これにしたがって、メイクアップの色相調和部門を判断するとき、より精密に色相調和を評価できるという利点がある。
一方、メイクアップ分析部122は、色、唇色、ブラッシャー色及びシャドー色の少なくとも一つ以上を抽出するとき、色相が抽出されない色の場合、0点と判断することができる。
無線通信部140は、色相調和部門を評価した後、評価結果信号を移動端末機10に伝送することができ、移動端末機10のディスプレイ部14は、評価結果を表示することができる。
図30は、色相調和部門に対するメイクアップ評価結果を示す例示図であり得る。ディスプレイ部14は、肌&唇調和、肌&ブラッシャー調和及び肌&アイシャドー調和に対する評価結果を表示することができる。しかし、図30に示された評価結果を示す方法は例示的なことに過ぎない。
次に、図36は、本発明の第2実施形態による唇部門を評価するとき、適用される評価アルゴリズムを説明するための図であり、図37は、本発明の第2実施形態による唇部門の評価結果を表示する方法を説明するための例示図である。
領域検出部124は、イメージに含まれた顔から唇領域2001を検出することができる。検出された唇領域は、図36(a)に示されたようであり得る。
メイクアップ評価部120は、唇領域2001のメイクアップと関連して、唇均一性と唇乾燥度を評価することができる。ここで、唇均一性は、唇色相の均一性を示すことであって唇にメイクアップが均一によくできたかを示す項目であり得る。唇乾燥度は、唇がしっとりとした状態でメイクアップがよくできたかを示す項目であり得る。
最初に、メイクアップ評価部120が唇均一性を評価する方法を説明する。メイクアップ分析部122は、検出された唇領域2001をLab色空間に変換し、L空間にある映像で臨界値設定を介して唇領域のうち反射領域の映像を獲得することができる。例えば、メイクアップ分析部122は、L空間にある映像でL値が既に設定された範囲に含まれるピクセルで構成される領域を検出し、検出された領域を反射領域として決定することができる。
図36(b)は、メイクアップ分析部122によって決定された反射領域を示す例示図であり得る。ステップ1で反射領域2002のサイズが最も大きく、ステップ5に行くほど反射領域2002のサイズが減少するように示されている。
メイクアップ分析部122は、図36(a)に示されたようなイメージで唇領域のサイズを算出し、図36(b)に示されたようなイメージから検出された反射領域のサイズを算出することができる。
メイクアップ分析部122は、唇領域のサイズに対して反射領域のサイズの割合を算出することができる。メイクアップ分析部122は、算出されたサイズの割合に基づいて唇の均一性を評価することができる。すなわち、メイクアップ分析部122は、ステップ1に示された唇の場合、唇の均一性を高く評価し、ステップ5に行くほど唇の均一性を低く評価することができる。
同様に、メイクアップ評価部120は、唇乾燥度を評価することができる。
メイクアップ分析部122は、唇領域を検出し、図36(a)に示されたような唇領域イメージ2001を獲得することができる。
メイクアップ分析部122は、獲得された唇領域イメージにハイパスフィルター(high pass filter)を適用したピルトリングイメージを獲得することができる。メイクアップ分析部122は、ピルトリングイメージのうちR空間にあるイメージで臨界値設定を介して唇領域の縦しわを示すマスクイメージを獲得することができる。すなわち、メイクアップ分析部122は、唇領域のうちR値が既に設定された範囲に含まれるピクセルで構成される領域を検出し、検出された領域を示すしわ領域2002として決定することができる。しわ領域2002は、図36(b)に示された例示と類似するように段階的に獲得され得る。
メイクアップ分析部122は、図36(a)に示されたようなイメージから唇領域のサイズを算出し、図36(b)に示されたようなイメージからしわ領域2002のサイズを算出することができる。
メイクアップ分析部122は、唇領域のサイズに対してしわ領域のサイズの割合を算出することができる。メイクアップ分析部122は、算出されたサイズの割合に基づいて唇の乾燥度を評価することができる。すなわち、メイクアップ分析部122は、ステップ1に示された唇の場合、サイズの割合が大きく算出されて唇の乾燥度を高く評価し、ステップ5に行くほどサイズの割合が低く算出されて唇の乾燥度を低く評価することができる。
図36で反射領域2002としわ領域2002が同じことのように説明したが、これは説明の便宜のために一つの例示をあげたことに過ぎず、一つのイメージで反射領域2002としわ領域2002は異なるように検出され得、これによって唇均一性と唇乾燥度は異なるように評価され得る。
しかし、前述した唇部門評価方法は、例示としてあげたことに過ぎないので、これに制限される必要はない。
無線通信部140は、唇部門を評価した後、評価結果信号を移動端末機10に伝送することができ、移動端末機10のディスプレイ部14は、評価結果を表示することができる。
図37は、唇部門に対するメイクアップ評価結果を示す例示図であり得る。ディスプレイ部14は、唇均一性に対する評価結果を表示することができる。ディスプレイ部14は、唇均一性に対応するスコアと唇乾燥度に対応するスコアをそれぞれ表示することができる。しかし、図37に示された評価結果を示す方法は、例示的なことに過ぎない。
次に、図38は、本発明の第2実施形態による傷部門を評価するとき、適用される評価アルゴリズムを説明するための図であり、図39は、本発明の第2実施形態による傷部門の評価結果を表示する方法を説明するための例示図である。
映像検出部121は、イメージを獲得することができ、獲得したイメージに含まれた顔領域を検出することができる。例えば、映像検出部121は、図38(a)に示されたように顔領域を検出することができる。
映像検出部121は、検出された顔領域から頬領域2201を検出することができ、頬領域2201は、左側頬領域と右側頬領域とを含むことができる。例えば、映像検出部121は、図38(b)に示されたように顔領域から頬領域2201を検出することができる。
映像検出部121は、検出された顔領域で顎領域2202を検出することができる。メイクアップ分析部122は、顎領域2202に含まれたすべてのピクセルをLab空間に変換し、変換されたLab空間からL、a及びbそれぞれの平均値を算出して肌の平均Lab値を算出することができる。
メイクアップ分析部122は、平均Lab値をRGB値に変換して肌のRGB平均値を算出することができる。
次に、メイクアップ分析部122は、傷対象領域を設定することができる。具体的には、メイクアップ分析部122は、顔領域を含むイメージをLab色空間に変換し、変換されたLabと前で算出した肌の平均Lab値の差に対応するギャップイメージを獲得することができる。
メイクアップ分析部122は、ギャップイメージに含まれた複数のピクセルそれぞれを基準にそばの(左側または右側)に位置したピクセルの間の差に対応する左右ギャップイメージを獲得し、ギャップイメージに含まれた複数のピクセルそれぞれを基準に上または下に位置したピクセルの間の差に対応する上下ギャップイメージを獲得することができる。
メイクアップ分析部122は、左右ギャップイメージのピクセル値を二乗と上下ギャップイメージのピクセル値を二乗の合に対応する色相差イメージを獲得することができる。メイクアップ分析部122は、色相差イメージでピクセル値が既に設定された臨界値より大きい地点で構成される対象領域を獲得することができる。
メイクアップ分析部122は、対象領域にモルフォロジ演算(morphological operation)を行い、クラスタリング(clustering)された領域を図38(d)に示されたように傷対象領域2203として設定することができる。
メイクアップ分析部122は、傷対象領域2203でピクセル値が既に設定された臨界値以上差がある異質点2213、2223、2233を獲得することができる。特に、図38(e)に示されたように、メイクアップ分析部122は、頬領域2201内部で獲得される異質点2213、2223を傷として認識することができる。
メイクアップ分析部122は、頬領域2201のサイズと、傷として認識された異質点2213、2223のサイズをそれぞれ検出し、頬領域2201のサイズに対して異質点2213、2223のサイズの割合を算出することができる。メイクアップ分析部122は、算出されたサイズの割合に基づいて肌均一性を評価することができる。例えば、メイクアップ分析部122は、サイズの割合が第1基準値(例えば、0%)から第2基準値(例えば、5%)の間に属すると5点、第2基準値(例えば、5%)から第3基準値(例えば、10%)の間に属すると3点、第3基準値(例えば、10%)から第4基準値(例えば、20%)の間に属すると1点と決定することができる。
肌均一性は、顔の色が均一にメイクアップされたかを示すことであって、傷、ほくろまたはしわなどのような欠点が見えないようにメイクアップカバーがよくできたかを示す指標であり得る。
無線通信部140は、傷部門を評価した後、評価結果信号を移動端末機10に伝送することができ、移動端末機10のディスプレイ部14は、評価結果を表示することができる。
図39は、傷部門に対するメイクアップ評価結果を示す例示図であり得る。ディスプレイ部14は、傷に対する評価結果を表示することができる。しかし、図39に示された評価結果を示す方法は例示的なことに過ぎない。
再び、図20を説明する。
メイクアップサーバー100は、メイクアップを評価した評価結果信号を移動端末機10に伝送することができる(S21)。
このように眉毛部門、クマ部門、色相調和部門、唇部門、傷部門など詳細評価部門ごとに評価されたスコアが合わせられてメイクアップ総点が導出され得る。実施形態によっては、それぞれの詳細評価部門が総点に寄与する割合がメイクアップテーマごとに異なるように設定されることもできる。例えば、メイクアップテーマがナチュラルの場合、総点はクマ部門のスコアが60%であり、残りの眉毛部門、色相調和部門、唇部門、傷部門に対するスコアがそれぞれ10%割合で反映されて算出され、メイクアップテーマがスモーキーの場合、総点は色相調和部門が35%であり、唇部門が40%であり、眉毛部門が15%であり、クマ部門が5%であり、傷部門が5%である割合で反映されて算出され得る。
移動端末機10のディスプレイ部14は、受信された評価結果信号に基づいてメイクアップ評価結果を表示することができる(S23)。
ディスプレイ部14は、図40に示されたようなメイクアップ結果を表示することができる。
すなわち、ディスプレイ部14は、メイクアップ評価部門のそれぞれに対するスコアと、総点を表示することができる。
または、ディスプレイ部14は、図26、図29、図35、図37及び図39に示されたようにメイクアップ評価結果を表示することができる。特に、ディスプレイ部14は、図40に示されたような複数の評価部門のいずれか一つの部門が選択されると、選択された部門に対する詳細評価結果で図26、図29、図35、図37または図39に示されたような評価結果を表示することができる。
一方、前ではメイクアップサーバー100がメイクアップ評価を行うと説明したが、これは説明の便宜のために例示としてあげたことに過ぎない。移動端末機10がイメージを獲得してメイクアップ評価を直接行うこともでき、この場合、メイクアップサーバー100からメイクアップ評価と関連したデータを受信することができる。
一方、前でメイクアップ評価システムを図3ないし図18による第1実施形態と図19ないし図40による第2実施形態とに区分して説明したが、これは説明の便宜のためのことに過ぎないので、これに制限されない。すなわち、図3ないし図18を介して説明した第1実施形態によるメイクアップ評価システム及びその動作方法は、図19ないし図40を介して説明した第2実施形態によるメイクアップ評価システム及びその動作方法と組み合わせされて構成され得る。
例えば、メイクアップ分析部122は、図6に示されたようなメイクアップスコアデータと図21ないし図25を介して説明したアルゴリズムを一緒に適用してメイクアップスコアを出力することができる。
また、ディスプレイ部14は、第1実施形態によるメイクアップ結果画面と第2実施形態によるメイクアップ結果画面を組み合わせて表示することができる。
前述した本発明は、プログラムが記録された媒体にコンピュータが判読可能なコードとして具現することが可能である。コンピュータの判読可能な媒体は、コンピュータシステムによって判読され得るデータが保存されるすべての種類の記録装置を含む。コンピュータが判読可能な媒体の例としては、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Silicon Disk Drive)、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。また、前記コンピュータは、診断装置の制御部、肌管理サーバーの制御部または製造装置の制御部を含むこともできる。したがって、前記の詳細な説明はすべての面で制限的に解釈されてはならず、例示的であるものとして考慮されなければならない。本発明の範囲は添付された請求項の合理的解釈によって決定されなければならず、本発明の等価的範囲内でのすべての変更は本発明の範囲に含まれる。
10 移動端末機
11 無線通信部
12 入力部
13 カメラ
14 ディスプレイ部
15 メモリ
16 電源供給部
17 制御部
100 メイクアップサーバー
110 メイクアップデータベース管理部
111 メイクアップテーマ獲得部
112 メイクアップイメージ獲得部
113 スコアデータ生成部
114 メイクアップ評価データベース
115 メイクアップスコア学習部
120 メイクアップ評価部
121 顔イメージ獲得部
122 メイクアップ分析部
123 メイクアップスコア出力部
124 領域検出部
130 制御部
140 無線通信部
200 アプリケーションサーバー

Claims (1)

  1. メイクアップ評価システムにおいて、
    顔イメージを撮影し、前記撮影した顔イメージをメイクアップサーバーに伝送する移動端末機と、
    メイクアップスコアデータを保存しており、
    前記移動端末機から前記顔イメージを受信すると、前記顔イメージから少なくとも一つ以上の顔領域を検出し、前記メイクアップスコアデータに基づいて前記検出された顔領域別のメイクアップスコアを算出し、
    前記算出されたメイクアップスコアを前記移動端末機に伝送するメイクアップサーバーと
    を含み、
    前記メイクアップサーバーは
    前記移動端末機からメイクアップテーマを受信すると、前記メイクアップテーマに応じて前記メイクアップスコアを算出し、
    前記メイクアップスコアは
    前記検出された顔領域の形状及び前記メイクアップテーマに応じて異なるように算出される、
    メイクアップ評価システム。
JP2019541436A 2017-02-01 2018-02-01 メイクアップ評価システム及びその動作方法 Active JP7020626B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2017-0014403 2017-02-01
KR1020170014403A KR101872635B1 (ko) 2017-02-01 2017-02-01 메이크업 자동 평가 시스템 및 그의 동작 방법
KR1020180012931A KR102066892B1 (ko) 2018-02-01 2018-02-01 메이크업 평가 시스템 및 그의 동작 방법
KR10-2018-0012931 2018-02-01
PCT/KR2018/001412 WO2018143707A1 (ko) 2017-02-01 2018-02-01 메이크업 평가 시스템 및 그의 동작 방법

Publications (2)

Publication Number Publication Date
JP2020505989A true JP2020505989A (ja) 2020-02-27
JP7020626B2 JP7020626B2 (ja) 2022-02-16

Family

ID=63040956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541436A Active JP7020626B2 (ja) 2017-02-01 2018-02-01 メイクアップ評価システム及びその動作方法

Country Status (3)

Country Link
US (2) US11113511B2 (ja)
JP (1) JP7020626B2 (ja)
WO (1) WO2018143707A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11201805144PA (en) * 2016-01-22 2018-07-30 Panasonic Ip Man Co Ltd Makeup trend analyzing apparatus, makeup trend analyzing method, and makeup trend analyzing program
GB2569655B (en) 2017-12-22 2022-05-11 Jemella Ltd Training system and device
US10755447B2 (en) * 2018-04-19 2020-08-25 Adobe Inc. Makeup identification using deep learning
US11010636B2 (en) 2018-10-25 2021-05-18 L'oreal Systems and methods for providing personalized product recommendations using deep learning
US11222719B2 (en) 2019-12-28 2022-01-11 Kpn Innovations, Llc Methods and systems for informing product decisions
KR20220157502A (ko) 2020-03-31 2022-11-29 스냅 인코포레이티드 증강 현실 미용 제품 튜토리얼들
CN111553220A (zh) * 2020-04-21 2020-08-18 海信集团有限公司 一种智能设备及数据处理方法
KR20230028481A (ko) * 2020-06-30 2023-02-28 로레알 공간 인식 조건부 gan들을 이용하는 고해상도 제어가능한 얼굴 노화
US20220202168A1 (en) * 2020-12-30 2022-06-30 L'oreal Digital makeup palette
CN113194323B (zh) * 2021-04-27 2023-11-10 口碑(上海)信息技术有限公司 信息交互方法、多媒体信息互动方法以及装置
CN115170894B (zh) * 2022-09-05 2023-07-25 深圳比特微电子科技有限公司 一种烟火检测的方法及装置
US11837019B1 (en) * 2023-09-26 2023-12-05 Dauntless Labs, Llc Evaluating face recognition algorithms in view of image classification features affected by smart makeup

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324126A (ja) * 2001-04-25 2002-11-08 Sharp Corp メイクアップアドバイス情報供給システム
JP2009213751A (ja) * 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc 化粧評価プログラム、化粧評価方法および化粧評価装置
JP2012128597A (ja) * 2010-12-14 2012-07-05 Canon Inc 情報処理装置、情報処理方法、およびそのプログラム
US20130058543A1 (en) * 2011-09-06 2013-03-07 The Proctor & Gamble Company Systems, devices, and methods for image analysis
JP2013171409A (ja) * 2012-02-20 2013-09-02 Kao Corp 化粧顔画像評価装置及び化粧顔画像評価方法
JP2014149696A (ja) * 2013-02-01 2014-08-21 Panasonic Corp メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
WO2015127394A1 (en) * 2014-02-23 2015-08-27 Northeastern University System for beauty, cosmetic, and fashion analysis
JP2016066383A (ja) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
JP2016129027A (ja) * 2016-01-22 2016-07-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3490910B2 (ja) 1998-09-28 2004-01-26 三洋電機株式会社 顔領域検出装置
KR20060062263A (ko) 2004-12-03 2006-06-12 엘지전자 주식회사 이동통신 단말기를 이용한 메이크업 정보 제공장치 및제공 방법
JP5261586B2 (ja) 2007-08-10 2013-08-14 株式会社 資生堂 メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2009064423A (ja) 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
KR20110127396A (ko) 2010-05-19 2011-11-25 삼성전자주식회사 휴대 단말기의 메이크업 기능 제공 방법 및 장치
KR101733512B1 (ko) 2010-12-22 2017-05-10 에스케이플래닛 주식회사 얼굴 특징 기반의 가상 체험 시스템 및 그 방법
KR101433642B1 (ko) 2012-11-13 2014-09-01 김지원 이동 통신 단말기를 이용한 메이크업 가이드 방법 및 이를 이용하는 이동 통신 단말기
US10321747B2 (en) 2013-02-01 2019-06-18 Panasonic Intellectual Property Management Co., Ltd. Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
JP6132232B2 (ja) * 2013-02-01 2017-05-24 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
JP6288404B2 (ja) * 2013-02-28 2018-03-07 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
JP6026655B2 (ja) * 2013-06-07 2016-11-16 富士フイルム株式会社 透明感評価装置、透明感評価装置の作動方法、透明感評価方法および透明感評価プログラム
WO2015127354A1 (en) 2014-02-24 2015-08-27 Siemens Healthcare Diagnostics Inc. Potentiometric sensor, kit and method of use
SG11201805144PA (en) * 2016-01-22 2018-07-30 Panasonic Ip Man Co Ltd Makeup trend analyzing apparatus, makeup trend analyzing method, and makeup trend analyzing program
JP6731616B2 (ja) * 2016-06-10 2020-07-29 パナソニックIpマネジメント株式会社 バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム
JP6986676B2 (ja) * 2016-12-28 2021-12-22 パナソニックIpマネジメント株式会社 化粧品提示システム、化粧品提示方法、及び化粧品提示サーバ
KR101872635B1 (ko) 2017-02-01 2018-06-29 주식회사 엘지생활건강 메이크업 자동 평가 시스템 및 그의 동작 방법
US10433630B2 (en) * 2018-01-05 2019-10-08 L'oreal Cosmetic applicator system including trackable cosmetic device, and client device to assist users in makeup application
US10691932B2 (en) * 2018-02-06 2020-06-23 Perfect Corp. Systems and methods for generating and analyzing user behavior metrics during makeup consultation sessions

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324126A (ja) * 2001-04-25 2002-11-08 Sharp Corp メイクアップアドバイス情報供給システム
JP2009213751A (ja) * 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc 化粧評価プログラム、化粧評価方法および化粧評価装置
JP2012128597A (ja) * 2010-12-14 2012-07-05 Canon Inc 情報処理装置、情報処理方法、およびそのプログラム
US20130058543A1 (en) * 2011-09-06 2013-03-07 The Proctor & Gamble Company Systems, devices, and methods for image analysis
JP2013171409A (ja) * 2012-02-20 2013-09-02 Kao Corp 化粧顔画像評価装置及び化粧顔画像評価方法
JP2014149696A (ja) * 2013-02-01 2014-08-21 Panasonic Corp メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
WO2015127394A1 (en) * 2014-02-23 2015-08-27 Northeastern University System for beauty, cosmetic, and fashion analysis
JP2016066383A (ja) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法
JP2016129027A (ja) * 2016-01-22 2016-07-14 パナソニックIpマネジメント株式会社 メイクアップ支援装置およびメイクアップ支援方法

Also Published As

Publication number Publication date
US20190362134A1 (en) 2019-11-28
WO2018143707A1 (ko) 2018-08-09
US11748980B2 (en) 2023-09-05
US11113511B2 (en) 2021-09-07
JP7020626B2 (ja) 2022-02-16
US20210357627A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
JP7020626B2 (ja) メイクアップ評価システム及びその動作方法
CN110235169B (zh) 化妆评价系统及其动作方法
KR102339915B1 (ko) 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법
US9445087B2 (en) Systems, devices, and methods for providing products and consultations
KR101140533B1 (ko) 이미지로부터 추정된 피부색에 기초해서 제품을 추천하는 컴퓨터 구현된 방법
US7522768B2 (en) Capture and systematic use of expert color analysis
US20070058858A1 (en) Method and system for recommending a product based upon skin color estimated from an image
KR20050085583A (ko) 표정 불변 얼굴 인식
US20220335614A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of a Scalp Region of a Users Scalp to Generate One or More User-Specific Scalp Classifications
US20220164852A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations
CN111008971B (zh) 一种合影图像的美学质量评价方法及实时拍摄指导系统
CN105721936A (zh) 一种基于情景感知的智能电视节目推荐系统
KR20210076373A (ko) 중개 장치, 방법 및 컴퓨터 판독 가능한 기록매체
CN108664908A (zh) 人脸识别方法、设备及计算机可读存储介质
KR102066892B1 (ko) 메이크업 평가 시스템 및 그의 동작 방법
CN113781408A (zh) 一种图像拍摄智能指导系统及方法
KR20180089879A (ko) 메이크업 자동 평가 시스템 및 그의 동작 방법
US9390481B2 (en) Enhancing content appearance
KR102330368B1 (ko) 메이크업 평가 시스템 및 그의 동작 방법
Mattheij The eyes have it
KR20220054177A (ko) 유저의 페이셜 인식을 통한 커뮤니케이션 중 프리퍼런스 조사를 위한 리서칭 시스템
CN115997236A (zh) 用于获得面部的光学性质的视频分析
KR20220080685A (ko) 유저의 프리퍼런스 데이터 분석을 통한 유저의 맞춤형 오브젝트 서제스팅 시스템
FR3134469A1 (fr) Procédé de recommandation de produits cosmétique utilisant un algorithme kNN
KR20190136652A (ko) 스마트 미러 디스플레이 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210930

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211008

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220121

R150 Certificate of patent or registration of utility model

Ref document number: 7020626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150