KR102330368B1 - Make-up evaluation system and operating method thereof - Google Patents
Make-up evaluation system and operating method thereof Download PDFInfo
- Publication number
- KR102330368B1 KR102330368B1 KR1020200002964A KR20200002964A KR102330368B1 KR 102330368 B1 KR102330368 B1 KR 102330368B1 KR 1020200002964 A KR1020200002964 A KR 1020200002964A KR 20200002964 A KR20200002964 A KR 20200002964A KR 102330368 B1 KR102330368 B1 KR 102330368B1
- Authority
- KR
- South Korea
- Prior art keywords
- makeup
- color
- region
- evaluation
- image
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 173
- 238000011017 operating method Methods 0.000 title abstract description 6
- 239000003086 colorant Substances 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 44
- 238000004891 communication Methods 0.000 abstract description 25
- 238000004458 analytical method Methods 0.000 abstract description 21
- 238000001514 detection method Methods 0.000 abstract description 19
- 210000004709 eyebrow Anatomy 0.000 description 103
- 238000010586 diagram Methods 0.000 description 19
- 238000007726 management method Methods 0.000 description 15
- 230000008901 benefit Effects 0.000 description 13
- 239000000284 extract Substances 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 230000037303 wrinkles Effects 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 241001237961 Amanita rubescens Species 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 239000002537 cosmetic Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 206010024552 Lip dry Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 얼굴 부위마다 알고리즘을 적용하여 정밀한 메이크업 평가를 수행하기 위한 메이크업 평가 시스템 및 그의 동작 방법에 관한 것으로, 이미지를 촬영하고, 촬영한 이미지를 메이크업 서버로 전송하는 이동 단말기 및 메이크업(make-up) 평가에 사용되는 적어도 하나 이상의 알고리즘을 저장하는 메이크업 DB 관리부, 이미지에서 얼굴 영역을 검출하는 영역 검출부, 검출된 얼굴 영역에 저장된 알고리즘을 적용하여 메이크업을 평가하는 메이크업 분석부, 메이크업을 평가한 결과 정보를 포함하는 평가 결과 신호를 이동 단말기로 전송하는 무선 통신부를 갖는 메이크업 서버를 포함하고, 이동 단말기는 수신된 평가 결과 신호에 따른 평가 결과를 표시할 수 있다.The present invention relates to a makeup evaluation system and an operating method thereof for performing precise makeup evaluation by applying an algorithm to each face part, and to a mobile terminal for photographing an image and transmitting the photographed image to a makeup server and a makeup (make-up) system. ) a makeup DB management unit that stores at least one or more algorithms used for evaluation, a region detection unit that detects a face region in an image, a makeup analysis unit that evaluates makeup by applying the algorithm stored in the detected face region, and information on the result of makeup evaluation and a makeup server having a wireless communication unit for transmitting an evaluation result signal including a mobile terminal, wherein the mobile terminal may display an evaluation result according to the received evaluation result signal.
Description
본 발명은 메이크업 평가 시스템 및 그의 동작 방법에 관한 것이다.The present invention relates to a makeup evaluation system and a method of operation thereof.
뷰티 산업(beauty industry)의 발전에 따라, 사용자의 화장품, 메이크업(make-up) 등에 대한 관심이 증가하고 있다. 이에 따라, 사용자의 화장품, 메이크업 등에 대한 욕구가 다양해지고 있는 추세이다. With the development of the beauty industry, users' interest in cosmetics, make-up, and the like is increasing. Accordingly, the user's desires for cosmetics, makeup, and the like are diversifying.
한편, 사용자 개인마다 피부 색상, 얼굴형, 이목구비의 생김새 등이 다양하기 때문에 개인에게 어울리는 메이크업이 다를 수 있다. 따라서, 사용자는 자신에게 어울리는 메이크업에 대한 선택의 어려움을 가질 수 있다. 사용자는 메이크업 후에 메이크업이 잘 된 것인지, 어떤 부분을 보완해야 하는지 궁금할 수 있다.On the other hand, since each user has different skin color, face shape, appearance of features, etc., makeup suitable for each individual may be different. Accordingly, the user may have difficulty in selecting a makeup suitable for the user. Users may wonder if the makeup went well after makeup and what parts need to be supplemented.
이러한 추세에 맞추어, 최근에는 사용자의 얼굴에 가상의 메이크업을 입혀주는 어플리케이션(application) 등이 개발되고 있다. 이 경우, 사용자의 호기심과 흥미를 유발할 수는 있으나, 어떤 메이크업이 사용자에게 어울리는지는 개인이 판단해야 하는 한계가 있다. 즉, 사용자 개개인에 대한 맞춤형 서비스를 제공하기에는 어려움이 있다.In line with this trend, recently, an application for applying virtual makeup to a user's face has been developed. In this case, although the user's curiosity and interest may be aroused, there is a limit in that an individual must determine which makeup suits the user. That is, it is difficult to provide a customized service for each user.
한편, 최근에는 기계 학습(Machine Learning, ML) 기술, 특히 딥러닝(Deep Learning, DL) 기술이 급속도로 발전하고 있다.Meanwhile, machine learning (ML) technology, particularly deep learning (DL) technology, is rapidly developing in recent years.
기계 학습 기술이란 많은 데이터를 통해 특징을 추출하고, 새로운 데이터가 입력되면 컴퓨터가 스스로 특징에 따라 분류할 수 있는 기술이다.Machine learning technology is a technology that extracts features from a lot of data, and when new data is input, the computer can classify it according to the features on its own.
딥러닝 기술은 기계 학습 기술의 일부이다. 딥러닝 기술은 인공지능을 구성하기 위한 인공신경망 ANN(Artificial Neural Networks)을 기반으로, 빅데이터 속에서 패턴을 발견하여 인간이 사물을 구분하듯 컴퓨터가 데이터를 분류하는 기술을 말한다.Deep learning technology is a part of machine learning technology. Deep learning technology refers to a technology in which a computer classifies data just as a human classifies objects by discovering patterns in big data based on artificial neural networks (ANNs) for constructing artificial intelligence.
딥러닝 기술을 메이크업 서비스에 적용함으로써, 보다 객관적인 데이터를 바탕으로 사용자에게 맞춤형 메이크업을 제공할 수 있는 것으로 생각된다.By applying deep learning technology to makeup services, it is thought that customized makeup can be provided to users based on more objective data.
본 발명은 사용자의 메이크업을 평가하는 메이크업 평가 시스템 및 그의 동작 방법을 제공하고자 한다.An object of the present invention is to provide a makeup evaluation system for evaluating a user's makeup and an operating method thereof.
본 발명은 사용자의 메이크업을 평가하여 메이크업의 우수성을 수치로 제공하는 메이크업 평가 시스템 및 그의 동작 방법을 제공하고자 한다.An object of the present invention is to provide a makeup evaluation system that evaluates a user's makeup and provides the excellence of makeup as a numerical value, and an operating method thereof.
본 발명은 사용자의 얼굴 각 부위별로 메이크업을 평가하는 메이크업 평가 시스템 및 그의 동작 방법을 제공하고자 한다.An object of the present invention is to provide a makeup evaluation system for evaluating makeup for each part of a user's face and an operating method thereof.
본 발명의 실시 예에 따른 메이크업 평가 시스템은 이미지를 촬영하고, 촬영한 이미지를 메이크업 서버로 전송하는 이동 단말기 및 메이크업(make-up) 평가에 사용되는 적어도 하나 이상의 평가 알고리즘을 저장하는 메이크업 DB 관리부, 이미지에서 얼굴 영역을 검출하는 영역 검출부, 검출된 얼굴 영역에 저장된 평가 알고리즘을 적용하여 메이크업을 평가하는 메이크업 분석부, 메이크업을 평가한 결과 정보를 포함하는 평가 결과 신호를 이동 단말기로 전송하는 무선 통신부를 갖는 메이크업 서버를 포함하고, 이동 단말기는 수신된 평가 결과 신호에 따른 평가 결과를 표시할 수 있다.A makeup evaluation system according to an embodiment of the present invention includes a mobile terminal that takes an image and transmits the photographed image to a makeup server, and a makeup DB management unit that stores at least one evaluation algorithm used for make-up evaluation; A region detection unit that detects a face region from an image, a makeup analyzer that evaluates makeup by applying an evaluation algorithm stored in the detected facial region, and a wireless communication unit that transmits an evaluation result signal including information on the result of evaluating makeup to a mobile terminal and a makeup server having a mobile terminal capable of displaying an evaluation result according to the received evaluation result signal.
평가 알고리즘은 얼굴 영역을 구성하는 적어도 하나 이상의 픽셀의 RGB 값을 이용하는 알고리즘을 포함할 수 있다.The evaluation algorithm may include an algorithm using RGB values of at least one or more pixels constituting the face region.
평가 알고리즘은 얼굴 영역을 구성하는 적어도 하나 이상의 픽셀의 RGB 값을 Lab 색상값으로 변환하고, 변환된 Lab 색상값을 이용하는 알고리즘을 포함할 수 있다.The evaluation algorithm may include an algorithm that converts RGB values of at least one or more pixels constituting the face region into Lab color values and uses the converted Lab color values.
영역 검출부는 얼굴 영역 중 제1 영역과 제2 영역을 검출하고, 제1 영역의 Lab 색상값에 대응하는 제1 색상을 획득하고, 제2 영역의 Lab 색상값에 대응하는 제2 색상을 획득하며, 메이크업 분석부는 제1 색상과 제2 색상에 기초하여 메이크업의 색상 조화를 평가할 수 있다.The region detection unit detects a first region and a second region among the face regions, acquires a first color corresponding to the Lab color value of the first region, and acquires a second color corresponding to the Lab color value of the second region, , the makeup analyzer may evaluate the color harmony of the makeup based on the first color and the second color.
제1 영역은 코에 대응하는 영역이고, 제2 영역은 볼에 대응하는 영역, 입술에 대응하는 영역 또는 눈 위에 대응하는 영역일 수 있다.The first region may be a region corresponding to the nose, and the second region may be a region corresponding to the cheek, a region corresponding to the lips, or a region corresponding to the eyes.
메이크업 DB 관리부는 복수개의 제1 샘플 색상과 복수개의 제2 샘플 색상을 포함하며, 복수개의 제1 샘플 색상 중 어느 하나와 복수개의 제2 샘플 색상 중 어느 하나에 맵핑되는 점수 데이터로 구성되는 점수 테이블을 더 저장하고, 메이크업 분석부는 복수개의 제1 샘플 색상 중 제1 색상과 동일한 색상을 결정하고, 복수개의 제2 샘플 색상 중 제2 색상과 동일한 색상을 결정하고, 결정된 색상에 맵핑되는 점수 데이터를 획득할 수 있다.The makeup DB management unit includes a plurality of first sample colors and a plurality of second sample colors, and a score table consisting of score data mapped to any one of a plurality of first sample colors and any one of a plurality of second sample colors further stores, and the makeup analysis unit determines the same color as the first color among the plurality of first sample colors, determines the same color as the second color among the plurality of second sample colors, and obtains score data mapped to the determined color can be obtained
점수 테이블은 메이크업 전문가의 메이크업 평가를 위한 입력에 기초하여 생성된 테이블을 포함할 수 있다.The score table may include a table generated based on an input for makeup evaluation by a makeup expert.
영역 검출부는 이미지에서 입술 영역을 검출하고, 메이크업 분석부는 검출된 입술 영역의 크기를 산출하고, 입술 영역 중 R 값이 기 설정된 범위에 포함되는 픽셀로 구성되는 주름 영역을 획득하여 주름 영역의 크기를 산출하고, 입술 영역의 크기와 주름 영역의 크기의 비를 통해 입술 건조도를 평가할 수 있다.The region detection unit detects a lip region in the image, the makeup analyzer calculates the size of the detected lip region, and obtains a wrinkle region composed of pixels whose R value is included in a preset range among the lip region to determine the size of the wrinkle region It is calculated, and the dryness of the lips can be evaluated through the ratio of the size of the lip area to the size of the wrinkle area.
영역 검출부는 이미지에서 입술 영역을 검출하고, 메이크업 분석부는 검출된 입술 영역을 구성하는 픽셀의 RGB 값을 Lab 색상값으로 변환하고, L 값이 기 설정된 범위에 포함되는 픽셀로 구성되는 반사 영역을 획득하여 반사 영역의 크기를 산출하고, 입술 영역의 크기와 반사 영역의 크기의 비를 통해 입술 색상을 평가할 수 있다.The region detection unit detects a lip region in the image, the makeup analyzer converts the RGB values of pixels constituting the detected lip region into Lab color values, and obtains a reflection region composed of pixels whose L values are included in a preset range Thus, the size of the reflective region can be calculated, and the lip color can be evaluated through the ratio of the size of the lip region to the size of the reflective region.
메이크업 분석부는 얼굴 영역 중 일 영역의 Lab 평균값을 통해 피부색을 결정하고, 얼굴 영역을 구성하는 픽셀의 RGB 값을 Lab 색상값으로 변환하고, Lab 색상값과 결정된 피부색의 차에 해당하는 갭 이미지를 획득하고, 갭 이미지를 통해 잡티 대상 영역을 검출하여 잡티 비율을 산출할 수 있다.The makeup analysis unit determines the skin color through the Lab average value of one of the face regions, converts the RGB values of pixels constituting the face region into Lab color values, and obtains a gap image corresponding to the difference between the Lab color value and the determined skin color. In addition, the blemish rate may be calculated by detecting the blemish target area through the gap image.
영역 검출부는 눈썹 영역을 검출하고, 메이크업 분석부는 검출된 눈썹 영역 중 적어도 일 지점으로부터 다른 지점까지 거리 또는 각도에 기초하여 눈썹 메이크업을 평가할 수 있다.The region detector may detect the eyebrow region, and the makeup analyzer may evaluate the eyebrow makeup based on a distance or angle from at least one point of the detected eyebrow region to another point.
영역 검출부는 눈썹 영역을 검출하고, 메이크업 분석부는 검출된 눈썹 영역 중 적어도 일 지점을 지나는 수직선에 대응하는 RGB 값을 통해 눈썹 영역의 색상을 평가할 수 있다.The region detector may detect the eyebrow region, and the makeup analyzer may evaluate the color of the eyebrow region through RGB values corresponding to a vertical line passing through at least one point among the detected eyebrow regions.
영역 검출부는 눈 영역을 검출하고, 메이크업 분석부는 검출된 눈 영역과 소정 거리 이격된 수평선에 대응하는 RGB 값을 통해 다크서클의 커버 정도를 평가할 수 있다.The region detector may detect the eye region, and the makeup analyzer may evaluate the degree of coverage of the dark circle through RGB values corresponding to a horizontal line spaced apart from the detected eye region by a predetermined distance.
본 발명의 실시 예에 따르면, 얼굴의 각 영역을 검출하여 알고리즘을 적용함으로써 메이크업의 평가가 가능한 이점이 있다. According to an embodiment of the present invention, there is an advantage in that makeup can be evaluated by detecting each region of the face and applying an algorithm.
보다 상세하게는, 사용자마다 얼굴의 크기, 모양 등이 상이하여 동일한 메이크업을 하더라도 어울리는 사람이 있고, 어울리지 않는 사람이 있을 수 있다. 따라서, 본 발명에서는 특히 얼굴 각 부위 영역을 추출하고, 추출된 영역에 알고리즘을 적용하여 사용자의 얼굴 특성을 고려하는 메이크업 평가가 수행될 수 있어 정밀한 메이크업 평가가 가능한 이점이 있다.More specifically, since the size and shape of each user's face is different, there may be a person who suits each user and a person who does not suit even if they wear the same makeup. Therefore, in the present invention, there is an advantage in that accurate makeup evaluation is possible because, in particular, each region of the face is extracted, and an algorithm is applied to the extracted region to perform makeup evaluation in consideration of the user's facial characteristics.
본 발명의 실시 예에 따르면, 얼굴의 각 부위 영역을 추출하고, 추출된 영역마다 상이한 알고리즘을 적용하여 해당 부위마다 메이크업이 잘 되었는지 평가 가능하며, 얼굴 각 부위를 종합한 전체적인 메이크업 점수를 평가 가능한 이점이 있다.According to an embodiment of the present invention, it is possible to extract a region of each part of the face, apply a different algorithm to each of the extracted regions to evaluate whether makeup is done well for each part, and to evaluate the overall makeup score by combining each part of the face There is this.
본 발명의 실시 예에 따르면, 영역의 RGB 값을 이용하여 얼굴 영역을 보다 정확하게 인식 가능한 이점이 있다.According to an embodiment of the present invention, there is an advantage in that the face region can be more accurately recognized using the RGB values of the region.
본 발명의 실시 예에 따르면, 디스플레이부의 특성 등과 관계 없이 동일한 값을 나타내는 Lab 값을 이용하여 메이크업을 평가함으로써, 이동 단말기의 모델 등과 같은 평가 매체에 관계없이 객관적인 메이크업 평가가 가능한 이점이 있다. According to an embodiment of the present invention, by evaluating the makeup using the Lab value indicating the same value regardless of the characteristics of the display unit, there is an advantage in that it is possible to objectively evaluate the makeup regardless of the evaluation medium such as the model of the mobile terminal.
본 발명의 실시 예에 따르면, 단순히 메이크업의 색상을 평가할 뿐만 아니라, 색상 조화, 색상의 균일성 등 세밀한 메이크업 평가가 가능한 이점이 있다.According to an embodiment of the present invention, there is an advantage that not only simply evaluates the color of makeup, but also enables detailed makeup evaluation such as color harmony and color uniformity.
도 1은 본 발명의 실시 예에 따른 메이크업 평가 시스템의 구성을 도시한 블록도이다.
도 2는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
도 3은 본 발명과 관련된 메이크업 서버를 설명하기 위한 블록도이다.
도 4는 본 발명의 실시 예에 따른 메이크업 평가 시스템의 동작 방법을 나타내는 래더 다이어그램이다.
도 5 내지 도 9는 본 발명의 실시 예에 따른 눈썹 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이다.
도 10은 본 발명의 실시 예에 따른 눈썹 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.
도 11 내지 도 12는 본 발명의 실시 예에 따른 다크서클 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이다.
도 13은 본 발명의 실시 예에 따른 다크서클 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.
도 14 내지 도 18은 본 발명의 실시 예에 따른 색상조화 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이다.
도 19는 본 발명의 실시 예에 따른 색상조화 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.
도 20은 본 발명의 실시 예에 따른 입술 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이다.
도 21은 본 발명의 실시 예에 따른 입술 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.
도 22는 본 발명의 실시 예에 따른 잡티 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이다.
도 23은 본 발명의 실시 예에 따른 잡티 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.
도 24는 본 발명의 실시 예에 따른 메이크업 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.1 is a block diagram illustrating the configuration of a makeup evaluation system according to an embodiment of the present invention.
2 is a block diagram illustrating a mobile terminal related to the present invention.
3 is a block diagram for explaining a makeup server related to the present invention.
4 is a ladder diagram illustrating a method of operating a makeup evaluation system according to an embodiment of the present invention.
5 to 9 are diagrams for explaining an evaluation algorithm applied when evaluating an eyebrow section according to an embodiment of the present invention.
10 is an exemplary view for explaining a method of displaying an evaluation result of an eyebrow section according to an embodiment of the present invention.
11 to 12 are diagrams for explaining an evaluation algorithm applied when evaluating a dark circle sector according to an embodiment of the present invention.
13 is an exemplary view for explaining a method of displaying an evaluation result of a dark circle section according to an embodiment of the present invention.
14 to 18 are diagrams for explaining an evaluation algorithm applied when evaluating a color harmony section according to an embodiment of the present invention.
19 is an exemplary view for explaining a method of displaying an evaluation result of a color harmonization section according to an embodiment of the present invention.
20 is a view for explaining an evaluation algorithm applied when evaluating a lip section according to an embodiment of the present invention.
21 is an exemplary view for explaining a method of displaying an evaluation result of a lip section according to an embodiment of the present invention.
22 is a diagram for explaining an evaluation algorithm applied when evaluating a blemish area according to an embodiment of the present invention.
23 is an exemplary view for explaining a method of displaying an evaluation result of a blemish area according to an embodiment of the present invention.
24 is an exemplary view for explaining a method of displaying a makeup evaluation result according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다음으로, 도 1 내지 도 24를 참조하여 본 발명의 실시 예에 따른 메이크업(make-up) 평가 시스템 및 그의 동작 방법을 설명한다.Next, a make-up evaluation system and an operating method thereof according to an embodiment of the present invention will be described with reference to FIGS. 1 to 24 .
먼저, 도 1은 본 발명의 실시 예에 따른 메이크업 평가 시스템의 구성을 도시한 블록도이다.First, FIG. 1 is a block diagram illustrating the configuration of a makeup evaluation system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 메이크업 평가 시스템은 이동 단말기(10), 어플리케이션 서버(200) 및 메이크업 서버(100)로 구성될 수 있다.Referring to FIG. 1 , a makeup evaluation system according to an embodiment of the present invention may include a
이동 단말기(10)는 메이크업 평가를 요청할 수 있다. 이동 단말기(10)는 적어도 하나의 메이크업 이미지와 관련하여 메이크업 평가를 요청하고, 메이크업 평가 결과를 표시할 수 있다.The
어플리케이션 서버(200)는 메이크업 평가를 위한 어플리케이션 작동에 필요한 정보를 저장하고 있을 수 있다.The
어플리케이션 서버(200)는 메이크업 평가 어플리케이션의 실행에 따라 이동 단말기(10) 및 메이크업 서버(100) 중 적어도 하나 이상과 신호 및 데이터를 송수신할 수 있다.The
메이크업 서버(100)는 메이크업 평가에 필요한 데이터를 저장하고 있을 수 있다. 예를 들어, 메이크업 서버(100)는 얼굴의 각 부위를 식별하기 위한 데이터, 메이크업을 평가하기 위한 평가 알고리즘 등을 저장하고 있을 수 있다.The
메이크업 서버(100)는 저장된 데이터에 기초하여 메이크업을 평가하거나, 메이크업 평가에 필요한 정보를 이동 단말기(10) 또는 어플리케이션 서버(200)로 전송할 수 있다. 메이크업 서버(100)는 메이크업의 평가 결과 정보를 포함하는 평가 결과 신호를 이동 단말기(10)로 전송할 수 있다.The
이동 단말기(10), 어플리케이션 서버(200) 및 메이크업 서버(100)는 상호간에 신호를 송수신할 수 있다. The
이동 단말기(10)는 어플리케이션 서버(200)로 메이크업 평가 요청 신호를 전송할 수 있고, 어플리케이션 서버(200)는 메이크업 평가 요청 신호를 수신하면, 수신된 메이크업 평가 요청 신호에 대응하는 메이크업 이미지를 메이크업 서버(100)로 전송할 수 있다.The
일 실시 예에 따르면, 메이크업 서버(100)는 메이크업 평가 요청 신호를 수신하면 저장된 데이터에 기초하여 수신된 이미지의 메이크업을 평가하고, 평가 결과를 어플리케이션 서버(200)로 전송할 수 있다. 어플리케이션 서버(200)는 이동 단말기(10)로 평가 결과를 전송할 수 있다.According to an embodiment, upon receiving the makeup evaluation request signal, the
그러나, 실시 예에 따라, 어플리케이션 서버(200)와 메이크업 서버(100)는 별개로 분리되지 않고, 하나의 서버로서 이동 단말기(10)와 신호를 송수신할 수 있다. 예를 들어, 어플리케이션 서버(200)는 메이크업 서버(100)에 포함될 수 있다. 이 경우, 이동 단말기(10)는 메이크업 서버(100)에 메이크업 평가 요청 신호를 전송하고, 메이크업 서버(100)는 메이크업을 평가하여 이동 단말기(10)에 평가 결과 데이터를 전송할 수 있다.However, according to an embodiment, the
다른 실시 예에 따르면, 메이크업 서버(100)는 메이크업 평가 요청 신호를 수신하면 수신된 메이크업 평가 요청 신호와 관련된 데이터를 이동 단말기(10)로 전송하고, 이동 단말기(10)는 수신된 데이터에 기초하여 메이크업을 평가한다.According to another embodiment, upon receiving the makeup evaluation request signal, the
본 명세서에서 설명되는 이동 단말기(10)에는 휴대폰, 스마트 폰(smart phone), 컴퓨터(computer), 노트북 컴퓨터(notebook computer), 태블릿 PC(tablet PC), 웨어러블 디바이스(wearable device), 디지털 TV, 디지털 사이니지, 화장품 등과 같은 뷰티 관련 제품을 판매하는 매장에 구비되는 디스플레이 장치, 가정 또는 매장 등에 구비되는 스마트미러 등이 포함될 수 있다. The
다음으로, 이동 단말기(10) 및 메이크업 서버(100)를 구성하는 각 구성요소를 도 2 내지 도 3을 통해 자세히 설명하기로 한다.Next, each component constituting the
먼저, 도 2는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.First, FIG. 2 is a block diagram illustrating a mobile terminal related to the present invention.
이동 단말기(10)는 무선 통신부(11), 입력부(12), 카메라(13), 디스플레이부(14), 메모리(15), 전원 공급부(16) 및 제어부(17)를 포함할 수 있다. 이와 같이 도 2에 도시된 구성요소들은 본 발명에 따른 이동 단말기의 이해를 돕기 위해 예시로 든 구성요소로서, 이동 단말기는 위에서 열거된 구성요소들 보다 더 많거나, 또는 더 적은 구성요소들을 가질 수 있다.The
이하, 이동 단말기(10)의 각 구성요소들을 보다 구체적으로 설명한다.Hereinafter, each component of the
무선 통신부(11)는 이동 단말기(10)와 다른 이동 단말기(10) 사이, 또는 이동 단말기(100)와 외부 서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 구체적으로, 무선 통신부(11)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나 이상을 포함할 수 있다.The
무선 통신부(11)는 다른 이동 단말기(10) 또는 외부 서버와 신호를 송수신할 수 있다. 예를 들어, 무선 통신부(11)는 어플리케이션 서버(200) 및 메이크업 서버(100) 중 적어도 하나 이상과 신호를 송수신할 수 있다.The
입력부(12)는 사용자로부터 데이터 또는 명령 등을 수신할 수 있다. 입력부는 푸시키(mechanical key), 터치키(touch key), 음성 인식 등을 통해 입력 신호를 수신할 수 있다. 입력부(12)를 통해 수신된 데이터 또는 명령은 제어명령으로 처리되어, 다른 구성요소로 전달될 수 있다.The
카메라(13)는 영상 신호 입력을 수신할 수 있다. 영상 신호는 사진과 같은 정지 이미지, 동영상 등을 포함한다. 따라서, 카메라(13)는 사진, 동영상 등을 촬영함으로써 영상 신호 입력을 수신할 수 있다. 예를 들어, 카메라(13)는 사용자의 얼굴 이미지를 촬영할 수 있다.The
디스플레이부(14)는 이동 단말기(10)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(14)는 사용자에게 제공하는 내용으로, 무선 통신부(11)를 통해 수신되거나 입력부(12)를 통해 입력된 내용 등을 화면에 표시할 수 있다. 또한, 디스플레이부(14)는 이동 단말기(10)에서 구동되는 응용 프로그램의 화면 정보를 표시할 수 있다.The
또는, 디스플레이부(14)는 카메라(13)를 통해 촬영 중이거나 촬영된 이미지를 표시할 수 있다. 예를 들어, 디스플레이부(14)는 카메라(13)를 통해 촬영된 얼굴 이미지를 표시할 수 있다.Alternatively, the
또한, 디스플레이부(14)는 촬영된 얼굴 이미지에 기초하여 메이크업을 평가한 결과 정보를 표시할 수 있다.Also, the
한편, 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 입력부(12)로써 기능함과 동시에, 이동 단말기(10)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.On the other hand, the display unit 151 may implement a touch screen by forming a layer structure with the touch sensor or by being integrally formed. Such a touch screen may function as the
메모리(15)는 이동 단말기(10)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(15)는 이동 단말기(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또는, 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(10)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(10)상에 존재할 수 있다. The
한편, 이러한 응용 프로그램 중 적어도 하나는 메이크업 평가를 위한 어플리케이션일 수 있다.Meanwhile, at least one of these application programs may be an application for makeup evaluation.
전원공급부(16)는 외부의 전원 또는 내부의 전원을 인가 받아 이동 단말기(10)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The
제어부(17)는 이동 단말기(10)의 전반적인 동작을 제어한다. 구체적으로, 제어부(17)는 이동 단말기(10)를 구성하는 각 구성요소들의 동작 또는 응용 프로그램과 관련된 동작을 제어할 수 있다. 제어부(17)는 위 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(15)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. 제어부(17)는 위 구성요소들 중 적어도 일부를 제어하거나, 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.The
도 2를 통해 설명한 위 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 이동 단말기의 동작, 제어, 또는 제어방법은 메모리(15)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.At least some of the above components described with reference to FIG. 2 may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the
다음으로, 도 3은 본 발명과 관련된 메이크업 서버를 설명하기 위한 블록도이다.Next, FIG. 3 is a block diagram for explaining a makeup server related to the present invention.
메이크업 서버(100)는 메이크업 DB 관리부(110), 메이크업 평가부(120), 제어부(130) 및 무선 통신부(140)로 구성될 수 있다.The
먼저, 메이크업 DB 관리부(110)를 설명한다.First, the makeup
메이크업 DB 관리부(110)는 메이크업 평가와 관련된 다양한 데이터를 저장하고 있을 수 있다. The makeup
메이크업 DB 관리부(110)는 메이크업을 평가하기 위해 얼굴 영역에 적용되는 적어도 하나 이상의 평가 알고리즘을 저장하고 있을 수 있다. 여기서, 얼굴 영역은 이미지에 포함된 얼굴 영역으로, 후술하는 영역 검출부(121)에 의해 검출되는 얼굴 영역을 의미할 수 있다. 또한, 얼굴 영역은 얼굴 전체를 포함하는 영역과, 얼굴을 구성하는 얼굴 각 부위 영역을 포함할 수 있다. 예를 들어, 얼굴 영역은 얼굴 전체 영역, 눈썹 영역, 눈 영역, 코 영역, 볼 영역, 이미 영역, 턱 영역 및 입술 영역 등 중 적어도 하나 이상을 포함할 수 있다.The
평가 알고리즘은 이미지에 포함된 얼굴 영역을 구성하는 적어도 하나 이상의 픽셀의 RGB 값을 이용하는 알고리즘일 수 있다. 즉, 이미지는 RGB 값으로 표현되는 이미지일 수 있고, 평가 알고리즘은 얼굴 영역을 구성하는 픽셀의 RGB 값을 이용하는 알고리즘일 수 있다.The evaluation algorithm may be an algorithm using RGB values of at least one or more pixels constituting the face region included in the image. That is, the image may be an image expressed by RGB values, and the evaluation algorithm may be an algorithm using RGB values of pixels constituting the face region.
또한, 평가 알고리즘은 이미지에 포함된 얼굴 영역을 구성하는 적어도 하나 이상의 픽셀의 RGB 값을 Lab 색상값으로 변환하고, 변환된 Lab 색상값을 이용하는 알고리즘일 수 있다. 즉, 평가 알고리즘은 RGB 값으로 표현되는 이미지를 Lab 색 공간으로 변환하고, Lab 색상값을 통해 메이크업을 평가하는 알고리즘일 수 있다. Lab 색상값은 출력 매체에 따라 색이 달라지지 않기 때문에, Lab 색상값을 이용하는 평가 알고리즘을 적용시 출력 매체와 관계없이 일관된 평가가 가능하여, 메이크업 평가의 신뢰성을 확보 가능한 이점이 있다.Also, the evaluation algorithm may be an algorithm that converts RGB values of at least one or more pixels constituting a face region included in an image into Lab color values and uses the converted Lab color values. That is, the evaluation algorithm may be an algorithm that converts an image expressed in RGB values into a Lab color space and evaluates makeup through Lab color values. Since the color of the Lab color value does not change depending on the output medium, when the evaluation algorithm using the Lab color value is applied, consistent evaluation is possible regardless of the output medium, thereby securing the reliability of makeup evaluation.
또한, 메이크업 DB 관리부(110)는 메이크업 평가에 사용되는 점수 테이블(도 18 참고)을 저장하고 있을 수 있다. 구체적으로, 점수 테이블은 복수개의 제1 샘플 색상과 복수개의 제2 샘플 색상을 포함할 수 있다. 여기서, 제1 샘플 색상은 피부 색상을 대표하는 샘플 색상이고, 제2 샘플 색상은 입술 색상, 블러셔 색상 또는 아이섀도우 색상을 대표하는 샘플 색상일 수 있다.Also, the makeup
복수개의 제1 샘플 색상 각각과 복수개의 제2 샘플 색상 각각은 팹핑되어 있을 수 있고, 한 쌍의 제1 샘플 색상과 제2 샘플 색상에는 점수 데이터가 맵핑되어 있을 수 있다. 즉, 점수 테이블은 복수개의 제1 샘플 색상 중 어느 하나와 복수개의 제2 샘플 색상 중 어느 하나에 맵핑되는 점수 데이터들로 구성될 수 있다.Each of the plurality of first sample colors and each of the plurality of second sample colors may be mapped, and score data may be mapped to the pair of first and second sample colors. That is, the score table may be composed of score data mapped to any one of a plurality of first sample colors and any one of a plurality of second sample colors.
이와 같은, 점수 테이블은 메이크업의 색상 조화를 평가하는 경우 사용될 수 있다. 예를 들어, 메이크업 분석부(122)는 사용자의 얼굴 영역에서 제1 색상과, 제2 색상을 검출하고, 제1 색상과 제2 색상에 기초하여 메이크업의 색상 조화를 평가할 수 있다. 구체적으로, 메이크업 분석부(122)는 제1 색상과 동일한 색상을 복수개의 제1 샘플 색상에서 검색하고, 제2 색상과 동일한 색상을 복수개의 제2 샘플 색상에서 검색하고, 검색된 한 쌍의 색상에 맵핑되어 있는 점수를 획득하여 색상 조화를 평가할 수 있다.Such a score table may be used when evaluating color harmony of makeup. For example, the
또한, 일 실시 예에 따르면, 점수 테이블은 메이크업 전문가의 메이크업 평가를 위한 입력에 기초하여 생성된 테이블일 수 있다. 즉, 점수 테이블은 메이크업 전문가들이 미리 색상 조합에 대하여 점수를 입력해둔 테이블일 수 있다.Also, according to an embodiment, the score table may be a table generated based on an input for makeup evaluation by a makeup expert. That is, the score table may be a table in which makeup experts have previously input scores for color combinations.
후술하는 메이크업 분석부(122)가 메이크업 전문가의 메이크업 평가를 위한 입력에 기초하여 생성된 테이블을 이용하여 메이크업을 평가하는 경우, 전문성에 기반한 메이크업 평가 결과를 사용자에게 제공 가능한 이점이 있다. 이에 따라, 메이크업 평가 시스템의 신뢰도가 증가될 수 있다.When the
다음으로, 메이크업 평가부(120)를 구체적으로 설명한다.Next, the
메이크업 평가부(120)는 영역 검출부(121) 및 메이크업 분석부(122)로 구성될 수 있다.The
영역 검출부(121)는 사진 또는 동영상에 포함된 얼굴 이미지를 획득할 수 있다. 구체적으로, 영역 검출부(121)는 무선 통신부(140)를 통해 사진 또는 동영상을 수신하고, 사진 또는 동영상에서 메이크업 평가의 대상이 되는 얼굴 이미지를 검출할 수 있다.The
또한, 영역 검출부(121)는 얼굴 이미지에서 얼굴의 각 영역을 검출할 수 있다. 예를 들어, 영역 검출부(121)는 눈썹 영역, 눈 영역, 코 영역, 볼 영역, 입 영역 및 턱 영역 중 적어도 하나 이상을 검출할 수 있다.Also, the
예를 들어, 영역 검출부(121)는 얼굴 인식(face recognition) 알고리즘을 통해 얼굴과, 얼굴 각 부위를 검출할 수 있다.For example, the
또한, 영역 검출부(121)는 얼굴 인식시 딥러닝 기술을 통해 얼굴 및 얼굴 부위를 보다 정확하게 인식 가능한 이점이 있다.In addition, the
메이크업 분석부(122)는 영역 검출부(121)가 획득한 얼굴 영역 및 얼굴 각 영역의 메이크업을 분석한다. 예를 들어, 메이크업 분석부(122)는 얼굴 영역 및 얼굴 각 영역을 메이크업 DB 관리부(110)에 저장된 점수 테이블 및 평가 알고리즘에 기초하여 메이크업을 분석할 수 있다. 구체적은 방법은 후술하기로 한다.The
실시 예에 따라, 메이크업 분석부(122)는 메이크업 분석 결과에 기초하여 얼굴 이미지의 메이크업 점수를 산출한다. 예를 들어, 메이크업 분석부(122)는 메이크업 종합 점수와 얼굴 영역별 점수를 각각 산출할 수 있다.According to an embodiment, the
제어부(130)는 메이크업 서버(100)의 전반적인 동작을 제어한다. 구체적으로, 제어부(130)는 메이크업 DB 관리부(110), 메이크업 평가부(120) 및 무선 통신부(140)의 동작을 제어할 수 있다.The
무선 통신부(140)는 외부와 데이터를 송수신할 수 있다. 예를 들어, 무선 통신부(140)는 이동 단말기(10) 또는 어플리케이션 서버(200)로부터 이미지 데이터를 수신할 수 있다. 무선 통신부(140)는 수신된 이미지 데이터를 메이크업 DB 관리부(110) 또는 메이크업 평가부(120)로 전달할 수 있다.The
한편, 이하에서 설명하는 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Meanwhile, the embodiments described below may be implemented in a computer-readable recording medium using, for example, software, hardware, or a combination thereof.
다음으로, 도 4는 본 발명의 실시 예에 따른 메이크업 평가 시스템의 동작 방법을 나타내는 래더 다이어그램이다.Next, FIG. 4 is a ladder diagram illustrating a method of operating a makeup evaluation system according to an embodiment of the present invention.
도 4에서는 설명의 편의를 위해 이동 단말기(10)는 메이크업 서버(100)와 신호를 송수신하고, 도 1에서 설명한 어플리케이션 서버(200)는 메이크업 서버(100)에 포함된 것으로 가정한다.In FIG. 4 , for convenience of explanation, it is assumed that the
이동 단말기(10)의 제어부(17)는 이미지를 획득할 수 있다(S11).The
제어부(17)는 무선 통신부(11) 또는 카메라(13)를 통해 이미지를 획득할 수 있다. 무선 통신부(11)는 외부로부터 이미지를 수신할 수 있다. 카메라(13)는 사진 또는 동영상을 촬영하여 이미지를 획득할 수 있다.The
사용자는 메이크업을 평가 받기 위해 메이크업된 얼굴 이미지를 이동 단말기(10)에 전송 또는 입력할 수 있다. 예를 들어, 사용자는 외부에 저장된 이미지를 이동 단말기(10)에 전송하거나, 이동 단말기(10)의 카메라(13)로 메이크업된 얼굴을 촬영할 수 있다.The user may transmit or input a makeup face image to the
이동 단말기(10)의 제어부(17)는 메이크업 평가 요청명령을 수신할 수 있다(S11).The
제어부(17)는 입력부(12)를 통해 메이크업 평가 요청명령을 수신할 수 있다. 입력부(12)는 적어도 하나 이상의 이미지를 선택하는 명령을 수신한 후 메이크업 평가 요청명령을 수신할 수 있다.The
사용자는 메이크업 평가를 받고 싶은 이미지를 선택한 후 메이크업 평가 요청을 입력부(12)로 입력할 수 있다.After selecting an image for which the user wants to receive a makeup evaluation, the user may input a makeup evaluation request to the
또한, 제어부(17)는 메이크업 평가 요청명령을 수신시 입력부(12)를 통해 메이크업 주제 선택 명령을 더 수신할 수 있다. 메이크업 주제는 내추럴(natural), 러블리(lovely) 또는 스모키(smoky) 등을 포함할 수 있다. 메이크업 주제에 따라 메이크업 평가는 상이할 수 있다. 따라서, 보다 정확한 메이크업 평가를 위해 제어부(17)는 메이크업 평가 요청명령을 수신하는 경우 메이크업 주제를 선택하는 명령을 함께 수신할 수 있다.In addition, the
이동 단말기(10)의 제어부(17)는 메이크업 서버(100)로 메이크업 평가 요청신호를 전송할 수 있다(S15).The
제어부(17)는 무선 통신부(11)를 통해 메이크업 서버(100)로 메이크업 평가 요청신호를 전송하도록 제어할 수 있다. The
메이크업 평가 요청신호는 이미지 데이터를 포함할 수 있다. 즉, 제어부(17)는 단계 S11에서 획득한 이미지에 대응하는 이미지 데이터를 포함하는 메이크업 평가 요청신호를 메이크업 서버(100)로 전송할 수 있다.The makeup evaluation request signal may include image data. That is, the
메이크업 평가 요청신호는 이미지 데이터에 따른 이미지에 포함된 얼굴에 대응하는 메이크업 평가를 요청하는 신호일 수 있다.The makeup evaluation request signal may be a signal for requesting makeup evaluation corresponding to the face included in the image according to the image data.
메이크업 서버(100)의 무선 통신부(140)는 메이크업 평가 요청신호를 수신할 수 있다.The
메이크업 서버(100)의 제어부(130)는 메이크업 평가 요청신호에 포함된 이미지 데이터를 분석할 수 있다. 구체적으로, 메이크업 평가 요청신호에 포함된 이미지 데이터는 이미지 전송을 위해 변조된 데이터일 수 있다. 제어부(130)는 메이크업 평가 요청신호에 포함된 이미지 데이터를 이미지로 복원할 수 있다.The
메이크업 서버(100)의 제어부(130)는 메이크업 평가 요청신호를 통해 수신된 이미지에서 기 설정된 영역을 검출할 수 있다(S17).The
제어부(130)는 메이크업 평가의 대상이 되는 적어도 하나 이상의 평가 부문을 미리 설정하고 있을 수 있다. 제어부(130)는 평가 부문에 대응하는 적어도 하나 이상의 영역을 이미지에서 검출할 수 있다.The
예를 들어, 제어부(130)는 눈썹(eyebrow) 부문, 다크서클(dark circle) 부문, 색상조화(hue harmony) 부문, 입술(lip) 부문 및 잡티(blemish) 부문 중 적어도 하나 이상을 메이크업 평가의 대상이 되는 평가 부문으로 설정하고 있을 수 있다. 그러나, 앞에서 나열한 평가 부문은 설명의 편의를 위해 예시로 든 것에 불과하므로 이에 제한될 필요는 없다.For example, the
제어부(130)는 눈썹 부문을 평가하기 위한 눈썹 영역, 다크서클 부문을 평가하기 위한 다크서클 영역, 색상조화 부문을 평가하기 위한 색상조화 영역, 입술 부문을 평가하기 위한 입술 영역 및 잡티 부문을 평가하기 위한 잡티 영역 중 적어도 하나 이상의 영역을 수신된 이미지에 검출할 수 있다.The
이 때, 눈썹 영역, 다크서클 영역 등과 같은 각각의 영역은 해당 부위에 제한되지 않으며, 영역별 평가 알고리즘에 따라 적어도 하나 이상의 부위를 포함할 수 있다. 예를 들어, 눈썹 영역은 눈썹 부위에 제한되지 않고 눈썹 부위 및 코 부위 등을 포함할 수 있다. 이는, 눈썹 영역을 평가한다고 하여 눈썹의 모양, 색상 등만을 평가하는 것이 아니라, 눈썹 부위와 얼굴 전체의 조화 등을 고려하여 평가하기 위함이다. 각각의 영역에 대응하는 검출 부위는 후술하는 영역별 평가 알고리즘을 통해 자세히 설명하기로 한다.In this case, each region such as the eyebrow region and the dark circle region is not limited to the corresponding region, and may include at least one region according to an evaluation algorithm for each region. For example, the eyebrow area is not limited to the eyebrow area and may include an eyebrow area and a nose area. This is to evaluate not only the shape and color of the eyebrows, but also the harmony between the eyebrow region and the entire face when evaluating the eyebrow region. A detection site corresponding to each region will be described in detail through an evaluation algorithm for each region, which will be described later.
제어부(130)는 검출된 적어도 하나 이상의 영역에 각 영역별 평가 알고리즘을 적용하여 평가할 수 있다(S19).The
제어부(130)는 검출된 영역에 따라 상이한 평가 알고리즘을 적용할 수 있다. 예를 들어, 제어부(130)는 눈썹 영역에는 제1 평가 알고리즘을 적용하고, 다크서클 영역에는 제2 평가 알고리즘을 적용할 수 있다.The
이와 같이, 본 발명의 실시 예에 따르면 검출된 복수의 영역에 동일한 평가 알고리즘을 적용하여 일관되게 평가하는 것이 아니라, 검출된 영역에 따라 각각 상이한 평가 알고리즘을 적용하여 메이크업을 보다 정밀하게 평가 가능한 이점이 있다.As such, according to an embodiment of the present invention, instead of consistently evaluating a plurality of detected areas by applying the same evaluation algorithm, different evaluation algorithms are applied according to the detected areas to more precisely evaluate makeup. have.
다음으로, 제어부(130)가 단계 S17에서 검출된 영역 각각에 적용하는 적어도 하나 이상의 평가 알고리즘을 설명한다.Next, at least one or more evaluation algorithms applied by the
먼저, 도 5 내지 도 9는 본 발명의 실시 예에 따른 눈썹 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이고, 도 10은 본 발명의 실시 예에 따른 눈썹 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.First, FIGS. 5 to 9 are diagrams for explaining an evaluation algorithm applied when evaluating an eyebrow section according to an embodiment of the present invention, and FIG. 10 is a method of displaying an evaluation result of an eyebrow section according to an embodiment of the present invention. It is an example drawing for description.
본 발명의 실시 예에 따르면, 메이크업 서버(100)의 메이크업 DB 관리부(110)는 눈썹 부문을 평가하기 위한 평가 알고리즘을 저장하고 있을 수 있다. 제어부(130)는 단계 S17에서 영역 검출부(121)를 통해 눈썹 영역을 검출하고, 메이크업 분석부(122)를 통해 검출된 눈썹 영역에 평가 알고리즘을 적용할 수 있다.According to an embodiment of the present invention, the makeup
눈썹 부문을 평가하기 위한 평가 알고리즘은 복수개의 알고리즘을 포함할 수 있고, 각각의 알고리즘은 눈썹 부문을 상이하게 평가할 수 있다. 예를 들어, 눈썹 부문을 평가하기 위한 평가 알고리즘은 눈썹 길이를 평가하는 알고리즘, 수평 정도를 평가하는 알고리즘, 눈썹 앞길이를 평가하는 알고리즘 및 눈썹 색상의 균일성을 평가하는 알고리즘 등을 포함할 수 있다.The evaluation algorithm for evaluating the eyebrow segment may include a plurality of algorithms, and each algorithm may differently evaluate the eyebrow segment. For example, the evaluation algorithm for evaluating the eyebrow segment may include an algorithm for evaluating the length of the eyebrows, an algorithm for evaluating the horizontal degree, an algorithm for evaluating the front length of the eyebrows, and an algorithm for evaluating the uniformity of the eyebrow color. .
메이크업 분석부(122)는 눈썹 영역에 평가 알고리즘을 적용시, 눈썹 길이, 수평 정도, 눈썹 앞길이 및 눈썹 색상의 균일성을 모두 분석 및 평가할 수 있다.When the evaluation algorithm is applied to the eyebrow region, the
도 5를 참고하여, 제어부(130)가 눈썹 영역의 눈썹 길이를 평가하는 방법을 설명한다.A method in which the
영역 검출부(121)는 이미지에서 어느 하나의 눈의 바깥쪽 끝인 제1 지점(501)과, 코의 바깥쪽 끝인 제2 지점(502)을 검출할 수 있다. 이 때, 영역 검출부(121)는 오른쪽 눈의 바깥쪽 끝 지점을 검출한 경우 코의 오른쪽 끝을 검출하고, 왼쪽 눈의 바깥쪽 끝 지점을 검출한 코의 왼쪽 끝을 검출할 수 있다.The
메이크업 분석부(122)는 제1 지점(501)과 제2 지점(502)을 연결하는 직선(510)을 획득할 수 있다.The
메이크업 분석부(122)는 눈썹의 바깥쪽 끝인 제3 지점(503)을 검출하고, 제3 지점(503)과 직선(510)과의 거리(d1)를 산출할 수 있다.The
메이크업 분석부(122)는 산출된 거리(d1)를 통해 눈썹 길이의 적절성을 판단할 수 있다. 예를 들어, 메이크업 분석부(122)는 산출된 거리(d1)가 제1 거리 이하이면 눈썹 길이를 '짧음'으로 판단하고, 산출된 거리(d1)가 제1 거리보다 길고 제2 거리 이하이면 눈썹 길이를 '적정'으로 판단하고, 산출된 거리(d1)가 제2 거리보다 길면 눈썹 길이를 '김'으로 판단할 수 있다. 그러나, 이와 같은 판단 방법은 예시적인 것에 불과하므로 이에 제한될 필요는 없다. The
도 6을 참고하여, 제어부(130)가 눈썹 영역의 수평 정도를 평가하는 방법을 설명한다.A method for the
영역 검출부(121)는 이미지에서 어느 하나의 눈썹을 기준으로 눈썹의 안쪽 끝인 제1 지점(601)과, 같은 눈썹의 바깥쪽 끝인 제2 지점(602)을 검출할 수 있다.The
영역 검출부(121)는 제1 지점(601)과 제2 지점(602)을 연결하는 직선(610)을 획득하고, 직선과 수평선(620)과의 각도(θ)를 산출할 수 있다.The
메이크업 분석부(122)는 산출된 각도(θ)를 통해 눈썹의 수평 정도의 적절성을 판단할 수 있다.The
예를 들어, 메이크업 분석부(122)는 산출된 각도(θ)가 제1 각도 이하이면 눈썹의 수평 정도를 '직선형'로 판단하고, 산출된 각도(θ)가 제1 각보보다 크고 제2 각도 이하이면 눈썹의 수평 정도를 '일반형'으로 판단하고, 산출된 각도(θ)가 제2 각도보다 크면 눈썹의 수평 정도를 '아치형'으로 판단할 수 있다. 그러나, 이와 같은 판단 방법은 예시적인 것에 불과하므로 이에 제한될 필요는 없다.For example, if the calculated angle θ is less than or equal to the first angle, the
또한, 메이크업 분석부(122)는 '직선형', '일반형' 또는 '아치형'과 같은 눈썹의 수평 정도에 따른 눈썹 유형을 판단하고, 판단한 각각의 유형에 따라 눈썹 모양의 점수를 산출할 수 있다. 예를 들어, 눈썹 유형에 따른 눈썹 모양을 나타내는 데이터를 미리 저장하고 있을 수 있고, 메이크업 분석부(122)는 판단한 눈썹 유형에 따른 눈썹 모양 데이터를 이미지에서 획득된 눈썹 모양의 데이터와 비교하고, 비교 결과 저장된 데이터와 이미지에서 획득된 데이터의 차가 작을수록 눈썹 점수를 높게 산출하는 방식으로 점수를 결정할 수도 있다.In addition, the
도 7을 참고하여, 제어부(130)가 눈썹 영역의 눈썹 앞길이를 평가하는 방법을 설명한다.A method in which the
영역 검출부(121)는 이미지에서 어느 하나의 눈썹을 기준으로 눈썹의 안쪽 ?P인 제1 지점(701)과, 코의 바깥쪽 끝인 제2 지점(702)을 검출할 수 있다. 이 때, 영역 검출부(121)는 오른쪽 눈썹의 안쪽 끝 지점을 검출한 경우 코의 오른쪽 끝을 검출하고, 왼쪽 눈썹의 안쪽 끝 지점을 검출한 코의 왼쪽 끝을 검출할 수 있다.The
메이크업 분석부(122)는 제2 지점(702)을 수직방향으로 지나는 직선(710)을 획득하고, 직선(710)과 제1 지점(701) 사이의 거리(d2)를 획득할 수 있다.The
메이크업 분석부(122)는 산출된 거리(d2)를 통해 눈썹 앞길이의 적절성을 판단할 수 있다. 예를 들어, 메이크업 분석부(122)는 산출된 거리(d2)가 제1 거리 이하이면 눈썹 앞길이를 '짧음'으로 판단하고, 산출된 거리(d2)가 제1 거리보다 길고 제2 거리 이하이면 눈썹 앞길이를 '적정'으로 판단하고, 산출된 거리(d2)가 제2 거리보다 길면 눈썹 앞길이를 '김'으로 판단할 수 있다. 그러나, 이와 같은 판단 방법은 예시적인 것에 불과하므로 이에 제한될 필요는 없다. The
도 5 내지 도 7에서 설명한 방법에 따르면, 사람마다 상이한 눈의 크기, 코의 크기 등을 반영한 메이크업 평가가 가능한 이점이 있다. 즉, 눈썹은 5cm가 적당하다고 일관적으로 판단하는 것이 아니라, 사람의 눈의 길이, 코의 길이, 눈썹의 위치 등 사용자마다 상이한 얼굴 특성을 고려하여 메이크업의 평가가 가능한 이점이 있다.According to the method described with reference to FIGS. 5 to 7 , there is an advantage in that it is possible to evaluate makeup reflecting different eye sizes and nose sizes for each person. That is, it is not consistently determined that 5 cm is appropriate for the eyebrows, but there is an advantage in that it is possible to evaluate the makeup in consideration of different facial characteristics for each user, such as the length of the human eye, the length of the nose, and the position of the eyebrows.
도 8 내지 도 9를 참고하여, 제어부(130)는 눈썹 영역의 눈썹 색상의 균일성을 평가하는 방법을 설명한다. 눈썹 색상의 균일성은 눈썹의 색상이 고르게 메이크업 되었는지를 나타내는 항목일 수 있다.A method for the
제어부(130)는 눈썹 색상의 균일성을 판단하기 위해 눈썹 판단 동작을 수행할 수 있다.The
영역 검출부(121)는 눈썹에서 제1 내지 제5 지점(801 내지 805)을 검출할 수 있다. 구체적으로, 영역 검출부(121)는 눈썹의 바깥쪽 끝인 제1 지점(801)과, 눈썹의 안쪽 끝인 제2 지점(802)을 검출하고, 눈썹 중 제1 지점(801)과 제2 지점(802)의 가운데인 제3 지점(803)을 검출하고, 눈썹 중 제1 지점(801)과 제3 지점(803)의 가운데인 제4 지점(804)과 제2 제점(802)과 제3 지점(803)의 가운데인 제5 지점(805)을 검출할 수 있다.The
도 8(a)에 도시된 바와 같이, 메이크업 분석부(122)는 제1 내지 제5 지점(801 내지 805)을 연결하는 곡선(810)을 획득할 수 있다.As shown in FIG. 8A , the
도 8(b)에 도시된 바와 같이, 메이크업 분석부(122)는 곡선(810)을 따라 곡선의 각 지점에서 수직선(820)을 획득하고, 수직선(820)에서 영상의 값을 추출할 수 있다. 여기서, 영상의 값은 RGB 값을 포함할 수 있고, 수직선(820)은 소정 길이를 갖는 직선일 수 있다.As shown in FIG. 8B , the
메이크업 분석부(122)는 수직선(820)을 따라 추출된 RGB 값 중 최대값을 획득하고, 최대값과, 최대값으로부터 일정 비율 이내의 영상의 값을 갖는 지점을 눈썹으로 판단할 수 있다. 예를 들어, 메이크업 분석부(122)는 추출된 영상의 값이 40, 41, 120, 122, 126, 43, 40인 경우 최대값 126을 획득하고, 126으로부터 20% 이내의 영상의 값인 120 및 122인 지점과 126인 지점을 눈썹으로 판단할 수 있다.The
메이크업 분석부(122)는 앞에서 설명한 눈썹 판단 동작을 이미지의 gray channel, red channel 및 blue channel에서 각각 수행할 수 있다.The
도 9(a)가 원본 이미지인 경우, 메이크업 분석부(122)는 gray channel에서 눈썹 판단 동작을 수행하여 도 9(b)에 도시된 바와 같이 제1 영역(901)을 눈썹으로 판단할 수 있다. 또한, 메이크업 분석부(122)는 red channel에서 눈썹 판단 동작을 수행하여 도 9(c)에 도시된 바와 같이 제2 영역(902)을 눈썹으로 판단할 수 있다.When FIG. 9(a) is the original image, the
메이크업 분석부(122)는 제1 영역(901)과 제2 영역(902)의 유사도를 측정할 수 있다. 메이크업 분석부(122)는 제1 영역(901)과 제2 영역(902)의 겹치는 영역의 넓이를 통해 유사도를 측정할 수 있다. 즉, 메이크업 분석부(122)는 제1 영역(901)과 제2 영역(902)의 겹치는 영역의 넓이가 넓을수록 유사도를 높게 산출하고, 겹치는 영역의 넓이가 좁을수록 유사도를 낮게 산출할 수 있다.The
메이크업 분석부(122)는 산출된 유사도를 통해 눈썹 균일성을 판단할 수 있다. 예를 들어, 메이크업 분석부(122)는 산출된 유사도가 제1 기준값 이하이면 눈썹 균일성을 '불균일'으로 판단하고, 산출된 유사도가 제2 기준값을 초과하면 눈썹 균일성을 '균일'으로 판단할 수 있다. 그러나, 이와 같은 판단 방법은 예시적인 것에 불과하므로 이에 제한될 필요는 없다.The
한편, 메이크업 분석부(122)는 red channel에서 눈썹으로 판단한 제2 영역(902)의 넓이가 기준 넓이 이하인 경우에는 blue channel 이미지에서 눈썹 판단 동작을 수행하여 도 9(d)에 도시된 바와 같이 제3 영역(903)을 눈썹으로 판단할 수 있다. 메이크업 분석부(122)는 제1 영역(901)과 제3 영역(903)의 유사도를 축정하여 앞에서 설명한 바와 같이 눈썹 균일성을 판단할 수 있다.On the other hand, when the width of the
무선 통신부(140)는 메이크업을 평가한 후 평가 결과 신호를 이동 단말기(10)로 전송할 수 있고, 이동 단말기(10)의 디스플레이부(14)는 평가결과를 표시할 수 있다. The
도 10은 눈썹 부문에 대한 메이크업 평가결과를 나타내는 예시 도면일 수 있다. 디스플레이부(14)는 눈썹 길이, 수평 정도, 눈썹 앞길이 및 눈썹 균일성에 대한 평가 결과를 표시할 수 있다. 그러나, 도 10에 도시된 평가결과를 나타내는 방법은 예시적인 것에 불과하다.10 may be an exemplary view showing a makeup evaluation result for an eyebrow section. The
다음으로, 도 11 내지 도 12는 본 발명의 실시 예에 따른 다크서클 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이고, 도 13은 본 발명의 실시 예에 따른 다크서클 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.Next, FIGS. 11 to 12 are diagrams for explaining an evaluation algorithm applied when evaluating a dark circle sector according to an embodiment of the present invention, and FIG. 13 shows an evaluation result of a dark circle sector according to an embodiment of the present invention. It is an exemplary diagram for explaining the method.
영역 검출부(121)는 눈 영역에서 복수개의 지점을 검출할 수 있다. 예를 들어, 영역 검출부(121)는 눈 영역에서 제1 내지 제4 지점(1101 내지 1104)을 검출할 수 있고, 제1 지점(1101)은 눈의 바깥쪽 끝 지점이고, 제2 지점(1102)은 눈의 안쪽 끝 지점이고, 제3 지점(1103)은 눈의 위쪽 끝 지점이고, 제4 제점(1104)은 눈의 아래쪽 끝 지점일 수 있다.The
메이크업 분석부(121)는 제1 및 제2 지점(1101, 1102)을 연결하는 직선 거리를 측정하여 눈의 수평 거리(l1)를 산출하고, 제3 및 제4 지점(1103, 1104)을 연결하는 직선 거리를 측정하여 눈의 수직 거리(l2)를 산출할 수 있다. The
메이크업 분석부(121)는 제1 내지 제4 지점(1101 내지 1104)과 수평 거리(l1) 및 수직 거리(l2)에 기초하여 기준선(1110)을 획득할 수 있다. 예를 들어, 메이크업 분석부(121)는 제3 지점(1103)으로부터 수직 거리(l2)만큼 아래로 이격된 위치에 수평 거리(l1)의 소정 비율에 해당하는 길이를 갖는 기준선(1110)을 획득할 수 있다. 기준선(1110)의 길이는 수평 거리(l1)의 80%일 수 있으나, 이는 예시적인 것에 불과하다.The
도 12을 참고하면, 메이크업 분석부(121)는 기준선(1110)의 좌측 1/3 영역(1111)의 RGB 값 중 최대값을 추출하고, 기준선(1110)의 우측 1/3 영역(1112)의 RGB 값 중 최대값을 추출하고, 기준선(1110)의 중앙 1/2 영역(1113)의 RGB 값 중 최소값을 추출할 수 있다.Referring to FIG. 12 , the
메이크업 분석부(121)는 추출된 두 개의 최대값 중 작은 값을 획득하고, 획득된 작은 값과 앞에서 추출된 최소 값의 차이를 산출할 수 있다. 메이크업 분석부(121)는 산출된 차이에 기초하여 다크서클의 진한 정도를 평가할 수 있다.The
본 발명에 따르면, 제1 내지 제4 지점(1101 내지 1104)와 눈의 거리를 통해 다크서클 대상 영역을 검출할 수 있고, 다크서클 대상 영역에서 양측의 RGB 값을 통해 주변 피부색을 획득하고, 가운데의 RGB 값을 통해 눈 아래에서 가장 진한 부분의 색을 획득하여, 다크서클의 진한 정도를 보다 정밀하게 측정 가능한 이점이 있다. 즉, 단순히 다크서클을 측정하는 것이 아니라, 다크서클이 주변 피부색과 유사하게 잘 커버되도록 메이크업 하였는지 평가 가능한 이점이 있다.According to the present invention, the dark circle target region can be detected through the distance between the first to
다음으로, 도 14 내지 도 18은 본 발명의 실시 예에 따른 색상조화 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이고, 도 19는 본 발명의 실시 예에 따른 색상조화 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.Next, FIGS. 14 to 18 are diagrams for explaining an evaluation algorithm applied when evaluating the color harmonization sector according to an embodiment of the present invention, and FIG. 19 shows the evaluation result of the color harmonization sector according to the embodiment of the present invention. It is an exemplary diagram for explaining the method.
먼저, 제어부(130)는 피부색을 추출하도록 제어할 수 있다. 구체적으로, 도 14(a)를 참조하면, 영역 검출부(121)는 이미지에 포함된 얼굴에서 코 영역(1401)을 검출할 수 있다. 특히, 영역 검출부(121)는 콧등 영역을 검출할 수 있다. 메이크업 분석부(122)는 코 영역(1401)에 포함된 복수의 지점들에 대응하는 복수의 RGB 색상값을 추출하고, 추출된 RGB 색상값들의 평균값을 산출할 수 있다. 메이크업 분석부(122)는 산출된 RGB 평균값에 대응하는 색상을 피부색으로 추출할 수 있다.First, the
메이크업 분석부(122)는 추출된 피부색을 Lab 색 공간에 분포시켜, 추출된 피부색과 가장 가까운 색을 검출하고, 검출된 색을 피부색으로 결정할 수 있다. 도 14(b)에 도시된 바와 같이, 메이크업 DB 관리부(110)는 복수개의 대표 피부 색상을 저장하고 있고, 메이크업 분석부(122)는 검출된 피부색과 가장 가까운 색을 저장된 대표 색상에서 획득할 수 있고, 획득된 색상을 피부색으로 결정할 수 있다. 예를 들어, 도 14에서 메이크업 분석부(122)는 s5를 피부색으로 결정할 수 있다.The
다음으로, 제어부(130)는 입술색을 추출하도록 제어할 수 있다. 구체적으로, 도 15(a)를 참조하면, 영역 검출부(121)는 이미지에 포함된 얼굴에서 입술 영역(1501)을 검출할 수 있다. 특히, 영역 검출부(121)는 아랫 입술 영역을 검출할 수 있다. 메이크업 분석부(122)는 입술 영역(1501)에 포함된 복수의 지점들에 대응하는 복수의 RGB 색상값을 추출하고, 추출된 RGB 색상값들의 평균을 산출할 수 있다. 메이크업 분석부(122)는 산출된 RGB 평균값에 대응하는 색상을 입술색으로 추출할 수 있다.Next, the
메이크업 분석부(122)는 추출된 입술색을 Lab 색 공간에 분포하여 추출된 입술색과 가장 가까운 색을 검출하고, 검출된 색을 입술색으로 결정할 수 있다. 도 15(b)에 도시된 바와 같이, 메이크업 DB 관리부(110)는 복수개의 대표 입술 색상을 저장하고 있고, 메이크업 분석부(122)는 복수개의 대표 입술 색상 중 검출된 입술색과 가장 가까운 색상을 획득할 수 있고, 획득된 색상을 입술색으로 결정할 수 있다. 예를 들어, 도 15에서 메이크업 분석부(122)는 l7을 입술색으로 결정할 수 있다.The
다음으로, 제어부(130)는 블러셔색을 추출하도록 제어할 수 있다. 구체적으로, 도 16(a)를 참조하면, 영역 검출부(121)는 이미지에 포함된 얼굴에서 볼 영역(1601)을 검출할 수 있다. 볼 영역(1601)은 왼쪽 볼 영역과 오른쪽 볼 영역을 모두 포함할 수 있다.Next, the
메이크업 분석부(122)는 블러셔색을 추출하는 경우 장애 제거 동작을 수행할 수 있다. 여기서, 장애 제거 동작은 머리카락 등에 의해 볼 영역이 가려져 블러셔 색상이 잘못 결정되는 경우를 최소화하기 위한 동작일 수 있다. 메이크업 분석부(122)는 장애 제거 동작을 수행하는 경우 이미지를 gray 이미지로 변환한 후 영상의 값이 소정 기준값 보다 작은 영역은 제거할 수 있고, 예를 들어 소정 기준값은 0.35일 수 있으나 이는 예시로 든 것에 불과하므로 이에 제한되지 않는다. 메이크업 분석부(122)는 볼 영역(1601) 중 제거된 영역을 제외한 나머지 영역에 대응하는 복수의 RGB 색상값을 추출하고, 추출된 RGB 색상값들의 평균값을 산출할 수 있다. 메이크업 분석부(122)는 산출된 RGB 평균값에 대응하는 색상을 블러셔색으로 추출할 수 있다.The
메이크업 분석부(122)는 추출된 블러셔색을 Lab 색 공간에 분포하여 추출된 블러셔색과 가장 가까운 색을 검출하고, 검출된 색을 블러셔색으로 결정할 수 있다. 도 16(b)에 도시된 바와 같이, 메이크업 DB 관리부(110)는 복수개의 대표 블러셔 색상을 저장하고 있고, 메이크업 분석부(122)는 복수개의 대표 블러셔 색상 중 검출된 블러셔색과 가장 가까운 색상을 획득할 수 있고, 획득된 색상을 블러셔색으로 결정할 수 있다. 예를 들어, 도 16에서 메이크업 분석부(122)는 b8을 블러셔색으로 결정할 수 있다.The
한편, 메이크업 분석부(122)는 볼 영역(1601) 중 Lab 색 공간에서 a 값이 큰 값을 대표 블러셔색으로 결정할 수도 있다.Meanwhile, the
다음으로, 제어부(130)는 아이섀도우색을 추출하도록 제어할 수 있다.Next, the
구체적으로, 도 17을 참조하면, 영역 검출부(121)는 이미지에 포함된 얼굴에서 눈 위 영역(1701)을 검출할 수 있다. 눈 위 영역(1701)은 왼쪽 눈 위 영역과 오른쪽 눈 위 영역을 모두 포함할 수 있다.Specifically, referring to FIG. 17 , the
메이크업 분석부(122)는 아이섀도우색을 추출하는 경우 앞에서 설명한 바와 같은 장애 제거 동작을 수행할 수 있다. 메이크업 분석부(122)는 눈 위 영역(1601) 중 장애 제거 동작을 통해 제거된 영역을 제외한 나머지 영역에 대응하는 복수의 RGB 색상값을 추출하고, 추출된 RGB 색상값들의 평균을 산출할 수 있다. 메이크업 분석부(122)는 산출된 RGB 평균값에 대응하는 색상을 아이섀도우색으로 추출할 수 있다. 특히, 메이크업 분석부(122)는 왼쪽 아이섀도우색과 오른쪽 아이섀도우색을 각각 추출할 수 있다. 메이크업 분석부(122)는 추출된 아이섀도우색에 기초하여 대표 섀도우색을 결정할 수 있다. When extracting the eyeshadow color, the
일 실시 예에 따르면, 메이크업 분석부(122)는 메이크업 주제에 따라 대표 섀도우 색을 상이한 방법으로 결정할 수 있다. 메이크업 분석부(122)는 메이크업 주제가 내추럴(natural) 또는 러블리(lovely)인 경우 추출된 왼쪽 아이섀도우색과 오른쪽 아이섀도우색 중 Lab 색 공간에서 a 값이 큰 값을 대표 섀도우색으로 결정할 수 있다. 메이크업 분석부(122)는 메이크업 주제가 스모키(smoky)인 경우 추출된 왼쪽 아이섀도우색과 오른쪽 아이섀도우색 중 Lab 색 공간에서 L 값이 작은 값을 대표 섀도우색으로 결정할 수 있다. 이는, 메이크업 주제에 따라 추천되는 아이섀도우색이 다르기 때문이며, 메이크업 주제에 따라 상이한 방법으로 대표 섀도우색을 결정함으로써, 메이크업이 잘 되었는지 뿐만 아니라 주제에 맞게 잘 되었는지까지 평가 가능한 이점이 있다.According to an embodiment, the
다음으로, 결정된 피부색, 입술색, 블러셔색 및 섀도우색으로 색상 조화를 평가하는 방법을 설명한다.Next, a method for evaluating color harmony with the determined skin color, lip color, blush color, and shadow color will be described.
메이크업 DB 관리부(110)는 복수개의 제1 샘플 색상과 복수개의 제2 샘플 색상을 포함하며, 복수개의 제1 샘플 색상 중 어느 하나와 복수개의 제2 샘플 색상 중 어느 하나로 구성되는 한 쌍의 샘플 색상에 점수 데이터가 맵핑되는 점수 테이블을 저장하고 있을 수 있다.The makeup
예를 들어, 도 18(a)를 참조하면, 메이크업 DB 관리부(110)는 복수개의 피부색과 복수개의 입술색을 맵핑하고 그에 대응하는 점수 나타내는 피부-입술 점수 테이블을 저장하고 있을 수 있다. 메이크업 분석부(122)는 결정된 피부색과 결정된 입술색을 피부-입술 점수 테이블에서 검색하고, 검색된 피부색과 입술색에 맵핑된 점수를 획득할 수 있고, 획득된 점수를 피부&입술 조화 점수로 판단할 수 있다.For example, referring to FIG. 18A , the
마찬가지로, 도 18(b)를 참조하면, 메이크업 DB 관리부(110)는 복수개의 피부색과 복수개의 블러셔색을 맵핑하고 그에 대응하는 점수 나타내는 피부-블러셔 점수 테이블을 저장하고 있을 수 있다. 메이크업 분석부(122)는 피부-블러셔 점수 테이블에서 결정된 피부색과 결정된 블러셔색을 검색하고, 검색된 피부색과 블러셔색에 맵핑된 점수를 획득할 수 있고, 획득된 점수를 피부&블러셔 조화 점수로 판단할 수 있다.Similarly, referring to FIG. 18B , the makeup
다음으로, 피부&아이섀도우 조화 점수를 판단하는 방법을 설명한다. 메이크업 분석부(122)는 도 17을 통해 설명한 방법으로 결정된 대표 섀도우색과 피부 색의 차를 산출할 수 있다. 구체적으로, 메이크업 분석부(122)는 대표 섀도우색과 피부 색의 a값의 차와 L값의 차를 각각 산출하고, 산출된 a값의 차와 L값의 차에 기초하여 점수를 판단할 수 있다. 마찬가지로, 메이크업 분석부(122)는 메이크업 주제에 따라 점수를 상이하게 판단할 수 있다.Next, a method for determining the skin & eyeshadow harmony score will be described. The
이와 같이, 메이크업 분석부(122)는 아이섀도우의 경우 피부와의 색상 조화 분석을 입술색 및 블러셔의 경우와는 다르게 판단할 수 있다. 이는, 블러셔 또는 입술은 메이크업 주제가 상이하더라도 색상 계열이 유사한 경향이 있으나, 아이섀도우의 경우 메이크업 주제에 따라 색상 계열이 완전히 달라질 수 있기 때문이다. 이에 따라, 메이크업의 색상조화 부문을 판단시 보다 정밀하게 색상조화를 평가 가능한 이점이 있다.In this way, the
한편, 메이크업 분석부(122)는 피부색, 입술색, 블러셔색 및 섀도우색 중 적어도 하나 이상을 추출할 때, 색상이 추출되지 않는 피부색의 경우 0점으로 판단할 수 있다. Meanwhile, when extracting at least one of a skin color, a lip color, a blush color, and a shadow color, the
무선 통신부(140)는 색상조화 부문을 평가한 후 평가 결과 신호를 이동 단말기(10)로 전송할 수 있고, 이동 단말기(10)의 디스플레이부(14)는 평가결과를 표시할 수 있다. The
도 14는 색상조화 부문에 대한 메이크업 평가결과를 나타내는 예시 도면일 수 있다. 디스플레이부(14)는 피부&입술 조화, 피부&블러셔 조화 및 피부&아이섀도우 조화에 대한 평가 결과를 표시할 수 있다. 그러나, 도 14에 도시된 평가결과를 나타내는 방법은 예시적인 것에 불과하다.14 may be an exemplary view showing a makeup evaluation result for a color harmonization section. The
다음으로, 도 20은 본 발명의 실시 예에 따른 입술 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이고, 도 21은 본 발명의 실시 예에 따른 입술 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.Next, FIG. 20 is a diagram for explaining an evaluation algorithm applied when evaluating a lip section according to an embodiment of the present invention, and FIG. 21 is a method for displaying an evaluation result of a lip section according to an embodiment of the present invention It is an example drawing for
영역 검출부(121)는 이미지에 포함된 얼굴에서 입술 영역(2001)을 검출할 수 있다. 검출된 입술 영역은 도 20(a)에 도시된 바와 같을 수 있다.The
메이크업 평가부(120)는 입술 영역(2001)의 메이크업과 관련하여, 입술 균일성과 입술 건조도를 평가할 수 있다. 여기서, 입술 균일성은 입술 색상의 균일성을 나타내는 것으로 입술에 메이크업이 고르게 잘 되었는지를 나타내는 항목일 수 있다. 입술 건조도는 입술이 촉촉한 상태로 메이크업이 잘 되었는지를 나타내는 항목일 수 있다.The
먼저, 메이크업 평가부(120)가 입술 균일성을 평가하는 방법을 설명한다. 메이크업 분석부(122)는 검출된 입술 영역(2001)을 Lab 색 공간으로 변환하고, L 공간에 있는 영상에서 임계값 설정을 통해 입술 영역 중 반사 영역의 영상을 획득할 수 있다. 예를 들어, 메이크업 분석부(122)는 L 공간에 있는 영상에서 L 값이 기 설정된 범위에 포함되는 픽셀들로 구성되는 영역을 검출하고, 검출된 영역을 반사 영역으로 결정할 수 있다.First, a method for the
도 20(b)는 메이크업 분석부(122)에 의해 결정된 반사 영역을 나타내는 예시 도면일 수 있다. 단계 1에서 반사 영역(2002)의 크기가 가장 크고, 단계 5로 갈수록 반사 영역(2002)의 크기가 감소되도록 도시되어 있다.20( b ) may be an exemplary view illustrating a reflection area determined by the
메이크업 분석부(122)는 도 20(a)에 도시된 바와 같은 이미지에서 입술 영역의 크기를 산출하고, 도 20(b)에 도시된 바와 같은 이미지에서 검출된 반사 영역의 크기를 산출할 수 있다.The
메이크업 분석부(122)는 입술 영역의 크기 대비 반사 영역의 크기의 비율을 산출할 수 있다. 메이크업 분석부(122)는 산출된 크기의 비율에 기초하여 입술의 균일성을 평가할 수 있다. 즉, 메이크업 분석부(122)는 단계 1에 도시된 입술의 경우 입술의 균일성을 높게 평가하고, 단계 5로 갈수록 입술의 균일성을 낮게 평가할 수 있다.The
유사하게, 메이크업 평가부(120)는 입술 건조도를 평가할 수 있다.Similarly, the
메이크업 분석부(122)는 입술 영역을 검출하고, 도 20(a)에 도시된 바와 같은 입술 영역 이미지(2001)를 획득할 수 있다.The
메이크업 분석부(122)는 획득된 입술 영역 이미지에 하이 패스 필터(high pass filter)를 적용한 필터링 이미지를 획득할 수 있다. 메이크업 분석부(122)는 필터링 이미지 중 R 공간에 있는 이미지에서 임계값 설정을 통해 입술 영역의 세로 주름을 나타내는 마스크 이미지를 획득할 수 있다. 즉, 메이크업 분석부(122)는 입술 영역 중 R 값이 기 설정된 범위체 포함되는 필셀로 구성되는 영역을 검출하고, 검출된 영역을 나타내는 주름 영역(2002)으로 결정할 수 잇다. 주름 영역(2002)은 도 20(b)에 도시된 예시와 유사하게 단계적으로 획득될 수 있다.The
메이크업 분석부(122)는 도 20(a)에 도시된 바와 같은 이미지에서 입술 영역의 크기를 산출하고, 도 20(b)에 도시된 바와 같은 이미지에서 주름 영역(2002)의 크기를 산출할 수 있다.The
메이크업 분석부(122)는 입술 영역의 크기 대비 주름 영역의 크기의 비율을 산출할 수 있다. 메이크업 분석부(122)는 산출된 크기의 비율에 기초하여 입술의 건조도를 평가할 수 있다. 즉, 메이크업 분석부(122)는 단계 1에 도시된 입술의 경우 크기의 비율이 크게 산출되며 입술의 건조도를 높게 평가하고, 단계 5로 갈수록 크기의 비율이 낮게 산출되며 입술의 건조도를 낮게 평가할 수 있다.The
도 20에서 반사 영역(2002)과 주름 영역(2002)이 동일한 것처럼 설명하였으나, 이는 설명의 편의를 위해 하나의 예시를 든 것에 불과하며, 하나의 이미지에서 반사 영역(2002)과 주름 영역(2002)은 상이하게 검출될 수 있고, 이에 따라 입술 균일성과 일술 건조도는 상이하게 평가될 수 있다.In FIG. 20, the
그러나, 앞에서 설명한 입술 부문 평가 방법은 예시로 든 것에 불과하므로 이에 제한될 필요는 없다.However, the lip section evaluation method described above is merely an example and need not be limited thereto.
무선 통신부(140)는 입술 부문을 평가한 후 평가 결과 신호를 이동 단말기(10)로 전송할 수 있고, 이동 단말기(10)의 디스플레이부(14)는 평가결과를 표시할 수 있다. After evaluating the lip section, the
도 21은 입술 부문에 대한 메이크업 평가결과를 나타내는 예시 도면일 수 있다. 디스플레이부(14)는 입술 균일성에 대한 평가 결과를 표시할 수 있다. 디스플레이부(14)는 입술 균일성에 대응하는 점수와 입술 건조도에 대응하는 점수를 각각 표시할 수 있다. 그러나, 도 21에 도시된 평가결과를 나타내는 방법은 예시적인 것에 불과하다.21 may be an exemplary view showing a makeup evaluation result for a lip part. The
다음으로, 도 22는 본 발명의 실시 예에 따른 잡티 부문 평가시 적용되는 평가 알고리즘을 설명하기 위한 도면이고, 도 23은 본 발명의 실시 예에 따른 잡티 부문의 평가결과를 표시하는 방법을 설명하기 위한 예시 도면이다.Next, FIG. 22 is a diagram for explaining an evaluation algorithm applied when evaluating a blemish section according to an embodiment of the present invention, and FIG. 23 is a method for displaying an evaluation result of a blemish section according to an embodiment of the present invention. It is an example drawing for
영상 검출부(121)는 이미지를 획득할 수 있고, 획득한 이미지에 포함된 얼굴 영역을 검출할 수 있다. 예를 들어, 영상 검출부(121)는 도 22(a)에 도시된 바와 같이 얼굴 영역을 검출할 수 있다.The
영상 검출부(121)는 검출된 얼굴 영역에서 볼 영역(2201)을 검출할 수 있고, 볼 영역(2201)은 왼쪽 볼 영역과 오른쪽 볼 영역을 포함할 수 있다. 예를 들어, 영상 검출부(121)는 도 22(b)에 도시된 바와 같이 얼굴 영역에서 볼 영역(2201)을 검출할 수 있다.The
영상 검출부(121)는 검출된 얼굴 영역에서 턱 영역(2202)을 검출할 수 있다. 메이크업 분석부(122)는 턱 영역(2202)에 포함된 모든 픽셀을 Lab 공간으로 변환하고, 변환된 Lab 공간에서 L, a 및 b 각각의 평균값을 산출하여 피부의 평균 Lab 값을 산출할 수 있다. The
메이크업 분석부(122)는 평균 Lab 값을 RGB 값으로 변환하여 피부의 RGB 평균값을 산출할 수 있다.The
다음으로, 메이크업 분석부(122)는 잡티 대상 영역을 설정할 수 있다. 구체적으로, 메이크업 분석부(122)는 얼굴 영역을 포함하는 이미지를 Lab 색공간으로 변환하고, 변환된 Lab와 앞에서 산출한 피부의 평균 Lab 값의 차에 대응하는 갭 이미지를 획득할 수 있다.Next, the
메이크업 분석부(122)는 갭 이미지에 포함된 복수의 픽셀들 각각을 기준으로 옆(좌측 또는 우측)에 위치한 픽셀간의 차에 대응하는 좌우 갭 이미지를 획득하고, 갭 이미지에 포함된 복수의 픽셀들 각각을 기준으로 위 또는 아래에 위치한 픽셀 간의 차에 대응하는 상하 갭 이미지를 획득할 수 있다.The
메이크업 분석부(122)는 좌우 갭 이미지의 픽셀 값을 제곱과 상하 갭 이비지의 픽셀 값을 제곱의 합에 대응하는 색상차 이미지를 획득할 수 있다. 메이크업 분석부(122)는 색상차 이미지에서 픽셀값이 기 설정된 임계값 보다 큰 지점들로 구성되는 대상 영역을 획득할 수 있다.The
메이크업 분석부(122)는 대상 영역에 모폴로지 연산(morphological operation)을 수행하여 클러스터링(clustering)된 영역을 도 22(d)에 도시된 바와 같이 잡티 대상 영역(2203)으로 설정할 수 있다. The
메이크업 분석부(122)는 잡티 대상 영역(2203)에서 픽셀값이 기 설정된 임계값 이상 차이나는 이질점(2213, 2223, 2233)을 획득할 수 있다. 특히, 도 22(e)에 도시된 바와 같이, 메이크업 분석부(122)는 볼 영역(2201) 내부에서 획득되는 이질점(2213, 2223)을 잡티로 인식할 수 있다.The
메이크업 분석부(122)는 볼 영역(2201)의 크기와, 잡티로 인식된 이질점(2213, 2223)의 크기를 각각 검출하고, 볼 영역(2201)의 크기 대비 이질점(2213, 2223)의 크기 비율을 산출할 수 있다. 메이크업 분석부(122)는 산출된 크기 비율에 기초하여 피부 균일성을 평가할 수 있다. 예를 들어, 메이크업 분석부(122)는 크기 비율이 제1 기준값(예를 들어, 0%)에서 제2 기준값(예를 들어, 5%) 사이에 속하면 5점, 제2 기준값(예를 들어, 5%)에서 제3 기준값(예를 들어, 10%) 사이에 속하면 3점, 제3 기준값(예를 들어, 10%)에서 제4 기준값(예를 들어, 20%) 사이에 속하면 1점으로 결정할 수 있다.The
피부 균일성은 얼굴의 피부색이 고르게 메이크업 되었는지를 나타내는 것으로, 잡티, 점 또는 주름 등과 같은 결점이 보이지 않도록 메이크업 커버가 잘 잘되었는지를 나타내는 지표일 수 있다.The skin uniformity indicates whether the skin color of the face is made-up evenly, and may be an index indicating whether the makeup cover is well made so that defects such as blemishes, spots, or wrinkles are not seen.
무선 통신부(140)는 잡티 부문을 평가한 후 평가 결과 신호를 이동 단말기(10)로 전송할 수 있고, 이동 단말기(10)의 디스플레이부(14)는 평가결과를 표시할 수 있다. After evaluating the blemishes section, the
도 23은 잡티 부문에 대한 메이크업 평가결과를 나타내는 예시 도면일 수 있다. 디스플레이부(14)는 잡티에 대한 평가 결과를 표시할 수 있다. 그러나, 도 23에 도시된 평가결과를 나타내는 방법은 예시적인 것에 불과하다.23 may be an exemplary view showing a makeup evaluation result for a blemish area. The
다시, 도 4를 설명한다.Again, FIG. 4 will be described.
메이크업 서버(100)는 메이크업을 평가한 평가 결과 신호를 이동 단말기(10)로 전송할 수 있다(S21). The
이와 같이 눈썹 부문, 다크서클 부문, 색상조화 부문, 입술 부문, 잡티 부문 등 세부 평가 부문별로 평가된 점수가 합해져서 메이크업 총점이 도출될 수 있다. 실시예에 따라서는 각각의 세부 평가 부문이 총점에 기여하는 비율이 메이크업 주제별로 다르게 설정될 수도 있다. 예를 들어, 메이크업 주제가 내추럴인 경우 총점은 다크서클 부문의 점수가 60%이고, 나머지 눈썹 부문, 색상조화 부문, 입술 부문, 잡티 부문에 대한 점수가 각각 10% 비율로 반영되어 산출되고, 메이크업 주제가 스모키인 경우 총점은 색상조화 부문이 35%이고, 입술 부문이 40%이고, 눈썹 부문이 15%이고, 다크서클 부문이 5%이고, 잡티 부문이 5%인 비율로 반영되어 산출될 수 있다.As described above, the total score for makeup can be derived by adding the scores evaluated for each detailed evaluation section, such as the eyebrow section, dark circle section, color coordination section, lip section, and blemish section. According to an exemplary embodiment, the ratio of the contribution of each sub-evaluation section to the total score may be set differently for each makeup topic. For example, if the makeup theme is natural, the total score for the dark circles section is 60%, and the scores for the remaining eyebrows section, color coordination section, lips section, and blemish section are each reflected at a rate of 10%. In the case of smokey, the total score may be calculated by reflecting the proportions of 35% for color harmony, 40% for lips, 15% for eyebrows, 5% for dark circles, and 5% for blemishes.
이동 단말기(10)의 디스플레이부(14)는 수신된 평가 결과 신호에 기초하여 메이크업 평가결과를 표시할 수 있다(S23).The
디스플레이부(14)는 도 24에 도시된 바와 같은 메이크업 결과를 표시할 수 있다. The
즉, 디스플레이부(14)는 메이크업 평가 부문 각각에 대한 점수와, 총점을 표시할 수 있다.That is, the
또는, 디스플레이부(14)는 도 10, 도 13, 도 19, 도 21 및 도 23에 도시된 바와 같이 메이크업 평가결과를 표시할 수 있다. 특히, 디스플레이부(14)는 도 24에 도시된 바와 같은 복수의 평가 부문 중 어느 하나의 부문이 선택되면 선택된 부문에 대한 세부 평가 결과로 도 10, 도 13, 도 19, 도 21 또는 도 23에 도시된 바와 같은 평가 결과를 표시할 수 있다.Alternatively, the
한편, 앞에서는 메이크업 서버(100)가 메이크업 평가를 수행하는 것으로 설명하였으나, 이는 설명의 편의를 위해 예시로 든 것에 불과하다. 이동 단말기(10)가 이미지를 획득하여 메이크업 평가를 직접 수행할 수도 있고, 이 경우 메이크업 서버(100)로부터 메이크업 평가와 관련된 데이터를 수신할 수 있다.Meanwhile, it has been described above that the
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 이동 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable code on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this. In addition, the computer may include the control unit 180 of the mobile terminal. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.
Claims (10)
상기 이미지에서 검출된 얼굴 영역에 대한 메이크업을 평가하는 메이크업 서버를 포함하고,
상기 이동 단말기는
상기 메이크업 서버에서 수신한 메이크업의 평가 결과를 표시하며,
상기 메이크업 서버는
상기 이미지에서 적어도 2 이상의 영역의 색상을 추출하고, 추출된 복수의 색상에 기초하여 상기 메이크업의 색상조화를 평가하는
메이크업 평가 시스템.
a mobile terminal for transmitting the image to the makeup server; and
and a makeup server that evaluates makeup for the face region detected in the image,
the mobile terminal
Displays the evaluation result of the makeup received from the makeup server,
The makeup server
extracting the colors of at least two or more regions from the image, and evaluating the color harmony of the makeup based on the extracted plurality of colors
Makeup rating system.
상기 메이크업 서버는
점수 테이블에서 상기 추출된 복수의 색상에 맵핑된 점수를 획득함으로써, 상기 색상조화를 평가하는
메이크업 평가 시스템.
The method according to claim 1,
The makeup server
Evaluating the color harmony by obtaining a score mapped to the plurality of colors extracted from a score table
Makeup rating system.
상기 점수 테이블은
복수의 제1 샘플 색상 각각과 복수의 제2 샘플 색상 각각에 점수가 맵핑된 테이블인
메이크업 평가 시스템.
3. The method according to claim 2,
The score table is
A table in which scores are mapped to each of the plurality of first sample colors and each of the plurality of second sample colors.
Makeup rating system.
상기 메이크업 서버는
상기 추출된 복수의 색상 각각에 대응하는 색상을 상기 복수의 제1 샘플 색상과 상기 복수의 제2 샘플 색상에서 검색하고,
검색된 색상들이 맵핑된 점수를 획득하는
메이크업 평가 시스템.
4. The method according to claim 3,
The makeup server
retrieving a color corresponding to each of the plurality of extracted colors from the plurality of first sample colors and the plurality of second sample colors,
The searched colors obtain a mapped score.
Makeup rating system.
상기 메이크업 서버는
제1 영역에 포함된 복수의 지점에서 검출된 색상값들의 평균값에 대응하는 색상을 상기 제1 영역의 색상으로 추출하는
메이크업 평가 시스템.
The method according to claim 1,
The makeup server
extracting a color corresponding to an average value of color values detected at a plurality of points included in the first area as a color of the first area;
Makeup rating system.
상기 메이크업 서버는
상기 색상을 추출하기 전 장애 제거 동작을 수행하는
메이크업 평가 시스템.
The method according to claim 1,
The makeup server
Before extracting the color, an obstacle removal operation is performed.
Makeup rating system.
상기 메이크업 서버는
상기 이미지를 그레이 이미지로 변환한 후 영상의 값이 소정 기준값 보다 작은 영역을 제거하는 상기 장애 제거 동작을 수행하는
메이크업 평가 시스템.
7. The method of claim 6,
The makeup server
After converting the image to a gray image, performing the obstacle removal operation of removing a region in which the value of the image is smaller than a predetermined reference value
Makeup rating system.
상기 메이크업 서버는
제1 영역에서 검출된 복수의 색상들 중 어느 하나를 메이크업 주제에 따라 결정하여 상기 제1 영역의 색상으로 추출하는
메이크업 평가 시스템.
The method according to claim 1,
The makeup server
Determining any one of a plurality of colors detected in the first area according to a makeup subject and extracting it as a color of the first area
Makeup rating system.
상기 메이크업 서버는
상기 추출된 복수의 색상이 동일한 경우에도 상기 메이크업 주제에 따라 상기 색상조화의 점수를 상이하게 판단하는
메이크업 평가 시스템.
9. The method of claim 8,
The makeup server
Even when the extracted plurality of colors are the same, the score of the color harmony is determined differently according to the makeup theme.
Makeup rating system.
상기 메이크업 서버는
피부와 제1 영역의 색상조화, 피부와 제2 영역의 색상조화 및 피부와 제3 영역의 색상조화 중 적어도 하나를 평가하는
메이크업 평가 시스템.The method according to claim 1,
The makeup server
evaluating at least one of color harmony between the skin and the first area, color harmony between the skin and the second area, and color harmony between the skin and the third area
Makeup rating system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200002964A KR102330368B1 (en) | 2018-02-01 | 2020-01-09 | Make-up evaluation system and operating method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180012931A KR102066892B1 (en) | 2018-02-01 | 2018-02-01 | Make-up evaluation system and operating method thereof |
KR1020200002964A KR102330368B1 (en) | 2018-02-01 | 2020-01-09 | Make-up evaluation system and operating method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180012931A Division KR102066892B1 (en) | 2017-02-01 | 2018-02-01 | Make-up evaluation system and operating method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200006157A KR20200006157A (en) | 2020-01-17 |
KR102330368B1 true KR102330368B1 (en) | 2021-11-23 |
Family
ID=69370041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200002964A KR102330368B1 (en) | 2018-02-01 | 2020-01-09 | Make-up evaluation system and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102330368B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101872635B1 (en) * | 2017-02-01 | 2018-06-29 | 주식회사 엘지생활건강 | Automatic make-up evaluation system and operating method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009064423A (en) * | 2007-08-10 | 2009-03-26 | Shiseido Co Ltd | Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program |
KR101733512B1 (en) * | 2010-12-22 | 2017-05-10 | 에스케이플래닛 주식회사 | Virtual experience system based on facial feature and method therefore |
-
2020
- 2020-01-09 KR KR1020200002964A patent/KR102330368B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101872635B1 (en) * | 2017-02-01 | 2018-06-29 | 주식회사 엘지생활건강 | Automatic make-up evaluation system and operating method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20200006157A (en) | 2020-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11748980B2 (en) | Makeup evaluation system and operating method thereof | |
CN110235169B (en) | Cosmetic evaluation system and operation method thereof | |
US11288504B2 (en) | Iris liveness detection for mobile devices | |
US9445087B2 (en) | Systems, devices, and methods for providing products and consultations | |
Li et al. | Learning to predict gaze in egocentric video | |
US9076029B2 (en) | Low threshold face recognition | |
EP3249562A1 (en) | Method for obtaining care information, method for sharing care information, and electronic apparatus therefor | |
TWI773096B (en) | Makeup processing method and apparatus, electronic device and storage medium | |
US8824747B2 (en) | Skin-tone filtering | |
US20170091550A1 (en) | Multispectral eye analysis for identity authentication | |
US20220335614A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of a Scalp Region of a Users Scalp to Generate One or More User-Specific Scalp Classifications | |
CN112818722A (en) | Modular dynamically configurable living body face recognition system | |
CN112000221A (en) | Method for automatically detecting skin, method for automatically guiding skin care and makeup and terminal | |
JP3459950B2 (en) | Face detection and face tracking method and apparatus | |
CN108664908A (en) | Face identification method, equipment and computer readable storage medium | |
KR102066892B1 (en) | Make-up evaluation system and operating method thereof | |
CN115410240A (en) | Intelligent face pockmark and color spot analysis method and device and storage medium | |
KR102330368B1 (en) | Make-up evaluation system and operating method thereof | |
CN109255674A (en) | A kind of examination adornment data processing system and method | |
Abdul-Al et al. | The Impacts of Depth Camera and Multi-Sensors for Face and Fingerprint Recognition in 2D and 3D-A Case Study | |
CN114627051A (en) | Skin detection method, electronic device, storage medium and product | |
KR20220080686A (en) | System for offering location of object through analyzing of user's preference data | |
KR20220054177A (en) | researching system for preference during communication through facial recognition of user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |