KR102465455B1 - An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions - Google Patents

An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions Download PDF

Info

Publication number
KR102465455B1
KR102465455B1 KR1020190026697A KR20190026697A KR102465455B1 KR 102465455 B1 KR102465455 B1 KR 102465455B1 KR 1020190026697 A KR1020190026697 A KR 1020190026697A KR 20190026697 A KR20190026697 A KR 20190026697A KR 102465455 B1 KR102465455 B1 KR 102465455B1
Authority
KR
South Korea
Prior art keywords
image
evaluation
score
information
score distribution
Prior art date
Application number
KR1020190026697A
Other languages
Korean (ko)
Other versions
KR20200107499A (en
Inventor
곽지훈
이상덕
최호진
Original Assignee
주식회사 에이아이네이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이아이네이션 filed Critical 주식회사 에이아이네이션
Priority to KR1020190026697A priority Critical patent/KR102465455B1/en
Publication of KR20200107499A publication Critical patent/KR20200107499A/en
Application granted granted Critical
Publication of KR102465455B1 publication Critical patent/KR102465455B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0277Online advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Human Resources & Organizations (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

가상으로 화장된 이미지에 대하여 보다 객관적인 평가 점수를 생성하도록 하는 가상화장 이미지 평가 점수 생성 장치 및 방법을 제시한다. 이미지 평가 점수를 생성하는 장치로서, 가상 화장 이미지로 합성된 하나 또는 복수개의 합성 이미지들에 대한 이미지 평가 점수를 생성하되, 평가하고자 종류의 이미지와 평가하고자 하는 특성에 대한 점수 쌍(이미지, 점수)을 신경망에 학습시킨 신경망으로 구축된 학습 모델을 이용하고, 상기 학습 모델을 이용하여 얼굴 랜드마크를 통한 학습/평가, 얼굴 자동 군집 분류 및 유사도 측정 평가, 얼굴각도 측정 및 필터링 평가, 개별 특성(피부톤/비례 등) 학습/개별 특성별 평가 및 평가자 자동 군집 분류 및 유사도 측정 평가 중 적어도 하나 이상의 처리를 수행하여 뷰티스코어(정량적 뷰티 평가)에 따라 이미지 평가 점수를 생성하는 것을 특징으로 한다.An apparatus and method for generating a virtual field image evaluation score for generating a more objective evaluation score for a virtual makeup image are provided. An apparatus for generating an image evaluation score, generating an image evaluation score for one or a plurality of synthetic images synthesized into a virtual makeup image, and a score pair (image, score) for a type of image to be evaluated and a characteristic to be evaluated using a learning model built with a neural network trained on a neural network, and using the learning model to learn/evaluate through face landmarks, face automatic cluster classification and similarity measurement evaluation, face angle measurement and filtering evaluation, individual characteristics (skin tone) / Proportionality, etc.) It is characterized in that the image evaluation score is generated according to the beauty score (quantitative beauty evaluation) by performing at least one of learning/evaluation by individual characteristics, automatic cluster classification of raters, and similarity measurement evaluation.

Description

스코어 분포 예측을 통한 사용자 취향별 뷰티 평가 인공지능 장치 및 방법{An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions}An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions}

본 발명은 스코어 분포 예측을 통한 사용자 취향별 뷰티 평가 인공지능 장치 및 방법에 관한 것이다.The present invention relates to an artificial intelligence apparatus and method for beauty evaluation for each user's taste through score distribution prediction.

뷰티 산업(beauty industry)의 발전에 따라, 화장품, 메이크업(make-up) 등에 대한 관심이 증가하고 있으며, 화장품, 메이크업 등에 대한 욕구가 다양해지고 있는 추세이다. 예를 들어, 사용자 개인마다 피부 색상, 얼굴형, 이목구비의 생김새 등이 다양하기 때문에 개인에게 어울리는 메이크업이 다를 수 있다. 따라서, 사용자는 자신에게 어울리는 메이크업에 대한 선택의 어려움을 가질 수 있다. 또한, 사용자는 메이크업 후에 메이크업이 잘 된 것인지, 어떤 부분을 보완해야 하는지 궁금할 수 있다.With the development of the beauty industry, interest in cosmetics, make-up, etc. is increasing, and the desire for cosmetics, make-up, etc. is diversifying. For example, since each user has a different skin color, face shape, appearance of features, etc., a makeup suitable for an individual may be different. Accordingly, the user may have difficulty in selecting a makeup suitable for the user. Also, the user may wonder if the makeup went well after makeup and what parts should be supplemented.

이러한 추세에 맞추어, 최근에는 사용자의 얼굴에 가상의 메이크업을 입혀주는 어플리케이션(application) 등이 개발되고 있다. 이 경우, 사용자의 호기심과 흥미를 유발할 수는 있으나, 어떤 메이크업이 사용자에게 어울리는지 개인이 판단해야 하는 한계가 있다. 즉, 현재 제공되는 뷰티 서비스의 경우에는 메이크업 전문가의 협업이 포함되지 않거나, 메이크업 전문가의 협업이 있다고 하더라도 한정적인 데이터에 기초하고 있다. 따라서, 사용자 개개인에 대한 맞춤형 서비스를 제공하기에는 어려움이 있다.In line with this trend, recently, an application for applying virtual makeup to a user's face has been developed. In this case, the user's curiosity and interest may be aroused, but there is a limit in that an individual must determine which makeup suits the user. That is, in the case of the currently provided beauty service, the collaboration of a makeup expert is not included, or even if there is a collaboration of a makeup expert, it is based on limited data. Therefore, it is difficult to provide a customized service for each user.

이러한 어려움을 해결하기 위해 최근에는 기계 학습 및 딥러닝 기술을 이용하여 패턴화된 이미지 분석을 처리하는 기술을 적용한 메이크업 평가 기술 등이 제안되며, 이는 맞춤형 서비스를 위하여 사용자들의 평가에 따라 점수화된 기준을 메이크업에 적용하여 자신의 메이크업 결과를 평가받는 서비스로서 제안되고 있다.In order to solve this difficulty, recently, makeup evaluation technology that applies a technology to process patterned image analysis using machine learning and deep learning technology has been proposed. It is being proposed as a service in which one's own makeup results are evaluated by applying them to makeup.

그러나, 이러한 기술들은 이미 완료된 메이크업의 결과만을 평가받을 수 있을 뿐, 현재 자신의 맨얼굴에 어울리는 화장법을 미리 알기가 어려운 실정이다.However, these techniques can only evaluate the results of already completed makeup, and it is difficult to know in advance a makeup method suitable for one's bare face.

또한, 화장법을 평가하거나, 미리 사전 분석하여 추천하기 위하여는 방대한 양의 메이크업 관련 데이터와 전문가 분석 정보가 요구되고 있으나, 이러한 방대한 데이터 수집 및 평가 방식 설정에는 과도한 비용 및 시간이 요구되고 있는 실정이다.In addition, a large amount of makeup-related data and expert analysis information are required in order to evaluate or pre-analyze and recommend a makeup method, but excessive cost and time are required to collect and evaluate such a large amount of data.

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 가상으로 화장된 이미지에 대하여 보다 객관적인 평가 점수를 생성하도록 하는 가상화장 이미지 평가 점수 생성 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed to solve the above conventional problems, and an object of the present invention is to provide an apparatus and method for generating a virtual image evaluation score for generating a more objective evaluation score for a virtual makeup image.

상기와 같은 목적을 달성하기 위하여 본 발명의 가상화장 이미지 평가 점수 생성 장치는, 가상으로 화장된 이미지에 대하여 보다 객관적인 평가 점수를 생성하도록 하는 가상화장 이미지 평가 점수 생성 장치 및 방법을 제시한다. 이미지 평가 점수를 생성하는 장치로서, 가상 화장 이미지로 합성된 하나 또는 복수개의 합성 이미지들에 대한 이미지 평가 점수를 생성하되, 평가하고자 종류의 이미지와 평가하고자 하는 특성에 대한 점수 쌍(이미지, 점수)을 신경망에 학습시킨 신경망으로 구축된 학습 모델을 이용하고, 상기 학습 모델을 이용하여 얼굴 랜드마크를 통한 학습/평가, 얼굴 자동 군집 분류 및 유사도 측정 평가, 얼굴각도 측정 및 필터링 평가, 개별 특성(피부톤/비례 등) 학습/개별 특성별 평가 및 평가자 자동 군집 분류 및 유사도 측정 평가 중 적어도 하나 이상의 처리를 수행하여 뷰티스코어(정량적 뷰티 평가)에 따라 이미지 평가 점수를 생성하는 것을 특징으로 한다.In order to achieve the above object, the virtual field image evaluation score generating apparatus of the present invention provides an apparatus and method for generating a virtual field image evaluation score to generate a more objective evaluation score for a virtual makeup image. An apparatus for generating an image evaluation score, generating an image evaluation score for one or a plurality of synthetic images synthesized into a virtual makeup image, and a score pair (image, score) for a type of image to be evaluated and a characteristic to be evaluated using a learning model built with a neural network trained on a neural network, and using the learning model to learn/evaluate through face landmarks, face automatic cluster classification and similarity measurement evaluation, face angle measurement and filtering evaluation, individual characteristics (skin tone) / Proportionality, etc.) It is characterized in that the image evaluation score is generated according to the beauty score (quantitative beauty evaluation) by performing at least one of learning/evaluation by individual characteristics, automatic cluster classification of raters, and similarity measurement evaluation.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 가상화장 이미지 평가 점수 생성 장치는, 화장된 가상의 얼굴 이미지를 입력받는 제 1 입력부; 상기 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이를 입력받는 제 2 입력부; 상기 화장된 가상의 얼굴 이미지를 근거로 얼굴 특성 벡터를 추출하는 제 1 얼굴 특성 벡터 추출부; 상기 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이를 근거로 얼굴 특성 벡터를 추출하는 제 2 얼굴 특성 벡터 추출부; 상기 제 1 얼굴 특성 벡터 추출부 및 상기 제 2 얼굴 특성 벡터 추출부에서 추출된 얼굴 특성 벡터를 하나로 연결하는 연결부; 인공지능 모델을 기반으로 상기 연결부의 출력에 대한 스코어 분포 예측을 행하는 스코어 분포 예측부; 및 상기 스코어 분포 예측부로부터의 스코어 분포 예측 결과를 근거로 해당 얼굴 이미지에 대한 뷰티 평가 점수를 생성하는 점수 생성부;를 포함한다.In order to achieve the above object, an apparatus for generating a virtual field image evaluation score according to a preferred embodiment of the present invention includes: a first input unit for receiving a makeup virtual face image; a second input unit for receiving a ratio and length of a face part of the virtual makeup image; a first facial feature vector extractor configured to extract a facial feature vector based on the virtual makeup image; a second facial feature vector extracting unit for extracting a facial feature vector based on the proportion and length of the face of the virtual face image; a connector for connecting the facial feature vectors extracted by the first facial feature vector extractor and the second face feature vector extractor into one; a score distribution prediction unit for predicting a score distribution for the output of the connection unit based on an artificial intelligence model; and a score generation unit for generating a beauty evaluation score for the corresponding face image based on the score distribution prediction result from the score distribution prediction unit.

상기 제 1 얼굴 특성 벡터 추출부는 상기 화장된 가상의 얼굴 이미지를 근거로 컨볼루션 신경망을 사용하여 얼굴 특성 벡터를 추출할 수 있다.The first facial feature vector extractor may extract a facial feature vector using a convolutional neural network based on the virtual makeup image.

상기 제 2 얼굴 특성 벡터 추출부는 상기 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이를 근거로 다층 퍼셉트론을 사용하여 얼굴 특성 벡터를 추출할 수 있다.The second facial feature vector extractor may extract a facial feature vector using a multilayer perceptron based on a ratio and a length of a face part of the virtual makeup image.

상기 인공지능 모델은 다수의 사람이 판단한 스코어 분포를 뷰티 스코어의 라벨로 사용한 것일 수 있다.The AI model may use a score distribution determined by a plurality of people as a label for the beauty score.

상기 스코어 분포 예측부는 다층 퍼셉트론을 통하여 상기 연결부의 출력에 대한 스코어 분포를 예측할 수 있다.The score distribution prediction unit may predict a score distribution for the output of the connection unit through a multilayer perceptron.

한편, 본 발명의 바람직한 실시양태에 따른 가상화장 이미지 평가 점수 생성 방법은, 가상화장 이미지 평가 점수 생성 장치에서의 가상화장 이미지 평가 점수 생성 방법으로서,On the other hand, the virtual field image evaluation score generation method according to a preferred embodiment of the present invention is a method of generating a virtual field image evaluation score in the virtual field image evaluation score generation device,

화장된 가상의 얼굴 이미지, 상기 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이를 입력받는 단계; 상기 화장된 가상의 얼굴 이미지를 근거로 얼굴 특성 벡터를 추출하고, 상기 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이를 근거로 얼굴 특성 벡터를 추출하는 단계; 상기 화장된 가상의 얼굴 이미지를 근거로 하는 얼굴 특성 벡터, 상기 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이를 근거로 하는 얼굴 특성 벡터를 하나로 연결하는 단계; 인공지능 모델을 기반으로 상기 연결된 얼굴 특성 벡터에 대한 스코어 분포 예측을 행하는 단계; 및 상기 스코어 분포 예측의 결과를 근거로 해당 얼굴 이미지에 대한 뷰티 평가 점수를 생성하는 단계;를 포함한다.receiving a make-up virtual face image, a proportion and length of a face part of the make-up virtual face image; extracting a facial feature vector based on the make-up virtual face image, and extracting a facial feature vector based on a ratio and length of a face part of the make-up virtual face image; connecting a facial feature vector based on the virtual makeup face image and a facial feature vector based on a proportion and length of a face part of the virtual makeup face image into one; predicting a score distribution for the connected facial feature vectors based on an artificial intelligence model; and generating a beauty evaluation score for the corresponding face image based on the result of the score distribution prediction.

이러한 구성의 본 발명에 따르면, 다수의 사람이 판단한 스코어 분포를 뷰티 스코어의 라벨(label)로 사용하여 객관화된 다양한 인공지능(AI) 모델을 사용함으로써, 더욱 객관화된 스코어를 매길 수 있다.According to the present invention of this configuration, by using various objectified artificial intelligence (AI) models by using the score distribution determined by a large number of people as a label of the beauty score, a more objective score can be given.

또한, 스코어를 판단할 때 뷰티(beauty), 화장 등의 전문가가 판단하는 얼굴 부위의 비율을 얼굴 이미지와 함께 입력값으로 사용하므로, 기존의 턱, 눈 등 얼굴 부위의 위치에 찍은 점의 위치를 입력값으로 사용하는 기술보다 더욱 정확한 성능을 보인다.In addition, when judging the score, the ratio of the face part judged by experts such as beauty and makeup is used as an input value together with the face image, so the position of the point taken on the existing facial parts such as chin and eyes is used as an input value. It shows more accurate performance than the technique used as an input value.

도 1은 본 발명이 적용되는 전체 시스템을 개략적으로 도시한 개념도이다.
도 2는 도 1에 도시된 서비스 제공 장치를 보다 구체적으로 도시한 블록도이다.
도 3은 도 1에 도시된 서비스 제공 장치에 의한 서비스 제공 방법을 설명하기 위한 흐름도이다.
도 4는 도 1에 도시된 사용자 단말에서의 사용자 인터페이스의 순차적 변화를 설명하기 위한 도면이다.
도 5는 도 1에 도시된 이미지 평가점수 생성부의 내부 구성도로서, 본 발명의 실시예에 따른 가상화장 이미지 평가 점수 생성 장치의 구성도이다.
도 6 내지 도 10은 도 5의 설명에 채용되는 도면이다.
도 11은 본 발명의 실시예에 따른 가상화장 이미지 평가 점수 생성 방법을 설명하기 위한 플로우차트이다.
1 is a conceptual diagram schematically illustrating an entire system to which the present invention is applied.
FIG. 2 is a block diagram illustrating the service providing apparatus shown in FIG. 1 in more detail.
3 is a flowchart illustrating a service providing method by the service providing apparatus shown in FIG. 1 .
FIG. 4 is a diagram for explaining a sequential change of a user interface in the user terminal shown in FIG. 1 .
5 is an internal configuration diagram of the image evaluation score generation unit shown in FIG. 1 , and is a configuration diagram of a virtual field image evaluation score generation device according to an embodiment of the present invention.
6 to 10 are diagrams employed in the description of FIG. 5 .
11 is a flowchart illustrating a method for generating a virtual field image evaluation score according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명이 적용되는 전체 시스템을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an entire system to which the present invention is applied.

도 1에 도시된 전체 시스템은 사용자 단말(10) 및 서비스 제공 장치(1000)를 포함할 수 있다.The entire system shown in FIG. 1 may include the user terminal 10 and the service providing apparatus 1000 .

특히, 서비스 제공 장치(1000)는 화장 스타일 추천 서비스 제공을 위해, 단말(10)과 유/무선 네트워크를 통해 연결될 수 있으며, 상호간 통신을 수행할 수 있다.In particular, the service providing apparatus 1000 may be connected to the terminal 10 through a wired/wireless network to provide a makeup style recommendation service, and may communicate with each other.

여기서, 상기 각 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radiocommunication network) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Here, each network includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a personal area network (PAN), and a mobile communication network. It may be implemented in all kinds of wired/wireless networks such as (mobile radiocommunication network) or satellite communication network.

그리고, 사용자 단말(10)은 컴퓨터, 휴대폰, 스마트 폰(smart phone), 스마트 패드(smart pad), 노트북 컴퓨터(laptop computer), PDA(Personal Digital Assistants), PMP(Portable Media Player) 중 어느 하나의 개별적 기기, 또는 특정 장소에 설치되는 키오스크 또는 거치형 디스플레이 장치와 같은 공용화된 디바이스 중 적어도 하나의 멀티 디바이스일 수 있으며, 서비스 제공 장치(1000)로 사용자 정보를 제공하고, 서비스 제공 장치(1000)로부터 처리된 정보를 수신하여 출력할 수 있다.And, the user terminal 10 is any one of a computer, a mobile phone, a smart phone (smart phone), a smart pad (smart pad), a laptop computer (laptop computer), PDA (Personal Digital Assistants), PMP (Portable Media Player) It may be an individual device or at least one multi-device among shared devices such as a kiosk or a stationary display device installed in a specific place, and provides user information to the service providing apparatus 1000 and processes it from the service providing apparatus 1000 . You can receive and print the information.

이와 같은 시스템 구성에 있어서, 서비스 제공 장치(1000)는, 먼저 인터넷상의 영상 정보로부터 화장 스타일 데이터베이스 구성을 위한 영상 정보를 수집하고, 수집된 영상 정보로부터 소스 이미지 추출 및 매핑 처리를 수행하여 스타일 데이터베이스를 구축할 수 있다.In such a system configuration, the service providing apparatus 1000 first collects image information for configuring a makeup style database from image information on the Internet, and performs source image extraction and mapping processing from the collected image information to create a style database. can be built

여기서, 영상 정보는 구독자수가 일정 수 이상인 뷰티 인플루언서들의 화장 영상 정보일 수 있으며, 이는 유투브, 페이스북, 텀블러, 트위치, 네이버, 카카오 등의 다양한 영상 업로드 사이트로부터 크롤링되어 추출되는 영상 정보를 포함할 수 있다.Here, the image information may be makeup image information of beauty influencers with more than a certain number of subscribers, which is crawled and extracted from various image upload sites such as YouTube, Facebook, Tumblr, Twitch, Naver, and Kakao. may include

그리고, 서비스 제공 장치(1000)는 수집된 영상 정보에 대응하는 소스 이미지들을 캡쳐 추출할 수 있으며, 소스 이미지는 예를 들어, 화장 전, 후가 등장하는 인플루언서의 화장 전 후 이미지를 포함할 수 있다.In addition, the service providing apparatus 1000 may capture and extract source images corresponding to the collected image information, and the source image may include, for example, before and after makeup images of influencers appearing before and after makeup. can

이에 따라, 서비스 제공 장치(1000)는 수집된 영상 정보로부터 추출된 소스 이미지에 기초한 화장 스타일을 결정할 수 있는 바, 이를 위해 미리 학습된 화장 스타일 신경망에 기초한 이미지 분석 기술이 이용될 수 있다. 그리고, 서비스 제공 장치(1000)는 결정된 화장 스타일에 대응하는 이미지 정보를 저장 등록하여, 화장 스타일 데이터베이스를 구축할 수 있다.Accordingly, the service providing apparatus 1000 may determine a makeup style based on a source image extracted from the collected image information. For this purpose, an image analysis technique based on a pre-learned makeup style neural network may be used. In addition, the service providing apparatus 1000 may build a makeup style database by storing and registering image information corresponding to the determined makeup style.

한편, 서비스 제공 장치(1000)는 사용자 단말(10)로부터 사용자 정보를 수신하여 등록하고, 사용자 입력 정보로서 사용자 이미지 정보 및 기타 조건 설정 정보를 획득하여, 사용자의 맨얼굴에 대응하여 적합한 화장 스타일을 추천하기 위한 추천 정보를 사용자 단말(10)로 제공할 수 있다.On the other hand, the service providing apparatus 1000 receives and registers user information from the user terminal 10, obtains user image information and other condition setting information as user input information, and selects a makeup style suitable for the user's bare face. Recommendation information for recommendation may be provided to the user terminal 10 .

이를 위해, 서비스 제공 장치(1000)는 사용자 이미지 정보에 대응한 가상화장 합성 처리, 이미지 평가점수 생성 및 비교 분석 처리를 수행할 수 있으며, 비교 분석 결과에 따른 하나 또는 그 이상의 화장 스타일 정보 또는 가상합성 결과 정보를 사용자 단말(10)로 제공할 수 있다.To this end, the service providing apparatus 1000 may perform virtual field synthesis processing, image evaluation score generation, and comparative analysis processing corresponding to user image information, and may perform one or more makeup style information or virtual synthesis according to the comparative analysis result. The result information may be provided to the user terminal 10 .

이에 따라, 사용자 단말(10)은 서비스 제공 장치(1000)로 사용자 이미지를 포함하는 사용자 정보를 전송함에 따라, 상기 서비스 제공 장치(1000)로부터의 응답으로 수신되는 화장 스타일 추천 서비스 정보에 기초한 화장 스타일 추천 인터페이스를 출력하여, 화장 스타일 추천 서비스 정보를 사용자에게 제공할 수 있다.Accordingly, as the user terminal 10 transmits user information including a user image to the service providing apparatus 1000 , the makeup style based on the makeup style recommendation service information received as a response from the service providing apparatus 1000 . By outputting a recommendation interface, makeup style recommendation service information may be provided to the user.

특히, 사용자 단말(10)에서는 화장 스타일 추천 서비스 어플리케이션 등을 통해 상기 서비스 제공 장치(1000)로부터 상기 화장 스타일 정보 및 가상합성 결과 정보를 포함하는 추천 서비스 정보를 수신하여 인터페이스를 통해 출력할 수 있다.In particular, the user terminal 10 may receive the recommended service information including the makeup style information and the virtual synthesis result information from the service providing apparatus 1000 through a makeup style recommendation service application and the like, and output it through an interface.

예를 들어, 사용자 단말(10)은 입력된 실제 사용자의 맨 얼굴 이미지에 인플루언서 등의 화장 스타일이 합성된 가상화장 이미지 중 뷰티 스코어가 높은 이미지들을 추천할 수 있으며, 이 중 사용자 선택된 이미지에 대응하는 화장 스타일 정보로서, 인플루언서 영상 정보, 화장품 추천 정보 또는 구매 링크 정보 중 적어도 하나를 출력할 수 있다.For example, the user terminal 10 may recommend images with a high beauty score among virtual images in which a makeup style such as an influencer is synthesized with an input real user's bare face image, As the corresponding makeup style information, at least one of influencer image information, cosmetic recommendation information, and purchase link information may be output.

이에 따라, 상술한 바와 같은 시스템에 따르면 추천 서비스를 통해 사용자가 편리하게 영상 인플루언서들의 화장 스타일들을 취사 선택할 수 있으며, 신규 수요를 창출할 수 있고 서비스 접근성과 편의성을 크게 향상시킬 수 있다.Accordingly, according to the system as described above, a user can conveniently cook and select makeup styles of video influencers through a recommendation service, create new demand, and significantly improve service accessibility and convenience.

특히, 이러한 서비스 제공을 위하여, 서비스 제공 장치(1000)는 가상화장 합성 및 이미지 평가점수 결정에 있어서, 최종적으로 사용자 얼굴에 잘 어울리는 화장을 추천하기 위한 가상화장합성 신경망과 이미지평가신경망을 순환적용 처리할 수 있는 바, 이에 대하여는 보다 구체적으로 후술하도록 한다.In particular, in order to provide such a service, the service providing apparatus 1000 cyclically applies a virtual field synthesis neural network and an image evaluation neural network for finally recommending a makeup suitable for a user's face in virtual field synthesis and image evaluation score determination. It can be done, which will be described later in more detail.

도 2는 도 1에 도시된 서비스 제공 장치를 보다 구체적으로 도시한 블록도이다.FIG. 2 is a block diagram illustrating the service providing apparatus shown in FIG. 1 in more detail.

도 2를 참조하면, 서비스 제공 장치(1000)는, 가상화장 합성부(100), 이미지 평가점수 생성부(200), 사용자 정보 관리부(300), 입력 정보 획득부(350), 수집 정보 처리부(500), 조건별 화장법 후보 추출부(700), 스타일 데이터베이스(600), 화장법 비교 처리부(400) 및 추천 서비스 제공부(900)를 포함한다.Referring to FIG. 2 , the service providing apparatus 1000 includes a virtual field synthesis unit 100 , an image evaluation score generation unit 200 , a user information management unit 300 , an input information acquisition unit 350 , and a collection information processing unit ( 500), a makeup method candidate extracting unit 700 for each condition, a style database 600, a makeup method comparison processing unit 400, and a recommendation service providing unit 900.

먼저, 수집 정보 처리부(500)는, 인터넷 영상 정보로부터 화장 스타일 데이터베이스(600) 구성을 위한 영상 정보를 수집한다.First, the collection information processing unit 500 collects image information for configuring the makeup style database 600 from Internet image information.

앞서 설명한 바와 같이, 영상 정보는 구독자수가 일정 수 이상인 뷰티 인플루언서들의 화장 영상 정보일 수 있으며, 이는 유투브, 페이스북, 텀블러, 트위치, 네이버, 카카오 등의 다양한 영상 업로드 사이트로부터 크롤링되어 추출되는 영상 정보를 포함할 수 있다.As described above, the video information may be makeup video information of beauty influencers with more than a certain number of subscribers, which is crawled and extracted from various video upload sites such as YouTube, Facebook, Tumblr, Twitch, Naver, and Kakao. Image information may be included.

예를 들어, 영상 정보 수집을 위해, 수집 정보 처리부(500)는, 소스 인물 이미지(화장전후가 등장하는 인터넷 뷰티 동영상에서의 화장 후 영상)와 소스 인물 화장전 이미지를 각각 크롤링 캡처할 수 있으며, 화장 스타일 데이터베이스(600)는 캡쳐된 이미지들을 이용한 신경망 학습에 따라 구축될 수 있다.For example, to collect image information, the collection information processing unit 500 may crawl and capture a source person image (image after makeup in an Internet beauty video showing before and after makeup) and an image of the source person before makeup, respectively, The makeup style database 600 may be constructed according to neural network learning using captured images.

이에 따라, 화장 스타일 데이터베이스(600)는 수집된 영상 정보로부터의 소스 이미지 추출 및 매핑 처리를 수행하여 구축된 데이터베이스를 저장 및 관리할 수 있으며, 조건별 화장법 후보 추출부(700)의 요청에 따른 화장 스타일 및 소스 이미지를 제공할 수 있다.Accordingly, the makeup style database 600 may store and manage the database constructed by performing source image extraction and mapping processing from the collected image information, and makeup according to the request of the makeup method candidate extraction unit 700 for each condition. You can provide styles and source images.

한편, 사용자 정보 관리부(300)는, 사용자 단말(10)로부터 입력되는 입력 정보에 따라 등록 처리를 수행하고, 사용자의 사용 이력 정보, 유사 사용자의 사용 이력 정보 및 사용자 선호 정보 등을 매핑하여 저장 및 관리할 수 있다.On the other hand, the user information management unit 300 performs registration processing according to input information input from the user terminal 10, maps the user's usage history information, similar user's usage history information, and user preference information, and stores and stores it. can manage

또한, 사용자 정보 관리부(300)는 얼굴 사진을 활용한 프로파일링(특징 분석), 뷰티스코어 평가 및 피드백을 통한 사용자 유형 분류, 유사 사용자 군집을 통한 프로파일링(협업필터링) 및 서비스 사용 패턴을 통한 프로파일링 등을 처리함으로써, 추천 서비스를 위한 데이터를 구축할 수 있다.In addition, the user information management unit 300 provides profiling using face photos (feature analysis), user type classification through beauty score evaluation and feedback, profiling through similar user clusters (collaborative filtering), and profiling through service usage patterns. By processing the ring or the like, data for a recommendation service can be constructed.

그리고, 입력 정보 획득부(350)는 사용자 정보 관리부(300)에서 관리되는 사용자 정보와, 사용자 단말(10)로부터 입력된 사용자 입력 정보에 따라, 추천할 화장법 후보를 선별하기 위한 입력 정보를 획득할 수 있다.In addition, the input information acquisition unit 350 obtains input information for selecting a makeup method candidate to be recommended according to the user information managed by the user information management unit 300 and the user input information input from the user terminal 10 . can

예를 들어, 사용자 단말(10)은 사용자의 맨 얼굴 이미지와 명시적 조건 정보(기간 한정, 화장법 인기도, 상황 지정 등)와 키워드 정보(검색, 필터링, 추천) 을 포함하는 사용자 입력 정보를 서비스 제공 장치(1000)로 전송할 수 있으며, 서비스 제공 장치(1000)는 수신된 사용자 입력 정보와 사용자 정보 관리부(300)의 관리 정보에 기초한 입력 정보를 결정하고, 결정된 입력 정보는 조건별 화장법 후보 추출부(700) 및 가상화장 합성부(100)로 전달될 수 있다.For example, the user terminal 10 provides a service with user input information including the user's bare face image, explicit condition information (limited period, popularity of makeup method, situation designation, etc.) and keyword information (search, filtering, recommendation). can be transmitted to the device 1000, the service providing device 1000 determines input information based on the received user input information and the management information of the user information management unit 300, and the determined input information is a makeup method candidate extraction unit for each condition ( 700) and the virtual field synthesis unit 100 .

그리고, 가상화장 합성부(100)는 조건별 화장법 후보로부터 결정된 화장 스타일 및 소스 이미지에 기초하여, 사용자 얼굴 이미지에 대한 하나 또는 그 이상의 가상합성 처리를 수행할 수 있다.In addition, the virtual field synthesizing unit 100 may perform one or more virtual synthesis processing on the user's face image based on the makeup style and the source image determined from the makeup method candidates for each condition.

이를 위해, 가상화장 합성부(100)는 인공 신경망 학습 처리를 통해, 화장 스타일별 소스 이미지와 사용자 이미지간의 이미지 합성 처리를 수행할 수 있으며, 이를 위해, 소스 인물 이미지에서 화장 스타일 적용 부분을 추출하여 타겟 인물 이미지에 적용하는 프로세스를 수행할 수 있다.To this end, the virtual field synthesis unit 100 may perform image synthesis processing between the source image for each makeup style and the user image through artificial neural network learning processing. A process of applying to the target person image may be performed.

특히, 이러한 신경망 구축을 위해 최근 대두되는 쌍 순환 경쟁적 생성 네트워크 방식(PairedCycleGAN)의 비지도 학습 방식이 이용될 수 있다.In particular, for constructing such a neural network, an unsupervised learning method of a recently emerging paired cycle competitive generating network method (PairedCycleGAN) may be used.

특히, GAN(Generative Adversarial Network) 방식은 딥러닝을 이용하여, 이미지를 생성하는 네트워크로서 서로 다른 두 개의 깊은 신경망 D(Discriminator)와 G(Generator)를 학습시켜, 좋은 성능의 감별사 네트워크와 그것을 속이는 생성자 네트워크를 경쟁시킴으로써, 학습 효과를 극대화할 수 있게 하는 방식을 의미할 수 있다.In particular, the Generative Adversarial Network (GAN) method uses deep learning to generate images, and trains two different deep neural networks D (Discriminator) and G (Generator) to create a good performing discriminator network and a generator that deceives it. By competing networks, it can mean a way to maximize the learning effect.

또한, Paired CycleGAN(H. Chang, et al.)은 이를 가상 화장 합성에 적용하여 Makeup Transfer 또는 Style Transfer 를 처리하게 하는 방식으로 제안된 것으로서, 가상 메이크업(가상 화장 합성) 네트워크와 화장을 지우는 네트워크의 쌍을 경쟁적으로 학습시켜, 그 성능을 서로 보완하게 함으로써 자연스러운 가상 화장 합성 효과를 얻을 수 있다.In addition, Paired CycleGAN (H. Chang, et al.) is proposed as a method of processing Makeup Transfer or Style Transfer by applying this to virtual makeup synthesis, and is a network of virtual makeup (virtual makeup synthesis) and makeup removal networks. A natural virtual makeup synthesis effect can be obtained by competitively learning pairs to complement each other.

그리고, 가상화장 합성부(100)는 보다 자연스러운 합성을 위하여, 상기 PairedCycleGAN 방식 적용시 얼굴을 영역별로 부분 분할하는 개별 학습 프로세스를 수행할 수 있다.In addition, the virtual field synthesizing unit 100 may perform an individual learning process in which a face is partially divided into regions when the PairedCycleGAN method is applied for more natural synthesis.

이후, 이미지 평가점수 생성부(200)는, 가상합성된 하나 또는 복수개의 합성 이미지들에 대한 이미지 평가 점수를 생성할 수 있으며, 이를 위해, 평가하고자 종류의 이미지와 평가하고자 하는 특성에 대한 점수 쌍(이미지, 점수)을 신경망에 학습시킨 신경망으로 구축된 학습 모델을 이용할 수 있다.Thereafter, the image evaluation score generator 200 may generate an image evaluation score for one or a plurality of virtual synthesized synthetic images. You can use a learning model built with a neural network that has learned (images, scores) from a neural network.

보다 구체적으로, 이미지 평가점수 생성부(200)는, 이미지 평가 점수를 측정하기 위해, 신경망 학습 모델을 구축할 수 있는 바, 얼굴 이미지와 뷰티 스코어의 쌍을 사용하여 신경망 네트워크 학습 모델을 생성할 수 있으며, 생성된 모델을 이용하여, 새로운 얼굴 이미지 입력에 대응하는 이미지 평가 점수를 출력할 수 있다.More specifically, the image evaluation score generation unit 200 may build a neural network learning model to measure the image evaluation score, and may generate a neural network learning model using a pair of a face image and a beauty score. And, by using the generated model, an image evaluation score corresponding to a new face image input may be output.

특히, 기존 기술과 같이 사람이 평가한 점수들의 평균값 등으로 단순 학습하는 경우, 사람마다의 성향 차이로 인해, 같은 이미지에서도 다른 점수들이 평가되어 발생되는 부정확성을 극복할 수 없다. 따라서, 본 발명의 실시 예에 따른 이미지 평가점수 생성부(200)는 단순 평균 연산이 아닌 점수 분포(Score Distribution Vector)값을 이미지와 쌍으로 매칭하여 학습 모델을 생성할 수 있으며, 이는 여러 사람의 전반적 성향에 의한 점수 특징(Score Feature)을 학습할 수 있게 되므로, 더욱 정확한 이미지 평가 점수를 예측할 수 있게 된다.In particular, in the case of simple learning using the average value of scores evaluated by a person as in the existing technology, the inaccuracy caused by evaluation of different scores in the same image cannot be overcome due to the difference in propensity for each person. Accordingly, the image evaluation score generation unit 200 according to an embodiment of the present invention may generate a learning model by pairwise matching a score distribution vector value with an image rather than a simple average operation, which is Since it is possible to learn a score feature based on the overall propensity, it is possible to predict a more accurate image evaluation score.

예를 들어, 본 발명의 실시 예에 따른 이미지 평가점수 생성부(200)는 이미지평가점수 생성 신경망을 구축함에 있어서, (이미지, 점수 분포) 쌍을 학습시킴으로써 학습 효과를 향상시킬 수 있는 바, 이는 기존의 기존 (이미지, 점수 평균) 쌍을 학습시키는 것에 비하여, 보다 정확한 이미지 평가 점수를 결정할 수 있게 하는 것이다.For example, the image evaluation score generation unit 200 according to an embodiment of the present invention can improve the learning effect by learning the (image, score distribution) pair in constructing the image evaluation score generating neural network, which Compared to training the existing existing (image, score average) pair, it is to make it possible to determine a more accurate image evaluation score.

여기서, 이미지 평가 점수는 뷰티스코어(정량적 뷰티 평가)에 따라 결정될 수 있으며, 이미지 평가를 위해, 얼굴 랜드마크를 통한 학습/평가, 얼굴 자동 군집 분류 및 유사도 측정 평가, 얼굴각도 측정 및 필터링 평가, 개별 특성(피부톤/비례 등) 학습/개별 특성별 평가 및 평가자 자동 군집 분류 및 유사도 측정 평가 중 적어도 하나에 처리가 수행될 수 있다.Here, the image evaluation score can be determined according to the beauty score (quantitative beauty evaluation), and for image evaluation, learning/evaluation through face landmarks, automatic face cluster classification and similarity measurement evaluation, face angle measurement and filtering evaluation, individual The processing may be performed on at least one of characteristic (skin tone/proportion, etc.) learning/evaluation by individual characteristics, automatic cluster classification of raters, and similarity measurement evaluation.

보다 구체적으로, 정확하고 일정한 뷰티스코어를 측정하기 위해서는 얼굴의 정확한 정면 이미지를 사용하여야 하나, 이미지 평가점수 생성부(200)는 사용자의 사진 이미지로부터 얼굴각도 측정 및 필터링을 수행하여, 일정 각도 벗어나더라도 얼굴의 특징 값을 추출하고 이에 기반한 뷰티스코어를 결정할 수 있다.More specifically, in order to measure an accurate and constant beauty score, an accurate frontal image of the face must be used, but the image evaluation score generator 200 performs face angle measurement and filtering from the user's photo image, It is possible to extract facial feature values and determine a beauty score based on this.

예를 들어, 이미지 평가점수 생성부(200)는 사용자의 입력 이미지에 대응하는 뷰티스코어를 측정하기 전에, 미리 구축된 얼굴 각도 측정 신경망 모델을 이용하여, 얼굴이 바라보는 각도를 예측할 수 있으며, 예측된 각도가 정면에서 일정 각도 이상 벗어난 경우에만 필터링 처리함에 따라, 뷰티스코어가 결정 가능한 정면 이미지들을 추출할 수 있다.For example, before measuring the beauty score corresponding to the user's input image, the image evaluation score generator 200 may predict the angle at which the face looks by using a pre-built facial angle measurement neural network model, and predict By filtering processing only when the angle is deviated from the front by more than a certain angle, the beauty score can extract determinable front images.

이를 위해, 이미지 평가점수 생성부(200)는 얼굴의 3차원 X, Y, Z 각도에 대응하는 CNN(Convolutional Neural Network)과 MLP(Multi Layer Perceptron)로 구성되는 인공지능 신경망 모델을 구축하고, 이를 이용한 얼굴 각도의 필터링 처리를 수행할 수 있다.To this end, the image evaluation score generator 200 builds an artificial intelligence neural network model composed of a Convolutional Neural Network (CNN) and Multi Layer Perceptron (MLP) corresponding to the three-dimensional X, Y, and Z angles of the face, and Filtering processing of the used face angle may be performed.

또한, 이미지 평가점수 생성부(200)는 이미지 평가를 위한 인공지능 신경망 모델 구축에 있어서, 다양한 얼굴의 개별 특징 요소들을 별도 분류하여 학습하게 할 수 있다.In addition, the image evaluation score generation unit 200 may separately classify and learn various individual feature elements of various faces in constructing an artificial intelligence neural network model for image evaluation.

개별 특징 요소들은 예를 들어, 얼굴의 특정 요소에 대응하는 비율 정보, 길이 정보, 각도 정보 또는 위치 정보 중 적어도 하나일 수 있으며, 이는 얼굴 이미지와 함께 학습 처리됨으로써, 뷰티 스코어 평가에 반영되도록 할 수 있다.The individual feature elements may be, for example, at least one of ratio information, length information, angle information, or position information corresponding to a specific element of the face, which may be learned and processed together with the face image to be reflected in the beauty score evaluation. have.

특히, 사람과 달리 단순 얼굴 이미지로만 학습된 인공지능 네트워크는 얼굴 요소의 비율 특징(턱선의 각도, 이마의 길이, 눈과 미간의 비율 등)에 대한 고려는 하지 못하는 경향이 있는데, 본 발명의 실시 예에 따른 이미지 평가점수 생성부(200)는 이러한 문제점을 해결함으로써 사람이 판별하는 다양한 미의 기준을 학습시키고, 이에 따른 정확한 뷰티스코어를 산출할 수 있다.In particular, unlike humans, artificial intelligence networks learned only from simple face images tend not to consider the ratio features of facial elements (jaw line angle, forehead length, eye-brow ratio, etc.). The image evaluation score generation unit 200 according to the example may learn various beauty standards determined by a person by solving such a problem, and calculate an accurate beauty score accordingly.

그리고, 화장법 비교 처리부(400)는, 사용자 프로파일링 정보 및 이미지 평가 점수에 따른 화장법 별 순위 비교를 처리할 수 있다.In addition, the makeup method comparison processing unit 400 may process ranking comparison for each makeup method according to the user profiling information and the image evaluation score.

그리고, 추천 서비스 제공부(900)는 비교 처리 결과에 기초한 추천 서비스를 제공할 수 있는 바, 이는 순위 비교에 따라 결정된 일정 개수의 화장 스타일 정보를 포함할 수 있다.In addition, the recommendation service providing unit 900 may provide a recommendation service based on the comparison processing result, which may include a predetermined number of makeup style information determined according to the ranking comparison.

또한, 추천 서비스 제공부(900)는 얼굴 이미지 분석 기반 추천, 유형/컬러/피부에 따른 Rule-based 추천, 피부에 따른 Rule-based 추천 서비스를 제공할 수 있으며, 사용자 프로파일링 기반 사용자 유형별 예측 추천 서비스와, 뷰티스코어 기반 뷰티스코어를 극대화하는 추천 서비스 등 다양한 부가 서비스를 제공할 수 있다.In addition, the recommendation service provider 900 may provide a facial image analysis-based recommendation, a rule-based recommendation according to type/color/skin, and a rule-based recommendation service according to skin, and prediction recommendation for each user type based on user profiling It can provide various additional services, such as service and recommendation service that maximizes the beauty score based on the beauty score.

또한, 추천 서비스 제공부(900)는 추천 서비스에 의해 연계되는 인플루언서 영상 정보와, 화장품 추천 및 구매 연동 프로세스를 제공할 수 있는 바, 이에 대하여는 보다 구체적으로 후술하도록 한다.Also, the recommendation service providing unit 900 may provide influencer image information linked by the recommendation service and a cosmetic recommendation and purchase linkage process, which will be described in more detail later.

한편, 추천 서비스 제공부(900)는 사용자 정보 관리부(300)에서 수집되는 사용자 이미지에 대한 얼굴 분석 서비스를 제공할 수 있으며, 얼굴 분석 서비스는 예를 들어, 얼굴 정보 제공 서비스, 인물 간 유사도 정보 제공 서비스 및 유사 인플루언서 매칭 서비스를 포함할 수 있다. 그리고, 추천 서비스 제공부(900)는 이를 위해, 얼굴 분석을 위한 인공지능 학습 모델을 구축할 수 있다.Meanwhile, the recommendation service providing unit 900 may provide a face analysis service for the user image collected by the user information management unit 300 , and the face analysis service may provide, for example, a face information providing service and similarity information between persons. It may include services and similar influencer matching services. In addition, the recommendation service providing unit 900 may build an artificial intelligence learning model for face analysis for this purpose.

먼저 얼굴 정보 제공 서비스를 위해, 추천 서비스 제공부(900)는 사용자 이미지로부터 얼굴의 1차적 정보를 컴퓨터 비전 기술을 이용하여 추출하여 이용할 수 있으며, 추출된 정보는 상기 학습 모델의 추가적인 학습대상으로 이용될 수 있다. 예를 들어, 추천 서비스 제공부(900)는 얼굴의 피부 색을 카테고리화 처리할 수 있으며, 처리된 정보는 사용자 단말(10)로 제공될 수 있다.First, for the face information providing service, the recommendation service providing unit 900 may extract and use the primary information of the face from the user image using computer vision technology, and the extracted information is used as an additional learning target of the learning model. can be For example, the recommendation service providing unit 900 may categorize the skin color of the face, and the processed information may be provided to the user terminal 10 .

또한, 추천 서비스 제공부(900)는 유사도 정보 제공 서비스를 위해, 얼굴 유사도 측정 네트워크 기반의 인물 간 얼굴 유사도 분석 처리를 수행할 수 있다.Also, the recommendation service providing unit 900 may perform a face similarity analysis process between persons based on a face similarity measurement network for a similarity information providing service.

예를 들어, 추천 서비스 제공부(900)는 triplet loss 함수 기반 얼굴 이미지 학습 프로세스를 수행하여 선택된 인물과 사용자 이미지간의 얼굴 유사도를 측정하는 서비스를 제공할 수 있다.For example, the recommendation service providing unit 900 may provide a service for measuring the facial similarity between a selected person and a user image by performing a face image learning process based on a triplet loss function.

그리고, 추천 서비스 제공부(900)는 이와 같은 얼굴 유사도 측정값에 기초하여 사용자와 비슷한 얼굴의 인물 등을 색인할 수 있는 바, 유사한 특정 인플루언서를 색인하여, 그 인플루언서의 메이크업을 사용자에게 어울리는 메이크업으로서 자동 추천하는 서비스를 제공할 수도 있다.In addition, the recommendation service providing unit 900 may index a person with a similar face to the user based on the face similarity measurement value, index a specific similar influencer, and apply the influencer's makeup to the user It can also provide a service that automatically recommends makeup that suits you.

예를 들어, 추천 서비스 제공부(900)는 유사 스타/인플루언서 매칭 서비스를 제공할 수 있으며, 이는 전술한 인물 간의 얼굴 유사도를 측정하는 네트워크를 이용하여 사용자와의 유사도가 일정 값 이상인 스타 또는 인플루언서를 색인하여 제공하는 서비스를 포함할 수 있다.For example, the recommendation service providing unit 900 may provide a similar star/influencer matching service, which uses a network that measures the similarity of faces between persons as described above, and uses a network that measures the degree of similarity between persons with a star whose similarity with the user is greater than or equal to a certain value. It may include services provided by indexing influencers.

이에 따라, 추천 서비스 제공부(900)는 사용자에게 가장 잘 어울리는 메이크업 무엇인지를 가장 닮은 스타 및 인플루언서의 화장법을 통해 알려주는 서비스를 사용자 단말(10)로 제공할 수 있게 된다.Accordingly, the recommendation service providing unit 900 can provide the user terminal 10 with a service that informs the user through the makeup method of the star and influencer that most resembles the makeup that best suits the user.

또한, 추천 서비스 제공부(900)는 사용자 정보 관리부(300)의 사용자 프로파일링 정보에 기초하여, 세분화된 화장 스타일 관련 정보를 제공할 수 있다.Also, the recommendation service providing unit 900 may provide detailed makeup style related information based on the user profiling information of the user information management unit 300 .

예를 들어, 추천 서비스 제공부(900)는 사용자를 평가자 분류 처리하여, 평가자 분류에 대응하는 유사도에 따른 화장 스타일 관련 정보를 제공할 수 있다.For example, the recommendation service providing unit 900 may classify the user as an evaluator and provide makeup style related information according to a degree of similarity corresponding to the evaluator classification.

이를 위해, 추천 서비스 제공부(900)는 평가자와 선호 모델과의 관계를 CBOW(Continuous Bag of Word) 또는 Skip-Gram과 같은 학습 알고리즘을 이용하여 다차원 공간의 벡터로 임베딩(embedding)하여 평가자의 분류(Clustering) 처리와 함께, 평가자의 선호 모델 정보를 함께 학습시킬 수 있다. 이에 따사, 추천 서비스 제공부(900)는 사용자 정보에 기초한 평가자 분류 처리를 수행하여, 분류된 평가자의 성향에 맞는 화장 스타일, 인플루언서 정보 또는 화장품 정보 등을 추천하는 평가자 성향 추천 정보를 사용자 단말(10)로 제공할 수 있다.To this end, the recommendation service provider 900 embeds the relationship between the evaluator and the preference model into a vector of a multidimensional space using a learning algorithm such as continuous bag of word (CBOW) or skip-gram to classify the evaluator. Along with (Clustering) processing, it is possible to train the evaluator's preferred model information together. Accordingly, the recommendation service providing unit 900 performs evaluator classification processing based on user information to provide evaluator propensity recommendation information that recommends makeup style, influencer information, or cosmetic information suitable for the classified evaluator's disposition, to the user terminal. (10) can be provided.

또한, 추천 서비스 제공부(900)는 앞서 수행한 얼굴 분석 정보에 기초하여, 사용자의 퍼스널 컬러 정보를 결정할 수 있으며, 퍼스널 컬러 정보에 따른 적절한 색조 화장품을 추천하기 위한 색조 화장품 정보를 사용자 단말(10)로 제공할 수도 있다.In addition, the recommendation service providing unit 900 may determine the user's personal color information based on the facial analysis information performed above, and transmits color cosmetics information for recommending appropriate color cosmetics according to the personal color information to the user terminal 10 . ) can also be provided.

예를 들어, 추천 서비스 제공부(900)는 사용자의 피부 톤에 맞는 색조 화장품을 추천해주는 추천 서비스를 제공할 수 있다. 이를 위해, 추천 서비스 제공부(900)는 피부 톤 정보를 카테고리화하고, 카테고리화된 피부 톤 정보와 매칭되는 색조 화장품들을 연결한 피부톤 데이터베이스를 학습 프로세스에 의해 구성할 수 있다. 학습 프로세스로는 다층 퍼셉트론(Multy Layer Perceptorn) 기반 딥러닝 알고리즘 처리가 예시될 수 있으며, 이를 이용하여 피부 톤과 이에 색조화장품간 매칭 처리를 수행할 수 있다.For example, the recommendation service providing unit 900 may provide a recommendation service for recommending color cosmetics suitable for a user's skin tone. To this end, the recommendation service providing unit 900 may categorize skin tone information and configure a skin tone database in which color cosmetics matching the categorized skin tone information are connected through a learning process. As the learning process, a deep learning algorithm processing based on a multi-layer perceptorn can be exemplified, and matching processing between skin tones and color cosmetics can be performed using this.

한편, 추천 서비스 제공부(900)는 이미지와 화장품을 매칭하기 위한 매칭 데이터베이스를 딥 러닝 방식으로 구축하고, 기초하여 입력된 사진이 사용한 화장품 정보를 식별하여 출력하는 화장품 추천 서비스를 제공할 수도 있다. 예를 들어, 추천 서비스 제공부(900)는 사진 이미지로부터 추출되는 화장품의 톤과 실제 화장품 톤을 매칭하는 딥 러닝 학습 프로세스를 수행하여, 사용자로부터 입력된 사진에 대응하는 화장품 정보를 식별하여 사용자 단말(10)로 제공하는 추천 서비스를 제공할 수도 있다.On the other hand, the recommendation service providing unit 900 may provide a cosmetic recommendation service that builds a matching database for matching images and cosmetics in a deep learning method, identifies and outputs cosmetic information used by an input photo based on it. For example, the recommendation service providing unit 900 performs a deep learning learning process of matching the cosmetic tone extracted from the photo image with the actual cosmetic tone, and identifies cosmetic information corresponding to the photo input by the user to the user terminal. The recommendation service provided by (10) may be provided.

그리고, 추천 서비스 제공부(900)는 전술한 이미지 평가 접수(뷰티 스코어)를 기초로 하는 화장품 정보 추쳔 서비스를 제공할 수 있는 바, 예를 들어 추천 서비스 제공부(900)는 특정 색조 화장품의 색을 사용자 이미지에 입혀봤을 경우와 그렇지 않았을 때의 차이를 뷰티스코어를 기반으로 산출하여, 가장 높은 차이를 가져오는 일정 개수의 맞춤형 화장 스타일과 화장품을 식별하고, 식별된 화장 스타일 정보 및 화장품 정보를 사용자 단말(10)로 제공할 수 있다.In addition, the recommendation service providing unit 900 may provide a cosmetic information selection service based on the above-described image evaluation reception (beauty score). For example, the recommendation service providing unit 900 may provide a color of a specific color cosmetic. By calculating the difference between when and when not applied to the user image based on the beauty score, a certain number of customized makeup styles and cosmetics that bring about the highest difference are identified, and the identified makeup style information and cosmetic information are used for the user. It can be provided to the terminal 10 .

도 3은 도 1에 도시된 서비스 제공 장치에 의한 서비스 제공 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a service providing method by the service providing apparatus shown in FIG. 1 .

도 3을 참조하면, 서비스 제공 장치(1000)는 먼저 인터넷 영상 정보로부터 소스 이미지를 추출 수집하고(S1001), 수집된 이미지와, 상기 이미지로부터 인공 신경망 기반으로 추출되는 화장법 정보를 매핑 처리하여 데이터베이스(600)를 구축한다(S1003).Referring to FIG. 3 , the service providing apparatus 1000 first extracts and collects a source image from Internet image information (S1001), maps the collected image and the makeup method information extracted from the image based on an artificial neural network to a database ( 600) is built (S1003).

이를 위해, 서비스 제공 장치(1000)는 수집 정보 처리부(500)를 통해 인터넷상의 다양한 뷰티 동영상으로부터 화장 전과 화장 후 사진 이미지들을 크롤링 캡쳐 처리하며, 처리된 이미지에 화장 스타일(또는 화장법) 정보를 매핑 처리하기 위한 인공 신경망 학습 프로세스를 수행하여, 스타일 데이터베이스(600)를 구축할 수 있다.To this end, the service providing device 1000 crawls and captures pre-makeup and post-makeup photo images from various beauty videos on the Internet through the collection information processing unit 500, and maps makeup style (or makeup method) information to the processed image. By performing an artificial neural network learning process for this, the style database 600 may be built.

예를 들어, 서비스 제공 장치(1000)는 수집된 영상 정보로부터 추출된 소스 이미지에 기초한 화장 스타일을 결정할 수 있는 바, 이를 위해 미리 학습된 화장 스타일 신경망에 기초한 이미지 분석 기술을 이용할 수 있다. 그리고, 서비스 제공 장치(1000)는 결정된 화장 스타일에 대응하는 이미지 정보를 저장 등록하여, 화장 스타일 데이터베이스를 구축할 수 있다.For example, the service providing apparatus 1000 may determine a makeup style based on a source image extracted from the collected image information. For this purpose, an image analysis technique based on a pre-learned makeup style neural network may be used. In addition, the service providing apparatus 1000 may build a makeup style database by storing and registering image information corresponding to the determined makeup style.

그리고, 서비스 제공 장치(1000)는 사용자 단말(10)로부터 수신되는 사용자 정보를 사용자 정보 관리부(300)를 통해 등록할 수 있으며, 사용자 단말(10)로부터의 요청에 따른 입력 정보를 획득할 수 있다(S1005).In addition, the service providing apparatus 1000 may register user information received from the user terminal 10 through the user information management unit 300 , and may obtain input information according to a request from the user terminal 10 . (S1005).

이후, 서비스 제공 장치(1000)는 사용자 정보에 기초하여, 데이터베이스로부터 추출된 조건별 화장법 정보에 대응하는 가상화장 이미지 합성 처리를 수행할 수 있으며(S1007), 이미지 인식 학습 신경망을 이용하여 가상화장 이미지별 평가 점수를 결정할 수 있다(S1009).Thereafter, the service providing apparatus 1000 may perform a virtual field image synthesis process corresponding to the makeup method information for each condition extracted from the database based on the user information (S1007), and use the image recognition learning neural network to perform the virtual field image A star evaluation score may be determined (S1009).

이를 위해, 서비스 제공 장치(1000)는 이미지 평가점수 생성부(200)를 통해 평가를 위한 이미지 평가 모델 학습 처리를 수행할 수 있으며, 이미지 평가 모델 학습에는 컨볼루션 뉴럴 네트워크(CNN) 방식이 이용되는 것이 바람직하다.To this end, the service providing apparatus 1000 may perform image evaluation model learning processing for evaluation through the image evaluation score generator 200 , and a convolutional neural network (CNN) method is used for image evaluation model learning. it is preferable

또한, 평가를 위한 가상화장 모델 이미지 합성을 위하여, 가상화장 합성부(100)는 전술한 쌍 순환 경쟁 생성 네트워크(Paired CycleGAN) 방식에 기초한 가상화장 합성 학습 모델을 생성할 수 있다.In addition, for synthesizing a virtual field model image for evaluation, the virtual field synthesizing unit 100 may generate a virtual field synthesis learning model based on the above-described Paired CycleGAN method.

그리고, 서비스 제공 장치(1000)는 이와 같이 구축된 모델들을 이용하여, 먼저 조건별 화장법 후보 추출부(700)를 통해 스타일 데이터베이스(600)로부터 미리 설정된 특정 개수(N)의 사용자 조건별 화장법 후보 리스트를 추출할 수 있다.In addition, the service providing apparatus 1000 uses the models constructed as described above, first, a preset number of makeup method candidate lists for each user condition (N) from the style database 600 through the condition-specific makeup method candidate extraction unit 700 . can be extracted.

가상화장 합성부(100)는 추출된 화장법 후보 리스트별 화장 스타일 이미지와 사용자의 이미지를 가상화장 합성 처리한 N개의 후보 이미지들을 생성하여, 이미지 평가점수 생성부(200)로 전달할 수 있다.The virtual field synthesizing unit 100 may generate N candidate images obtained by synthesizing the extracted makeup style image for each makeup method candidate list and the user's image, and may deliver it to the image evaluation score generation unit 200 .

이에 따라, 이미지 평가점수 생성부(200)에서는 각 N개의 후보 이미지들에 대응하는 이미지 평가점수를 전술한 이미지 평가 모델을 이용하여 결정할 수 있다.Accordingly, the image evaluation score generator 200 may determine an image evaluation score corresponding to each of the N candidate images using the above-described image evaluation model.

이후, 서비스 제공 장치(1000)는 화장법 비교 처리부(400)를 통해, 상기 평가 점수에 기초한 화장법 비교 처리를 수행할 수 있으며(S1011), 추천 서비스 제공부(900)를 통해, 비교 결과에 따른 추천 서비스를 사용자 단말(10)로 제공할 수 있다.Thereafter, the service providing apparatus 1000 may perform a makeup method comparison processing based on the evaluation score through the makeup method comparison processing unit 400 ( S1011 ), and through the recommendation service providing unit 900 , a recommendation according to the comparison result A service may be provided to the user terminal 10 .

도 4는 도 1에 도시된 사용자 단말에서의 사용자 인터페이스의 순차적 변화를 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining a sequential change of a user interface in the user terminal shown in FIG. 1 .

도 4를 참조하면, 추천 서비스 제공부(900)는 사용자 단말(10)로 화장 스타일 추천 인터페이스를 제공할 수 있는 바, 이는 사용자 단말(10)에 설치된 어플리케이션 등을 통해 출력되는 그래픽 유저 인터페이스의 형태로 제공될 수 있다.Referring to FIG. 4 , the recommendation service providing unit 900 may provide a makeup style recommendation interface to the user terminal 10 , which is in the form of a graphic user interface output through an application installed in the user terminal 10 . can be provided as

먼저, 도 4(A)는 화장법 추천을 위한 이미지 분석 정보 인터페이스를 도시한 것으로, 추천 서비스 제공부(900)는 사용자 단말(10)을 통해, 이미지 분석 정보 인터페이스를 통해 사용자의 얼굴 이미지를 촬영 입력하게 할 수 있으며, 입력된 얼굴 이미지에 대응하는 분석 정보와, 이미지 평가 점수 정보를 제공할 수 있고, 사용자로부터 평가 점수를 입력받아 학습 데이터 구축에 반영시킬 수 있다.First, FIG. 4(A) shows an image analysis information interface for recommending a makeup method. The recommendation service providing unit 900 captures and inputs a user's face image through the user terminal 10 and the image analysis information interface. analysis information corresponding to the input face image and image evaluation score information may be provided, and evaluation scores may be received from the user and reflected in building learning data.

그리고, 도 4(B)는 가상화장 인터페이스를 도시한 것으로, 추천 서비스 제공부(900)는 사용자 단말(10)을 통해, 가상화장 이미지 합성부(100)에서 처리된 가상화장 이미지 중 이미지 평가점수 생성부(200)에서의 평가 점수가 높은 일정 개수의 가상화장 합성 이미지들 및 화장 스타일 정보를 출력하게 할 수 있다.And, FIG. 4(B) shows a virtual field interface, and the recommendation service providing unit 900 through the user terminal 10, the image evaluation score of the virtual field image processed by the virtual field image synthesis unit 100 It is possible to output a certain number of virtual field composite images and makeup style information having a high evaluation score in the generating unit 200 .

여기서, 사용자는 가상화장 합성 이미지들을 참조하여, 추천 메이크업 스타일을 선택할 수 있으며, 도 4(C)에 도시된 바와 같이 선택된 메이크업 스타일에 대응하는 인플루언서 영상 정보가 사용자 선택에 따라 제공될 수 있다. 이를 위해, 추천 서비스 제공부(900)는 인플루언서 영상 정보에 대응하는 영상 링크 정보를 스타일 데이터베이스(600)로부터 획득하여 사용자 단말(10)로 제공할 수 있다.Here, the user may select a recommended makeup style by referring to the synthetic images of the virtual field, and influencer image information corresponding to the selected makeup style may be provided according to the user's selection as shown in FIG. 4(C) . . To this end, the recommendation service providing unit 900 may obtain image link information corresponding to the influencer image information from the style database 600 and provide it to the user terminal 10 .

예를 들어, 도 4(C)에 도시된 바와 같이, 사용자가 선택한 스타일에 대응하는 인플루언서의 화장법 영상 정보가 사용자 단말(10)을 통해 출력될 수 있다.For example, as shown in FIG. 4(C) , information about an influencer's makeup method corresponding to a style selected by the user may be output through the user terminal 10 .

한편, 도 4(D) 및 도 4(E)는 화장품 추천 및 구매 연동 기능 인터페이스를 도시한 것으로, 본 발명의 실시 예에 따른 추천 서비스 제공부(900)는 사용자 프로파일링 정보 및 얼굴 이미지 분석에 따른 화장품 정보를 추천할 수 있으며, 또한 전술한 인플루언서 영상에서 이용된 화장품 정보가 추천될 수도 있다.Meanwhile, FIGS. 4(D) and 4(E) show a cosmetic recommendation and purchase linkage function interface, and the recommendation service providing unit 900 according to an embodiment of the present invention is used for analyzing user profiling information and facial image. Cosmetic information may be recommended, and cosmetic information used in the above-described influencer image may be recommended.

특히, 추천 서비스 제공부(900)는 화장법 전체의 구성과 얼굴 각부분별 화장 상태(피부, 색)을 고려하여 전체 화장법에서 부분화장에 유사한 효과를 내는 부분별 화장품 후보를 추천하고, 이를 판매하는 쇼핑몰에 연동시킬 수 있다.In particular, the recommendation service providing unit 900 recommends a cosmetic candidate for each part that has a similar effect on partial makeup in the entire makeup method in consideration of the composition of the entire makeup method and the makeup state (skin, color) for each part of the face, and a shopping mall that sells it can be linked to

또한, 추천 서비스 제공부(900)는 영상 내에 명시적으로 화장품에 대응하는 키워드 정보 또는 화장품 포장/용기가 노출되었을 경우, 키워드 또는 화장품 포장/용기를 이미지 인식하여, 우선적으로 추천하는 프로세스를 제공할 수도 있다.In addition, when the keyword information or cosmetic packaging/container corresponding to the cosmetic is explicitly exposed in the image, the recommendation service providing unit 900 recognizes the keyword or the cosmetic packaging/container as an image to provide a preferentially recommending process. may be

그리고, 추천 서비스 제공부(900)는 사용자가 선택한 제품에 대응하는 구매 서비스를 제공하거나, 제품 판매자 사이트와의 구매 연동 기능을 제공함으로써, 사용자가 바로 자신의 화장 스타일에 맞는 제품들을 확인하고 구매할 수 있도록 처리할 수 있다. 이를 위해, 추천 서비스 제공부(900)는 별도의 구매 모듈 및 결제 모듈을 구비하거나, 쇼핑 사이트 연동 모듈을 더 구비할 수도 있다.In addition, the recommendation service providing unit 900 provides a purchase service corresponding to the product selected by the user or provides a purchase linkage function with a product seller site, so that the user can immediately check and purchase products that fit his or her makeup style. can be processed to To this end, the recommendation service providing unit 900 may include a separate purchase module and a payment module, or may further include a shopping site interworking module.

도 5는 도 1에 도시된 이미지 평가점수 생성부의 내부 구성도로서, 본 발명의 실시예에 따른 가상화장 이미지 평가 점수 생성 장치의 구성도이고, 도 6 내지 도 10은 도 5의 설명에 채용되는 도면이다.5 is an internal configuration diagram of the image evaluation score generation unit shown in FIG. 1, and is a configuration diagram of a virtual field image evaluation score generation device according to an embodiment of the present invention, and FIGS. 6 to 10 are employed in the description of FIG. It is a drawing.

이미지 평가점수 생성부(200)는 제 1 입력부(210), 제 2 입력부(212), 제 1 얼굴 특성 벡터 추출부(214), 제 2 얼굴 특성 벡터 추출부(216), 연결부(218), 스코어 분포 예측부(220), 및 점수 생성부(222)를 포함한다. 이미지 평가점수 생성부(200)는 본 발명의 실시예에 따른 가상화장 이미지 평가 점수 생성 장치가 될 수 있다.The image evaluation score generator 200 includes a first input unit 210 , a second input unit 212 , a first facial characteristic vector extraction unit 214 , a second facial characteristic vector extraction unit 216 , a connection unit 218 , It includes a score distribution prediction unit 220 and a score generation unit 222 . The image evaluation score generation unit 200 may be a virtual field image evaluation score generation device according to an embodiment of the present invention.

제 1 입력부(210)는 가상화장 합성부(100)로부터 화장된 가상의 얼굴 이미지를 입력받는다. 여기서, 화장된 가상의 얼굴 이미지는 평가받고자 하는 얼굴 이미지로서, 얼굴 부위 뿐만 아니라 얼굴 부위 이외의 부위도 함께 포함될 수 있다.The first input unit 210 receives a virtual face image with makeup from the virtual field synthesizing unit 100 . Here, the makeup virtual face image is a face image to be evaluated, and may include not only the face part but also parts other than the face part.

제 2 입력부(212)는 가상화장 합성부(100)로부터 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이를 입력받는다. 필요에 따라, 제 2 입력부(212)는 얼굴 부위의 각, 위치 등의 정보를 추가로 입력받을 수 있다.The second input unit 212 receives the proportion and length of the face part of the virtual face image that has been made-up from the virtual field synthesis unit 100 . If necessary, the second input unit 212 may additionally receive information such as an angle and a position of a face part.

제 1 얼굴 특성 벡터 추출부(214)는 제 1 입력부(210)로부터의 화장된 가상의 얼굴 이미지에 대해 컨볼루션 신경망(Convolutional Neural Networks; CNN)(도 6 참조)을 사용하여 얼굴 특성 벡터(facial feature vector)를 추출한다. 여기서, 컨볼루션 신경망(CNN)은 딥 신경망의 일종으로서, 복잡한 입력에 대해 여러가지 특별한 신경망 층을 쌓음으로써 해결한다. 컨볼루션(Convolution) 연산의 적은 변수를 통한 특성 추출과 폴링(pooling) 연산의 각 이미지 내의 추출된 특성의 차원을 축소하는 구조 덕분에, CNN은 상대적으로 빠른 학습 시간과 높은 성능을 기대할 수 있다. 제 1 얼굴 특성 벡터 추출부(214)에서 추출되는 얼굴 특성 벡터를 제 1 얼굴 특성 벡터라고 한다.The first facial feature vector extraction unit 214 uses a convolutional neural network (CNN) (see FIG. 6 ) for the virtual face image received from the first input unit 210 to obtain a facial feature vector (facial feature vector). feature vector). Here, a convolutional neural network (CNN) is a kind of deep neural network, which solves by stacking several special neural network layers for a complex input. Thanks to the structure of reducing the dimension of the extracted features in each image of the feature extraction and the pooling operation through a small number of variables in the convolution operation, CNN can expect a relatively fast learning time and high performance. The facial feature vector extracted by the first facial feature vector extractor 214 is referred to as a first facial feature vector.

제 2 얼굴 특성 벡터 추출부(216)는 제 2 입력부(212)로부터의 화장된 가상의 얼굴 이미지의 얼굴 부위의 비율 및 길이에 대해 다층 퍼셉트론(MultiLayer Perceptron; MLP)(도 6 참조)을 사용하여 얼굴 특성 벡터(facial feature vector)를 추출한다. 여기서, 다층 퍼셉트론(MLP)은 여러 개의 퍼셉트론 뉴런들로 구성된 뉴런을 여러층 쌓은 다층 신경망 구조로서, 각 층안에서는 뉴런간 연결이 없고 인접한 두 층의 모든 뉴런들간에는 완전 연결되는 망 구조를 가리킨다. 제 2 얼굴 특성 벡터 추출부(216)에서 추출되는 얼굴 특성 벡터를 제 2 얼굴 특성 벡터라고 한다.The second facial feature vector extraction unit 216 uses a MultiLayer Perceptron (MLP) (see FIG. 6) for the proportion and length of the face part of the virtual makeup image from the second input unit 212. Extract a facial feature vector. Here, the multilayer perceptron (MLP) is a multilayer neural network structure in which neurons composed of several perceptron neurons are stacked in several layers. The facial feature vector extracted by the second facial feature vector extractor 216 is referred to as a second facial feature vector.

연결부(218)는 제 1 얼굴 특성 벡터 추출부(214) 및 제 2 얼굴 특성 벡터 추출부(216)에서 추출된 두개의 얼굴 특성 벡터를 하나로 연결한다. 즉, 도 6에서와 같이 연결부(218)는 제 1 얼굴 특성 벡터와 제 2 얼굴 특성 벡터를 연결한다.The connection unit 218 connects the two facial characteristic vectors extracted by the first facial characteristic vector extraction unit 214 and the second facial characteristic vector extraction unit 216 into one. That is, as shown in FIG. 6 , the connection unit 218 connects the first facial feature vector and the second facial feature vector.

스코어 분포 예측부(220)는 연결부(218)로부터의 출력을 입력받고, 다층 퍼셉트론(MultiLayer Perceptron; MLP)(도 6 참조)을 통하여 연결부(218)의 출력에 대한 스코어 분포(score distribution)를 예측한다. 예를 들어, 스코어 분포 예측부(220)는 도 7에서와 같은 스코어 분포를 예측할 수 있다.The score distribution prediction unit 220 receives an output from the connection unit 218 and predicts a score distribution for the output of the connection unit 218 through a MultiLayer Perceptron (MLP) (see FIG. 6 ). do. For example, the score distribution prediction unit 220 may predict the score distribution as shown in FIG. 7 .

얼굴을 보고 판단하는 아름다움은 주관적인 판단이어서 객관화하기에 어려움이 있다. 하나의 얼굴을 보고 사람마다 다른 점수를 판단하기 때문에 객관화된 데이터베이스를 구성하기에 어려움이 있다. 이를 해결하기 위해 본 발명의 실시예에서는 다수의 사람이 판단한 스코어 분포(score distribution)를 뷰티 스코어(beauty score)의 라벨(label)로 사용하여 객관화된 다양한 인공지능(AI) 모델을 구성한다. 스코어 분포(Score distribution)를 그대로 사용하여 네트워크를 학습하면 단인 스코어를 사용하는 것 보다 여러 사람 각각의 바이어스(bias)도 학습하여 더욱 객관화된 스코어를 매길 수 있다.Beauty judged by looking at the face is a subjective judgment, so it is difficult to objectify it. It is difficult to construct an objective database because each person judges a different score by looking at a single face. In order to solve this problem, in an embodiment of the present invention, a variety of objectified artificial intelligence (AI) models are constructed by using a score distribution determined by a plurality of people as a label of a beauty score. If the network is trained using the score distribution as it is, it is possible to obtain a more objective score by learning the bias of each person rather than using a single score.

결국, 상기의 객관화된 인공지능(AI) 모델은 평가하고자 하는 종류의 이미지와 평가하고자 하는 특성에 대한 점수 쌍(이미지, 점수 분포)을 신경망에 학습시킨 신경망으로 구축된 학습 모델이라고 할 수 있다.After all, the objective artificial intelligence (AI) model can be said to be a learning model built with a neural network in which a neural network is trained on a type of image to be evaluated and a score pair (image, score distribution) for a characteristic to be evaluated.

상기의 객관화된 인공지능(AI) 모델은 데이터베이스화되어 스코어 분포 예측부(220)에 포함되어 있다고 볼 수 있다. 그에 따라, 스코어 분포 예측부(220)는 상기의 객관화된 인공지능(AI) 모델을 기반으로 연결부(218)의 출력에 대한 스코어 분포 예측을 행할 수 있다.It can be seen that the objective artificial intelligence (AI) model has been converted into a database and is included in the score distribution prediction unit 220 . Accordingly, the score distribution prediction unit 220 may predict the score distribution on the output of the connection unit 218 based on the objective artificial intelligence (AI) model.

점수 생성부(222)는 스코어 분포 예측부(220)로부터의 스코어 분포 예측 결과를 근거로 해당 얼굴 이미지(즉, 평가받고자 하는 가상의 얼굴 이미지)에 대한 뷰티 평가 점수를 생성(결정)한다. 예를 들어, 점수 생성부(222)는 도 8 내지 도 10에서와 같이 평가받고자 하는 가상의 얼굴 이미지(즉, 가상으로 화장된 얼굴 이미지) 및 해당 이미지에 대한 뷰티 평가 점수(예측 점수(predicted), 라벨(label))를 출력할 수 있다.The score generation unit 222 generates (determines) a beauty evaluation score for a corresponding face image (ie, a virtual face image to be evaluated) based on the score distribution prediction result from the score distribution prediction unit 220 . For example, the score generator 222 may generate a virtual face image to be evaluated (ie, a virtual make-up face image) and a beauty evaluation score (predicted score) for the image as shown in FIGS. 8 to 10 . , a label) can be output.

상술한 바와 같은 도 5의 구성에서는 스코어를 판단할 때 뷰티(beauty), 화장 등의 전문가가 판단하는 얼굴 부위의 비율을 얼굴 이미지와 함께 입력값으로 사용하므로, 기존의 턱, 눈 등 얼굴 부위의 위치에 찍은 점의 위치를 입력값으로 사용하는 기술보다 더욱 정확한 성능을 보인다.In the configuration of FIG. 5 as described above, when determining the score, the ratio of the face part determined by the expert such as beauty and makeup is used as an input value together with the face image. It shows more accurate performance than the technique that uses the position of the point taken as an input value.

도 11은 본 발명의 실시예에 따른 가상화장 이미지 평가 점수 생성 방법을 설명하기 위한 플로우차트이다.11 is a flowchart illustrating a method for generating a virtual field image evaluation score according to an embodiment of the present invention.

먼저, 제 1 입력부(210)는 가상화장 합성부(100)로부터 화장된 얼굴 이미지를 입력받고, 제 2 입력부(212)는 가상화장 합성부(100)로부터 화장된 얼굴 이미지의 얼굴 부위의 비율 및 길이를 입력받는다(S210).First, the first input unit 210 receives a makeup face image from the virtual field synthesizing unit 100 , and the second input unit 212 receives from the virtual field synthesizing unit 100 the proportion of the face part of the makeup and The length is input (S210).

이어, 제 1 얼굴 특성 벡터 추출부(214)는 제 1 입력부(210)에 입력된 얼굴 이미지에 대해 컨볼루션 신경망(Convolutional Neural Networks; CNN)을 사용하여 얼굴 특성 벡터(facial feature vector)를 추출한다(S220). 여기서, 제 1 얼굴 특성 벡터 추출부(214)에서 추출되는 얼굴 특성 벡터를 제 1 얼굴 특성 벡터라고 한다.Next, the first facial feature vector extraction unit 214 extracts a facial feature vector using a convolutional neural network (CNN) for the face image input to the first input unit 210 . (S220). Here, the facial feature vector extracted by the first facial feature vector extractor 214 is referred to as a first facial feature vector.

그리고, 제 2 얼굴 특성 벡터 추출부(216)는 제 2 입력부(212)에 입력된 얼굴 부위의 비율 및 길이에 대해 다층 퍼셉트론(MultiLayer Perceptron; MLP)을 사용하여 얼굴 특성 벡터(facial feature vector)를 추출한다(S230). 여기서, 제 2 얼굴 특성 벡터 추출부(216)에서 추출되는 얼굴 특성 벡터를 제 2 얼굴 특성 벡터라고 한다.Then, the second facial feature vector extractor 216 obtains a facial feature vector using a multilayer perceptron (MLP) with respect to the ratio and length of the face input to the second input unit 212 . extracted (S230). Here, the facial feature vector extracted by the second facial feature vector extractor 216 is referred to as a second facial feature vector.

상기에서는 마치 단계 S220의 동작이 수행된 후에 단계 S230의 동작이 행해지는 것처럼 기재하였으나, 실제로는 S220 및 S230의 동작이 거의 동시에 수행되는 것으로 이해하면 된다.In the above description, it is described as if the operation of step S230 is performed after the operation of step S220 is performed, but in reality, it should be understood that the operations of S220 and S230 are performed almost simultaneously.

이후, 연결부(218)는 제 1 얼굴 특성 벡터 추출부(214) 및 제 2 얼굴 특성 벡터 추출부(216)에서 추출된 두개의 얼굴 특성 벡터를 하나로 연결한다(S240). Thereafter, the connection unit 218 connects the two facial characteristic vectors extracted by the first facial characteristic vector extraction unit 214 and the second facial characteristic vector extraction unit 216 into one ( S240 ).

그리고 나서, 스코어 분포 예측부(220)는 연결부(218)로부터의 출력을 입력받고 다층 퍼셉트론(MultiLayer Perceptron; MLP)을 통하여 연결부(218)의 출력에 대한 스코어 분포(score distribution)를 예측한다(S250). 다수의 사람이 판단한 스코어 분포(score distribution)를 뷰티 스코어(beauty score)의 라벨(label)로 사용하여 객관화된 인공지능(AI) 모델이 데이터베이스화되어 스코어 분포 예측부(220)에 내장되어 있으므로, 스코어 분포 예측부(220)는 객관화된 인공지능(AI) 모델을 기반으로 연결부(218)의 출력을 기초로 스코어 분포 예측을 행할 수 있다.Then, the score distribution prediction unit 220 receives the output from the connection unit 218 and predicts a score distribution for the output of the connection unit 218 through a multilayer perceptron (MLP) (S250). ). Since the objectified artificial intelligence (AI) model is databased and built in the score distribution prediction unit 220 by using the score distribution determined by a large number of people as the label of the beauty score, The score distribution prediction unit 220 may predict the score distribution based on the output of the connection unit 218 based on an objective artificial intelligence (AI) model.

마지막으로, 점수 생성부(222)는 스코어 분포 예측부(220)로부터의 스코어 분포 예측 결과를 근거로 해당 얼굴 이미지(즉, 평가받고자 하는 가상의 얼굴 이미지)에 대한 뷰티 평가 점수를 생성(결정)한다(S260). 그에 따라, 점수 생성부(222)는 평가받고자 하는 가상의 얼굴 이미지(즉, 가상으로 화장된 얼굴 이미지) 및 해당 이미지에 대한 뷰티 평가 점수(예측 점수(predicted), 라벨(label))를 출력한다.Finally, the score generation unit 222 generates (determines) a beauty evaluation score for the corresponding face image (ie, a virtual face image to be evaluated) based on the score distribution prediction result from the score distribution prediction unit 220 . do (S260). Accordingly, the score generator 222 outputs a virtual face image to be evaluated (ie, a virtual makeup face image) and a beauty evaluation score (predicted score, label) for the image. .

또한, 상술한 본 발명의 가상화장 이미지 평가 점수 생성 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the virtual field image evaluation score generation method of the present invention described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms are used herein, they are used only for the purpose of describing the present invention, and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

10 : 사용자 단말 100 : 가상화장 합성부
200 : 이미지 평가점수 생성부 210 : 제 1 입력부
212 : 제 2 입력부 214 : 제 1 얼굴 특성 벡터 추출부
216 : 제 2 얼굴 특성 벡터 추출부 218 : 연결부
220 : 스코어 분포 예측부 222 : 점수 생성부
300 : 사용자 정보 관리부 350 : 입력 정보 획득부
400 : 화장법 비교 처리부 500 : 수집 정보 처리부
600 : 스타일 데이터베이스 700 : 조건별 화장법 후보 추출부
900 : 추천 서비스 제공부 1000 : 서비스 제공 장치
10: user terminal 100: virtual field synthesis unit
200: image evaluation score generation unit 210: first input unit
212: second input unit 214: first facial feature vector extraction unit
216: second facial feature vector extraction unit 218: connection unit
220: score distribution prediction unit 222: score generation unit
300: user information management unit 350: input information acquisition unit
400: makeup comparison processing unit 500: collection information processing unit
600: style database 700: conditional makeup method candidate extraction unit
900: recommended service providing unit 1000: service providing device

Claims (18)

입력 이미지를 입력받는 입력부; 및
상기 입력 이미지에 기초하여 추출된 특성 정보에 대응하여, 상기 입력 이미지의 뷰티 스코어 평가를 위한 스코어 분포를 예측하는 스코어 분포 예측부를 포함하고,
상기 스코어 분포 예측부는,
상기 입력 이미지를, 가상 스타일 합성 이미지의 이미지 특징 정보가 학습된 신경망 모델에 적용하여 추출되는 제1 얼굴 특성 벡터와, 상기 입력 이미지의 개별 특징 요소를, 사전 정의된 얼굴의 개별 특징 요소가 학습된 신경망 모델에 적용하여 추출되는 제2 얼굴 특성 벡터를 연결하는 연결 벡터에 대한 뷰티 스코어 점수 분포(Score Distribution Vector)값을 평가 대상 이미지와 쌍으로 매칭하여 학습된 학습 모델에, 상기 특성 정보를 적용하여, 상기 연결 벡터의 뷰티 스코어 평가를 위한 스코어 분포를 예측하고,
상기 스코어 분포 예측부는, 특성 정보에 대응하는 스코어 분포 정보가 학습된 다층 퍼셉트론 모델에 상기 추출된 특성 정보를 적용하여 상기 스코어 분포를 예측하며,
상기 예측된 스코어 분포를 이용하여 상기 입력 이미지에 대응하는 상기 연결 벡터의 뷰티 스코어 평가를 수행하는 이미지 평가 처리부를 더 포함하고,
상기 이미지 평가 처리부는,
얼굴 랜드마크를 통한 학습 기반 평가, 얼굴 자동 군집 분류 및 유사도 측정 기반 평가, 얼굴각도 측정 및 필터링 기반 평가, 개별 특성 학습 기반 평가 및 평가자 자동 군집 분류 및 유사도 측정 평가 중 적어도 하나를 이용한 점수 분포 학습 기반 평가 처리에 기초하여, 상기 입력 이미지의 상기 연결 벡터의 스코어 분포에 대응하는 뷰티 스코어 평가를 수행하고,
상기 이미지 평가 처리부는,
이미지 내 얼굴의 3차원 X, Y, Z 각도에 대응하는 CNN(Convolutional Neural Network)과 MLP(Multi Layer Perceptron)로 구성되는 얼굴 각도 측정 신경망 모델을 사전 구축하고, 상기 얼굴 각도 측정 신경망 모델을 이용하여 상기 입력 이미지의 얼굴이 바라보는 각도를 예측하며, 상기 예측된 각도가 정면에서 일정 각도 이상 벗어난 경우 제외 처리하여, 상기 입력 이미지에 대응하여 상기 뷰티 스코어를 결정 가능한 정면 이미지들을 선별함에 따라, 상기 입력 이미지 내 얼굴의 각도가 일정 각도 벗어나더라도 얼굴각도 측정 및 선별에 따른 정면 이미지에 대한 상기 연결 벡터의 스코어 분포에 대응하는 뷰티 스코어 평가를 처리하는
이미지 평가 처리 장치.
an input unit for receiving an input image; and
Corresponding to the characteristic information extracted based on the input image, including a score distribution predictor for predicting a score distribution for evaluating the beauty score of the input image,
The score distribution prediction unit,
A first facial feature vector extracted by applying the input image to a neural network model from which image feature information of a virtual style composite image has been learned, and individual feature elements of the input image, a predefined face individual feature element is learned By applying the feature information to the learning model learned by pairwise matching the beauty score distribution vector value for the connection vector that connects the second facial feature vector extracted by applying it to the neural network model, the image to be evaluated is matched. , predicting the score distribution for evaluating the beauty score of the connection vector,
The score distribution prediction unit predicts the score distribution by applying the extracted characteristic information to a multilayer perceptron model in which the score distribution information corresponding to the characteristic information has been learned,
Further comprising an image evaluation processing unit for performing beauty score evaluation of the connection vector corresponding to the input image by using the predicted score distribution,
The image evaluation processing unit,
Learning-based score distribution using at least one of learning-based evaluation through face landmarks, face automatic cluster classification and similarity measurement-based evaluation, face angle measurement and filtering-based evaluation, individual characteristic learning-based evaluation, and rater automatic cluster classification and similarity measurement evaluation Based on the evaluation process, performing a beauty score evaluation corresponding to the score distribution of the connection vector of the input image,
The image evaluation processing unit,
A face angle measurement neural network model composed of CNN (Convolutional Neural Network) and MLP (Multi Layer Perceptron) corresponding to the three-dimensional X, Y, and Z angles of the face in the image is built in advance, and using the facial angle measurement neural network model, Predict the angle at which the face of the input image looks, and when the predicted angle deviates from the front by more than a certain angle, it is excluded, and the front images that can determine the beauty score are selected in response to the input image. Even if the angle of the face in the image is out of a certain angle, the beauty score evaluation corresponding to the score distribution of the connection vector for the front image according to the face angle measurement and selection is processed.
Image evaluation processing unit.
삭제delete 제1항에 있어서,
상기 입력부는,
이미지를 입력받는 제 1 입력부; 및
상기 이미지에 대응하여 사전 정의된 정보를 입력받는 제 2 입력부;를 포함하고,
상기 이미지로부터 제1 특성 벡터를 추출하고, 상기 사전 정의된 정보로부터 제2 특성 벡터를 추출하는 특성 벡터 추출부; 및
상기 제1 특성 벡터 및 상기 제2 특성 벡터를 연결하여, 상기 이미지의 평가에 이용되는 연결 벡터를 구성하여 상기 특성 정보로서 출력하는 연결부를 더 포함하고,
상기 제1 특성 벡터는 상기 이미지를, 평가 점수 분포에 대응하는 가상 스타일 합성 이미지의 이미지 특징 정보가 학습된 컨볼루션 신경망 모델에 적용하여 추출되는
이미지 평가 처리 장치.
According to claim 1,
The input unit,
a first input unit for receiving an image; and
a second input unit for receiving predefined information corresponding to the image;
a feature vector extraction unit that extracts a first feature vector from the image and extracts a second feature vector from the predefined information; and
and a connection unit configured to connect the first characteristic vector and the second characteristic vector to construct a connection vector used for evaluation of the image and output it as the characteristic information,
The first feature vector is extracted by applying the image to a convolutional neural network model in which image feature information of a virtual style composite image corresponding to an evaluation score distribution is learned.
Image evaluation processing unit.
제3항에 있어서,
상기 제2 얼굴 특성 벡터는 상기 이미지에 대응하여 사전 정의된 이미지 영역별 비율 및 길이 정보 중 적어도 하나를, 평가 점수 분포에 대응하여 상기 사전 정의된 정보가 학습된 다층 퍼셉트론 모델에 적용하여 추출되는 것을 특징으로 하는
이미지 평가 처리 장치.
4. The method of claim 3,
The second facial feature vector is extracted by applying at least one of the ratio and length information for each image area predefined in response to the image to the multilayer perceptron model in which the predefined information is learned in response to the evaluation score distribution. characterized
Image evaluation processing unit.
제3항에 있어서,
상기 스코어 분포 예측부는,
연결 벡터에 대응하는 뷰티 스코어 분포 정보가 학습된 다층 퍼셉트론 모델에, 상기 연결 벡터를 적용하여, 상기 연결부의 출력에 대응하는 뷰티 스코어 분포를 예측하는
이미지 평가 처리 장치.
4. The method of claim 3,
The score distribution prediction unit,
Predicting the beauty score distribution corresponding to the output of the connection unit by applying the connection vector to the multilayer perceptron model in which the beauty score distribution information corresponding to the connection vector has been learned
Image evaluation processing unit.
제3항에 있어서,
상기 연결 벡터의 스코어 분포로부터 산출되는 평가 점수를 결정하는 점수 생성부; 및
상기 평가 점수에 기초한 스타일 추천 서비스를 제공하는 추천 서비스 제공부를 더 포함하는
이미지 평가 처리 장치.
4. The method of claim 3,
a score generator for determining an evaluation score calculated from the score distribution of the connection vector; and
Further comprising a recommendation service providing unit that provides a style recommendation service based on the evaluation score
Image evaluation processing unit.
제6항에 있어서,
상기 이미지는,
사용자 이미지 및 조건 정보를 포함하는 입력 정보에 기초하여, 사전 구축된 스타일 데이터베이스로부터 추출되는 스타일별 이미지 정보와 상기 이미지를 합성한 하나 이상의 가상 스타일 이미지를 포함하는
이미지 평가 처리 장치.
7. The method of claim 6,
The image is
On the basis of input information including a user image and condition information, image information for each style extracted from a pre-built style database and one or more virtual style images obtained by synthesizing the image
Image evaluation processing unit.
제7항에 있어서,
상기 가상 스타일 이미지는, 상기 입력 정보에 따라 미리 설정된 N개의 스타일별 이미지 정보와 상기 사용자 이미지를 합성한 N개의 가상 스타일 이미지를 포함하는
이미지 평가 처리 장치.
8. The method of claim 7,
The virtual style image includes N virtual style images obtained by synthesizing image information for each style preset according to the input information and the user image.
Image evaluation processing unit.
제8항에 있어서,
상기 평가 점수에 기초하여, 상기 N개의 가상 스타일 이미지 중 상기 사용자 이미지에 대응하는 하나 이상의 스타일을 결정하고, 상기 결정된 스타일에 대응하는 스타일 정보를 사용자 단말로 제공하는
이미지 평가 처리 장치.
9. The method of claim 8,
determining one or more styles corresponding to the user image among the N virtual style images based on the evaluation score, and providing style information corresponding to the determined style to the user terminal
Image evaluation processing unit.
컴퓨터 장치의 이미지 평가 처리 방법에 있어서,
입력 이미지를 입력받는 단계; 및
상기 입력 이미지에 기초하여 추출된 특성 정보에 대응하여, 상기 입력 이미지의 평가를 위한 스코어 분포를 예측하는 스코어 분포 예측 단계를 포함하고,
상기 스코어 분포 예측 단계는,
상기 입력 이미지를, 가상 스타일 합성 이미지의 이미지 특징 정보가 학습된 신경망 모델에 적용하여 추출되는 제1 얼굴 특성 벡터와, 상기 입력 이미지의 개별 특징 요소를, 사전 정의된 얼굴의 개별 특징 요소가 학습된 신경망 모델에 적용하여 추출되는 제2 얼굴 특성 벡터를 연결하는 연결 벡터에 대한 뷰티 스코어 점수 분포(Score Distribution Vector)값을 평가 대상 이미지와 쌍으로 매칭하여 학습된 학습 모델에, 상기 특성 정보를 적용하여, 상기 연결 벡터의 뷰티 스코어 평가를 위한 스코어 분포를 예측하는 단계를 포함하고,
상기 스코어 분포를 예측하는 단계는, 특성 정보에 대응하는 스코어 분포 정보가 학습된 다층 퍼셉트론 모델에 상기 추출된 특성 정보를 적용하여 상기 스코어 분포를 예측하는 단계를 포함하며,
상기 예측된 스코어 분포를 이용하여 상기 입력 이미지에 대응하는 상기 연결 벡터의 뷰티 스코어 평가를 처리하는 단계를 더 포함하고,
상기 평가를 처리하는 단계는,
얼굴 랜드마크를 통한 학습 기반 평가, 얼굴 자동 군집 분류 및 유사도 측정 기반 평가, 얼굴각도 측정 및 필터링 기반 평가, 개별 특성 학습 기반 평가 및 평가자 자동 군집 분류 및 유사도 측정 평가 중 적어도 하나를 이용한 점수 분포 학습 기반 평가 처리에 기초하여, 상기 입력 이미지의 상기 연결 벡터의 스코어 분포에 대응하는 뷰티 스코어 평가를 처리하는 단계를 포함하고,
상기 평가를 처리하는 단계는,
이미지 내 얼굴의 3차원 X, Y, Z 각도에 대응하는 CNN(Convolutional Neural Network)과 MLP(Multi Layer Perceptron)로 구성되는 얼굴 각도 측정 신경망 모델을 사전 구축하고, 상기 얼굴 각도 측정 신경망 모델을 이용하여 상기 입력 이미지의 얼굴이 바라보는 각도를 예측하며, 상기 예측된 각도가 정면에서 일정 각도 이상 벗어난 경우 제외 처리하여, 상기 입력 이미지에 대응하여 상기 뷰티 스코어를 결정 가능한 정면 이미지들을 선별함에 따라, 상기 입력 이미지 내 얼굴의 각도가 일정 각도 벗어나더라도 얼굴각도 측정 및 선별에 따른 정면 이미지에 대한 상기 연결 벡터의 스코어 분포에 대응하는 뷰티 스코어 평가를 처리하는 단계를 더 포함하는
이미지 평가 처리 방법.
A method for processing image evaluation of a computer device, the method comprising:
receiving an input image; and
A score distribution prediction step of predicting a score distribution for evaluation of the input image in response to the characteristic information extracted based on the input image,
The score distribution prediction step is,
A first facial feature vector extracted by applying the input image to a neural network model from which image feature information of a virtual style composite image has been learned, and individual feature elements of the input image, a predefined face individual feature element is learned By applying the feature information to the learning model learned by pairwise matching the beauty score distribution vector value for the connection vector that connects the second facial feature vector extracted by applying it to the neural network model, the image to be evaluated is matched. , predicting a score distribution for evaluating the beauty score of the connection vector,
Predicting the score distribution includes predicting the score distribution by applying the extracted characteristic information to a multilayer perceptron model in which score distribution information corresponding to the characteristic information has been learned,
Further comprising the step of processing the evaluation of the beauty score of the connection vector corresponding to the input image using the predicted score distribution,
The step of processing the evaluation comprises:
Learning-based score distribution using at least one of learning-based evaluation through face landmarks, face automatic cluster classification and similarity measurement-based evaluation, face angle measurement and filtering-based evaluation, individual characteristic learning-based evaluation, and rater automatic cluster classification and similarity measurement evaluation processing a beauty score evaluation corresponding to the score distribution of the connection vector of the input image, based on the evaluation processing,
The step of processing the evaluation comprises:
A face angle measurement neural network model composed of CNN (Convolutional Neural Network) and MLP (Multi Layer Perceptron) corresponding to the three-dimensional X, Y, and Z angles of the face in the image is built in advance, and using the facial angle measurement neural network model, Predict the angle at which the face of the input image looks, and when the predicted angle deviates from the front by more than a certain angle, it is excluded, and the front images that can determine the beauty score are selected in response to the input image. Even if the angle of the face in the image is out of a certain angle, further comprising the step of processing a beauty score evaluation corresponding to the score distribution of the connection vector for the front image according to the face angle measurement and selection
Image evaluation processing method.
삭제delete 제10항에 있어서,
상기 입력받는 단계는,
이미지를 입력받는 제 1 입력 단계; 및
상기 이미지에 대응하여 사전 정의된 정보를 입력받는 제 2 입력 단계;를 포함하고,
상기 이미지로부터 제1 특성 벡터를 추출하고, 상기 사전 정의된 정보로부터 제2 특성 벡터를 추출하는 특성 벡터 추출 단계; 및
상기 제1 특성 벡터 및 상기 제2 특성 벡터를 연결하여, 상기 이미지의 평가에 이용되는 연결 벡터를 구성하여 상기 특성 정보로서 출력하는 연결 단계를 더 포함하며,
상기 제1 특성 벡터는 상기 이미지를, 평가 점수 분포에 대응하는 가상 스타일 합성 이미지의 이미지 특징 정보가 학습된 컨볼루션 신경망 모델에 적용하여 추출되는
이미지 평가 처리 방법.
11. The method of claim 10,
The step of receiving the input is
a first input step of receiving an image; and
a second input step of receiving predefined information corresponding to the image;
a feature vector extraction step of extracting a first feature vector from the image and extracting a second feature vector from the predefined information; and
The method further comprises a linking step of concatenating the first characteristic vector and the second characteristic vector, constructing a connection vector used for evaluation of the image, and outputting it as the characteristic information,
The first feature vector is extracted by applying the image to a convolutional neural network model in which image feature information of a virtual style composite image corresponding to an evaluation score distribution is learned.
Image evaluation processing method.
제12항에 있어서,
상기 제2 얼굴 특성 벡터는 상기 이미지에 대응하여 사전 정의된 이미지 영역별 비율 및 길이 정보 중 적어도 하나를, 평가 점수 분포에 대응하여 상기 사전 정의된 정보가 학습된 다층 퍼셉트론 모델에 적용하여 추출되는 것을 특징으로 하는
이미지 평가 처리 방법.
13. The method of claim 12,
The second facial feature vector is extracted by applying at least one of the ratio and length information for each image area predefined in response to the image to the multilayer perceptron model in which the predefined information is learned in response to the evaluation score distribution. characterized
Image evaluation processing method.
제12항에 있어서,
상기 스코어 분포를 예측하는 단계는,
연결 벡터에 대응하는 뷰티 스코어 분포 정보가 학습된 다층 퍼셉트론 모델에, 상기 연결 벡터를 적용하여, 상기 연결 벡터에 대응하는 뷰티 스코어 분포를 예측하는 단계를 포함하는
이미지 평가 처리 방법.
13. The method of claim 12,
Predicting the score distribution comprises:
Applying the connection vector to a multilayer perceptron model in which beauty score distribution information corresponding to the connection vector has been learned, comprising the step of predicting the beauty score distribution corresponding to the connection vector
Image evaluation processing method.
제12항에 있어서,
상기 연결 벡터의 스코어 분포로부터 산출되는 평가 점수를 결정하는 점수 생성 단계; 및
상기 평가 점수에 기초한 스타일 추천 서비스를 제공하는 추천 서비스 제공단계를 더 포함하는
이미지 평가 처리 방법.
13. The method of claim 12,
a score generation step of determining an evaluation score calculated from the score distribution of the connection vector; and
Further comprising a recommendation service providing step of providing a style recommendation service based on the evaluation score
Image evaluation processing method.
제15항에 있어서,
상기 이미지는,
사용자 이미지 및 조건 정보를 포함하는 입력 정보에 기초하여, 사전 구축된 스타일 데이터베이스로부터 추출되는 스타일별 이미지 정보와 상기 이미지를 합성한 하나 이상의 가상 스타일 이미지를 포함하는
이미지 평가 처리 방법.
16. The method of claim 15,
The image is
On the basis of input information including a user image and condition information, image information for each style extracted from a pre-built style database and one or more virtual style images obtained by synthesizing the image
Image evaluation processing method.
제16항에 있어서,
상기 가상 스타일 이미지는, 상기 입력 정보에 따라 미리 설정된 N개의 스타일별 이미지 정보와 상기 사용자 이미지를 합성한 N개의 가상 스타일 이미지를 포함하는
이미지 평가 처리 방법.
17. The method of claim 16,
The virtual style image includes N virtual style images obtained by synthesizing image information for each style preset according to the input information and the user image.
Image evaluation processing method.
제17항에 있어서,
상기 평가 점수에 기초하여, 상기 N개의 가상 스타일 이미지 중 상기 사용자 이미지에 대응하는 하나 이상의 스타일을 결정하고, 상기 결정된 스타일에 대응하는 스타일 정보를 사용자 단말로 제공하는
이미지 평가 처리 방법.
18. The method of claim 17,
determining one or more styles corresponding to the user image among the N virtual style images based on the evaluation score, and providing style information corresponding to the determined style to the user terminal
Image evaluation processing method.
KR1020190026697A 2019-03-08 2019-03-08 An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions KR102465455B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190026697A KR102465455B1 (en) 2019-03-08 2019-03-08 An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190026697A KR102465455B1 (en) 2019-03-08 2019-03-08 An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions

Publications (2)

Publication Number Publication Date
KR20200107499A KR20200107499A (en) 2020-09-16
KR102465455B1 true KR102465455B1 (en) 2022-11-10

Family

ID=72669851

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190026697A KR102465455B1 (en) 2019-03-08 2019-03-08 An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions

Country Status (1)

Country Link
KR (1) KR102465455B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170184A (en) * 2014-03-07 2015-09-28 富士通株式会社 Unobserved factor estimation support apparatus, unobserved factor estimation support method, and unobserved factor estimation support program
JP2016149010A (en) * 2015-02-12 2016-08-18 株式会社東芝 Image evaluation apparatus, image evaluation method, and program
KR101827998B1 (en) 2017-04-24 2018-02-12 에스케이플래닛 주식회사 Virtual experience system based on facial feature and method therefore
KR101872635B1 (en) * 2017-02-01 2018-06-29 주식회사 엘지생활건강 Automatic make-up evaluation system and operating method thereof
JP6408729B1 (en) * 2018-02-28 2018-10-17 株式会社ジャパン・カレント Image evaluation apparatus, image evaluation method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5947410A (en) * 1982-09-09 1984-03-17 Teijin Ltd Spinning pack device
KR20120046652A (en) * 2010-11-02 2012-05-10 에스케이플래닛 주식회사 System and method for recommending hair based on face recognition
KR20170090303A (en) * 2016-01-28 2017-08-07 이혜린 Correction guiding method for asymmetric element by face element extraction
KR101782914B1 (en) * 2016-02-29 2017-09-28 한국항공대학교산학협력단 Apparatus and method for aerial scene labeling
KR102051891B1 (en) * 2017-08-10 2019-12-04 한양대학교 산학협력단 Method and apparatus for packe loss concealment using generative adversarial network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170184A (en) * 2014-03-07 2015-09-28 富士通株式会社 Unobserved factor estimation support apparatus, unobserved factor estimation support method, and unobserved factor estimation support program
JP2016149010A (en) * 2015-02-12 2016-08-18 株式会社東芝 Image evaluation apparatus, image evaluation method, and program
KR101872635B1 (en) * 2017-02-01 2018-06-29 주식회사 엘지생활건강 Automatic make-up evaluation system and operating method thereof
KR101827998B1 (en) 2017-04-24 2018-02-12 에스케이플래닛 주식회사 Virtual experience system based on facial feature and method therefore
JP6408729B1 (en) * 2018-02-28 2018-10-17 株式会社ジャパン・カレント Image evaluation apparatus, image evaluation method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
네이버블로그, "Image Blending (Poisson Image Editing)" (2007.12.19.) 1부.
황원준. "딥러닝 기반 얼굴 검출, 랜드마크 검출 및 얼굴 인식 기술 연구 동향". 방송과 미디어. 2017년 10월, 제22권, 제4호, pp.417-425. 1부.

Also Published As

Publication number Publication date
KR20200107499A (en) 2020-09-16

Similar Documents

Publication Publication Date Title
CN107688823B (en) A kind of characteristics of image acquisition methods and device, electronic equipment
US11080918B2 (en) Method and system for predicting garment attributes using deep learning
KR102465454B1 (en) An apparatus and a method for generating virtual makeup beauty score by using AI recognition of facial features
KR102316079B1 (en) GAN based interior design recommendation method and device
US11282256B2 (en) Crowdshaping realistic 3D avatars with words
Bian et al. Structural knowledge distillation for efficient skeleton-based action recognition
WO2016109884A1 (en) Automated recommendation and virtualization systems and methods for e-commerce
US10818062B2 (en) Crowdshaping realistic 3D avatars with words
Duong et al. Learning from longitudinal face demonstration—where tractable deep modeling meets inverse reinforcement learning
JP2019149057A (en) Information processing device, information processing method, and information processing program
Choi et al. Semi-supervised learning for continuous emotion recognition based on metric learning
WO2021239539A1 (en) Methods and devices for spectacle frame selection
CN111967924A (en) Commodity recommendation method, commodity recommendation device, computer device, and medium
CN110598097B (en) Hair style recommendation system, method, equipment and storage medium based on CNN
Zhou et al. Consistency and diversity induced human motion segmentation
KR20200107469A (en) A method for providing recommendation services of personal makeup styles based on beauty scores
KR20200107465A (en) A method for providing recommendation services of personal makeup styles based on beauty scores
Xu Mt-resnet: a multi-task deep network for facial attractiveness prediction
Sharma et al. Multimodal biometric for person identification using deep learning approach
KR20200107488A (en) Virtual makeup composition processing method
CN115358807A (en) Article recommendation method and device, storage medium and electronic equipment
Sajid et al. Facial asymmetry-based feature extraction for different applications: a review complemented by new advances
KR102465453B1 (en) A virtual makeup composition A.I. processing apparatus and a method using it
KR102465455B1 (en) An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions
KR102520597B1 (en) Product matching method considering market analysis and company needs

Legal Events

Date Code Title Description
AMND Amendment
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)