KR20200107488A - Virtual makeup composition processing method - Google Patents

Virtual makeup composition processing method Download PDF

Info

Publication number
KR20200107488A
KR20200107488A KR1020190026679A KR20190026679A KR20200107488A KR 20200107488 A KR20200107488 A KR 20200107488A KR 1020190026679 A KR1020190026679 A KR 1020190026679A KR 20190026679 A KR20190026679 A KR 20190026679A KR 20200107488 A KR20200107488 A KR 20200107488A
Authority
KR
South Korea
Prior art keywords
makeup
face
image
detailed
area
Prior art date
Application number
KR1020190026679A
Other languages
Korean (ko)
Inventor
곽지훈
이상덕
송경민
안성권
Original Assignee
주식회사 에이아이네이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이아이네이션 filed Critical 주식회사 에이아이네이션
Priority to KR1020190026679A priority Critical patent/KR20200107488A/en
Publication of KR20200107488A publication Critical patent/KR20200107488A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0277Online advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Provided is a virtual makeup composition processing method for obtaining a final result by applying makeup on each area of a face and integrating the results thereof. The method comprises the steps of: detecting, by a face detecting unit, a face area in a user input image including a face and displaying a location; extracting, by a face area extraction unit, the face area; detecting, by a facial feature point extraction unit, a location of a facial feature point in the extracted face area; extracting, by a detailed area extraction unit, a detailed area including left and right eyes and lips based on the extracted facial feature point location coordinates; applying, by a makeup unit for each detailed area, makeup to each of the extracted detailed areas; and composing, by a composing unit, the detailed area with the makeup applied thereto.

Description

가상화장 합성 처리 방법{Virtual makeup composition processing method}Virtual makeup composition processing method}

본 발명은 가상화장 합성 처리 방법에 관한 것으로, 보다 상세하게는 딥러닝을 활용하여 얼굴에 가상으로 화장을 입히는 가상화장 합성 처리 방법에 관한 것이다.The present invention relates to a virtual field synthesis processing method, and more particularly, to a virtual field synthesis processing method using deep learning to virtually apply makeup on a face.

뷰티 산업(beauty industry)의 발전에 따라, 화장품, 메이크업(make-up) 등에 대한 관심이 증가하고 있으며, 화장품, 메이크업 등에 대한 욕구가 다양해지고 있는 추세이다. 예를 들어, 사용자 개인마다 피부 색상, 얼굴형, 이목구비의 생김새 등이 다양하기 때문에 개인에게 어울리는 메이크업이 다를 수 있다. 따라서, 사용자는 자신에게 어울리는 메이크업에 대한 선택의 어려움을 가질 수 있다. 또한, 사용자는 메이크업 후에 메이크업이 잘 된 것인지, 어떤 부분을 보완해야 하는지 궁금할 수 있다.With the development of the beauty industry, interest in cosmetics and make-up is increasing, and desires for cosmetics, make-up, etc. are increasing. For example, since each user has a variety of skin color, face shape, and appearance of features, makeup suitable for an individual may be different. Therefore, the user may have difficulty in selecting a makeup suitable for him/her. In addition, the user may be curious about whether the makeup is good after makeup, and what parts should be supplemented.

이러한 추세에 맞추어, 최근에는 사용자의 얼굴에 가상의 메이크업을 입혀주는 어플리케이션(application) 등이 개발되고 있다. 이 경우, 사용자의 호기심과 흥미를 유발할 수는 있으나, 어떤 메이크업이 사용자에게 어울리는지 개인이 판단해야 하는 한계가 있다. 즉, 현재 제공되는 뷰티 서비스의 경우에는 메이크업 전문가의 협업이 포함되지 않거나, 메이크업 전문가의 협업이 있다고 하더라도 한정적인 데이터에 기초하고 있다. 따라서, 사용자 개개인에 대한 맞춤형 서비스를 제공하기에는 어려움이 있다.In line with this trend, recently, an application for putting on a virtual makeup on a user's face has been developed. In this case, although it may induce curiosity and interest of the user, there is a limit in which an individual must determine which makeup suits the user. In other words, in the case of the currently provided beauty service, the collaboration of makeup experts is not included, or even if there is collaboration of makeup experts, it is based on limited data. Therefore, it is difficult to provide a customized service for each user.

이러한 어려움을 해결하기 위해 최근에는 기계 학습 및 딥러닝 기술을 이용하여 패턴화된 이미지 분석을 처리하는 기술을 적용한 메이크업 평가 기술 등이 제안되며, 이는 맞춤형 서비스를 위하여 사용자들의 평가에 따라 점수화된 기준을 메이크업에 적용하여 자신의 메이크업 결과를 평가받는 서비스로서 제안되고 있다.In order to solve these difficulties, recently, makeup evaluation technology that applies technology that processes patterned image analysis using machine learning and deep learning technology has been proposed, which is based on scored criteria according to user evaluations for customized services. It is proposed as a service that applies to makeup and evaluates the result of one's makeup.

그러나, 이러한 기술들은 이미 완료된 메이크업의 결과만을 평가받을 수 있을 뿐, 현재 자신의 맨얼굴에 어울리는 화장법을 미리 알기가 어려운 실정이다.However, these techniques can only be evaluated for the result of makeup that has already been completed, and it is difficult to know in advance how to make up for one's bare face.

또한, 화장법을 평가하거나, 미리 사전 분석하여 추천하기 위하여는 방대한 양의 메이크업 관련 데이터와 전문가 분석 정보가 요구되고 있으나, 이러한 방대한 데이터 수집 및 평가 방식 설정에는 과도한 비용 및 시간이 요구되고 있는 실정이다.In addition, a vast amount of makeup-related data and expert analysis information are required to evaluate or recommend a makeup method in advance, but excessive cost and time are required to collect such a large amount of data and to set up an evaluation method.

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 얼굴의 일부 영역에 각각 화장을 입힌 후 그 결과를 통합하여 최종 결과를 얻을 수 있도록 하는 가상화장 합성 처리 방법을 제공함에 그 목적이 있다.The present invention has been proposed in order to solve the above-described conventional problem, and an object of the present invention is to provide a virtualization field synthesis processing method in which a final result can be obtained by integrating the result after applying makeup on each part of the face. .

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 가상화장 합성 처리 방법은, 얼굴 감지부가, 얼굴이 포함된 사용자 입력 이미지에서 얼굴 영역을 감지하여 위치를 표시하는 단계; 얼굴 영역 추출부가, 상기 얼굴 영역을 추출하는 단계; 얼굴 특징점 추출부가, 상기 추출된 얼굴 영역에서 얼굴 특징점 위치를 감지하는 단계; 세부 영역 추출부가, 상기 추출된 얼굴 특징점 위치 좌표를 토대로 좌우 눈과 입술을 포함하는 세부 영역을 추출하는 단계; 세부 영역별 화장부가, 상기 추출된 각각의 세부 영역에 대하여 화장을 입히는 단계; 및 합성부가, 상기 화장된 세부 영역을 합성하는 단계;를 포함한다.In order to achieve the above object, a virtual field synthesis processing method according to a preferred embodiment of the present invention includes the steps of: a face detection unit, detecting a face area from a user input image including a face and displaying a location; Extracting the face region by a face region extracting unit; Detecting, by a facial feature point extracting unit, a position of a facial feature point in the extracted face area; Extracting, by a detailed area extracting unit, a detailed area including left and right eyes and lips based on the extracted facial feature point position coordinates; Applying makeup for each of the extracted detailed areas, by applying makeup for each detailed area; And a synthesis unit synthesizing the cremated detailed region.

한편, 본 발명의 바람직한 실시양태에 따른 가상화장 합성 처리 장치는, 얼굴이 포함된 사용자 입력 이미지에서 얼굴 영역을 감지하여 위치를 표시하는 얼굴 감지부; 상기 얼굴 영역을 추출하는 얼굴 영역 추출부; 상기 추출된 얼굴 영역에서 얼굴 특징점 위치를 감지하는 얼굴 특징점 추출부; 상기 추출된 얼굴 특징점 위치 좌표를 토대로 좌우 눈과 입술을 포함하는 세부 영역을 추출하는 세부 영역 추출부; 상기 추출된 각각의 세부 영역에 대하여 화장을 입히는 세부 영역별 화장부; 및 상기 화장된 세부 영역을 합성하는 합성부;를 포함한다.On the other hand, the virtualization field synthesis processing apparatus according to a preferred embodiment of the present invention includes: a face detector configured to detect a face area from a user input image including a face and display a location; A face region extracting unit for extracting the face region; A facial feature point extraction unit detecting a location of a facial feature point in the extracted face area; A detailed region extracting unit for extracting a detailed region including left and right eyes and lips based on the extracted facial feature point position coordinates; A makeup part for each detail area for applying makeup to each of the extracted detailed areas; And a synthesis unit for synthesizing the cremated detailed region.

상기 얼굴 감지부는 딥러닝 Object Detection 기법을 활용할 수 있다.The face detection unit may utilize a deep learning object detection technique.

상기 얼굴 영역 추출부는 상기 얼굴 감지부에서 감지된 얼굴 영역의 주변부를 제외한 나머지 배경 부분을 잘라내고, 얼굴 피부 영역을 픽셀 단위로 감지하여 나머지 부분은 전부 지우고, 픽셀 단위로 감지된 얼굴 피부 영역을 추출할 수 있다. 이때, 상기 얼굴 피부 영역을 픽셀 단위로 감지하여 나머지 부분은 전부 지우는 경우 딥러닝 segmentation 기법을 활용할 수 있다.The face region extracting unit cuts out the rest of the background except for the periphery of the face region detected by the face detection unit, detects the face skin region in pixel units, erases all remaining portions, and extracts the facial skin region detected in pixels. can do. In this case, a deep learning segmentation technique may be used when the facial skin area is detected in pixel units and all remaining portions are erased.

상기 얼굴 특징점 추출부는 딥러닝 Facial Landmark Detection 기법을 활용할 수 있다.The facial feature point extraction unit may utilize a deep learning facial landmark detection technique.

상기 세부 영역별 화장부는 상기 세부 영역 추출부에서 추출된 각각의 세부 영역에 대하여 PairedCycleGAN 기법을 활용하여 화장을 입힐 수 있다.The makeup part for each detailed region may apply makeup using the PairedCycleGAN technique for each detailed region extracted by the detailed region extraction unit.

상기 세부 영역별 화장부는 상기 화장된 각 세부 영역중에서 좌우 눈 영역의 비대칭 문제를 해결하되, 좌우 눈에 화장을 입힌 뒤 화장에 의한 이미지 픽셀 데이터의 변화량을 서로 비교하여 그 차이가 기설정된 기준치 이하가 되도록 조절할 수 있다.The makeup part for each detailed area solves the asymmetry problem of the left and right eye areas among each of the makeup areas, but compares the amount of change in image pixel data due to makeup after putting on makeup on the left and right eyes, and the difference is less than a preset reference value. It can be adjusted as much as possible.

상기 합성부는 상기 세부 영역별 화장부에서 화장된 세부 영역을 Poisson Image Blending 기법을 활용하여 합성할 수 있다.The synthesizing unit may synthesize the detailed areas cremated in the makeup part for each detailed area using a Poisson Image Blending technique.

이러한 구성의 본 발명에 따르면, 가상 화장을 입히려는 사용자의 입력 이미지(얼굴 포함)에서 얼굴의 특징점을 분석하고 눈/코/입 등 세부 영역을 추출하고 각 영역에 화장을 입힌 뒤 모든 결과 값을 합성하여 가상 화장 이미지를 얻음으로써, 각 영역에 집중도 높은 결과를 얻을 수 있으며 종래와 비교하여 성능을 향상시킬 수 있다.According to the present invention of this configuration, the feature points of the face are analyzed from the input image (including the face) of the user who intends to put on virtual makeup, and detailed areas such as eyes/nose/mouth are extracted, and after applying makeup to each area, all result values are By synthesizing and obtaining a virtual makeup image, a result with high concentration in each area can be obtained, and performance can be improved compared to the conventional one.

또한, 가상화장에서 발생될 수 있는 좌우 눈 영역의 비대칭 문제를 해결할 수 있다.In addition, it is possible to solve the problem of asymmetry of the left and right eye regions that may occur in a virtualization field.

도 1은 본 발명이 적용되는 전체 시스템을 개략적으로 도시한 개념도이다.
도 2는 도 1에 도시된 서비스 제공 장치를 보다 구체적으로 도시한 블록도이다.
도 3은 도 1에 도시된 서비스 제공 장치에 의한 서비스 제공 방법을 설명하기 위한 흐름도이다.
도 4는 도 1에 도시된 사용자 단말에서의 사용자 인터페이스의 순차적 변화를 설명하기 위한 도면이다.
도 5는 도 1에 도시된 가상화장 합성부의 내부 구성도로서, 본 발명의 실시예에 따른 가상화장 합성 처리 장치의 구성도이다.
도 6은 본 발명의 실시예에 따른 가상화장 합성 처리 방법을 설명하기 위한 플로우차트이다.
도 7 내지 도 9는 도 6의 설명에 채용되는 도면이다.
1 is a conceptual diagram schematically showing an entire system to which the present invention is applied.
2 is a block diagram showing in more detail the service providing apparatus shown in FIG. 1.
FIG. 3 is a flowchart illustrating a service providing method by the service providing apparatus shown in FIG. 1.
4 is a diagram for explaining sequential changes of a user interface in the user terminal shown in FIG. 1.
5 is an internal configuration diagram of a virtualization field synthesis unit shown in FIG. 1, and is a configuration diagram of a virtualization field synthesis processing apparatus according to an embodiment of the present invention.
6 is a flowchart illustrating a virtualization field synthesis processing method according to an embodiment of the present invention.
7 to 9 are views employed in the description of FIG. 6.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.

도 1은 본 발명이 적용되는 전체 시스템을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically showing an entire system to which the present invention is applied.

도 1에 도시된 전체 시스템은 사용자 단말(10) 및 서비스 제공 장치(1000)를 포함할 수 있다.The entire system illustrated in FIG. 1 may include a user terminal 10 and a service providing apparatus 1000.

특히, 서비스 제공 장치(1000)는 화장 스타일 추천 서비스 제공을 위해, 단말(10)과 유/무선 네트워크를 통해 연결될 수 있으며, 상호간 통신을 수행할 수 있다.In particular, the service providing apparatus 1000 may be connected to the terminal 10 through a wired/wireless network to provide a makeup style recommendation service, and may communicate with each other.

여기서, 상기 각 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radiocommunication network) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Here, each of the networks is a local area network (LAN), a wide area network (WAN), a value added network (VAN), a personal area network (PAN), and a mobile communication network. It can be implemented in all types of wired/wireless networks such as (mobile radiocommunication network) or satellite communication network.

그리고, 사용자 단말(10)은 컴퓨터, 휴대폰, 스마트 폰(smart phone), 스마트 패드(smart pad), 노트북 컴퓨터(laptop computer), PDA(Personal Digital Assistants), PMP(Portable Media Player) 중 어느 하나의 개별적 기기, 또는 특정 장소에 설치되는 키오스크 또는 거치형 디스플레이 장치와 같은 공용화된 디바이스 중 적어도 하나의 멀티 디바이스일 수 있으며, 서비스 제공 장치(1000)로 사용자 정보를 제공하고, 서비스 제공 장치(1000)로부터 처리된 정보를 수신하여 출력할 수 있다.And, the user terminal 10 is a computer, a mobile phone, a smart phone (smart phone), a smart pad (smart pad), a laptop computer (laptop computer), PDA (Personal Digital Assistants), PMP (Portable Media Player) It may be an individual device or at least one multi-device among common devices such as a kiosk installed in a specific place or a stationary display device, and provides user information to the service providing device 1000 and processed from the service providing device 1000 You can receive and print the information.

이와 같은 시스템 구성에 있어서, 서비스 제공 장치(1000)는, 먼저 인터넷상의 영상 정보로부터 화장 스타일 데이터베이스 구성을 위한 영상 정보를 수집하고, 수집된 영상 정보로부터 소스 이미지 추출 및 매핑 처리를 수행하여 스타일 데이터베이스를 구축할 수 있다.In such a system configuration, the service providing apparatus 1000 first collects image information for configuring a makeup style database from image information on the Internet, and then extracts and maps a source image from the collected image information to create a style database. Can build.

여기서, 영상 정보는 구독자수가 일정 수 이상인 뷰티 인플루언서들의 화장 영상 정보일 수 있으며, 이는 유투브, 페이스북, 텀블러, 트위치, 네이버, 카카오 등의 다양한 영상 업로드 사이트로부터 크롤링되어 추출되는 영상 정보를 포함할 수 있다.Here, the video information may be makeup video information of beauty influencers with a certain number of subscribers or more, and this is video information crawled and extracted from various video upload sites such as YouTube, Facebook, Tumblr, Twitch, Naver, and Kakao. Can include.

그리고, 서비스 제공 장치(1000)는 수집된 영상 정보에 대응하는 소스 이미지들을 캡쳐 추출할 수 있으며, 소스 이미지는 예를 들어, 화장 전, 후가 등장하는 인플루언서의 화장 전 후 이미지를 포함할 수 있다.In addition, the service providing device 1000 may capture and extract source images corresponding to the collected image information, and the source image may include, for example, an before and after makeup image of an influencer who appears before and after makeup. I can.

이에 따라, 서비스 제공 장치(1000)는 수집된 영상 정보로부터 추출된 소스 이미지에 기초한 화장 스타일을 결정할 수 있는 바, 이를 위해 미리 학습된 화장 스타일 신경망에 기초한 이미지 분석 기술이 이용될 수 있다. 그리고, 서비스 제공 장치(1000)는 결정된 화장 스타일에 대응하는 이미지 정보를 저장 등록하여, 화장 스타일 데이터베이스를 구축할 수 있다.Accordingly, the service providing apparatus 1000 may determine a makeup style based on the source image extracted from the collected image information, and for this, an image analysis technology based on a pre-learned makeup style neural network may be used. In addition, the service providing apparatus 1000 may store and register image information corresponding to the determined makeup style to build a makeup style database.

한편, 서비스 제공 장치(1000)는 사용자 단말(10)로부터 사용자 정보를 수신하여 등록하고, 사용자 입력 정보로서 사용자 이미지 정보 및 기타 조건 설정 정보를 획득하여, 사용자의 맨얼굴에 대응하여 적합한 화장 스타일을 추천하기 위한 추천 정보를 사용자 단말(10)로 제공할 수 있다.On the other hand, the service providing apparatus 1000 receives and registers user information from the user terminal 10, obtains user image information and other condition setting information as user input information, and sets a suitable makeup style in response to the user's bare face. Recommendation information for recommendation may be provided to the user terminal 10.

이를 위해, 서비스 제공 장치(1000)는 사용자 이미지 정보에 대응한 가상화장 합성 처리, 이미지 평가점수 생성 및 비교 분석 처리를 수행할 수 있으며, 비교 분석 결과에 따른 하나 또는 그 이상의 화장 스타일 정보 또는 가상합성 결과 정보를 사용자 단말(10)로 제공할 수 있다.To this end, the service providing device 1000 may perform a virtual field synthesis processing, image evaluation score generation, and comparative analysis processing corresponding to the user image information, and one or more makeup style information or virtual synthesis according to the comparison analysis result. The result information may be provided to the user terminal 10.

이에 따라, 사용자 단말(10)은 서비스 제공 장치(1000)로 사용자 이미지를 포함하는 사용자 정보를 전송함에 따라, 상기 서비스 제공 장치(1000)로부터의 응답으로 수신되는 화장 스타일 추천 서비스 정보에 기초한 화장 스타일 추천 인터페이스를 출력하여, 화장 스타일 추천 서비스 정보를 사용자에게 제공할 수 있다.Accordingly, as the user terminal 10 transmits user information including a user image to the service providing device 1000, the makeup style based on the makeup style recommendation service information received in response from the service providing device 1000 By outputting a recommendation interface, information on a makeup style recommendation service may be provided to a user.

특히, 사용자 단말(10)에서는 화장 스타일 추천 서비스 어플리케이션 등을 통해 상기 서비스 제공 장치(1000)로부터 상기 화장 스타일 정보 및 가상합성 결과 정보를 포함하는 추천 서비스 정보를 수신하여 인터페이스를 통해 출력할 수 있다.In particular, the user terminal 10 may receive recommended service information including the makeup style information and virtual synthesis result information from the service providing device 1000 through a makeup style recommendation service application, and the like, and output through the interface.

예를 들어, 사용자 단말(10)은 입력된 실제 사용자의 맨 얼굴 이미지에 인플루언서 등의 화장 스타일이 합성된 가상화장 이미지 중 뷰티 스코어가 높은 이미지들을 추천할 수 있으며, 이 중 사용자 선택된 이미지에 대응하는 화장 스타일 정보로서, 인플루언서 영상 정보, 화장품 추천 정보 또는 구매 링크 정보 중 적어도 하나를 출력할 수 있다.For example, the user terminal 10 may recommend images with a high beauty score among virtual field images in which a makeup style such as an influencer is combined with an input real user's bare face image. As corresponding makeup style information, at least one of influencer image information, cosmetic recommendation information, and purchase link information may be output.

이에 따라, 상술한 바와 같은 시스템에 따르면 추천 서비스를 통해 사용자가 편리하게 영상 인플루언서들의 화장 스타일들을 취사 선택할 수 있으며, 신규 수요를 창출할 수 있고 서비스 접근성과 편의성을 크게 향상시킬 수 있다.Accordingly, according to the above-described system, the user can conveniently select and select makeup styles of video influencers through the recommendation service, create new demand, and greatly improve service accessibility and convenience.

특히, 이러한 서비스 제공을 위하여, 서비스 제공 장치(1000)는 가상화장 합성 및 이미지 평가점수 결정에 있어서, 최종적으로 사용자 얼굴에 잘 어울리는 화장을 추천하기 위한 가상화장합성 신경망과 이미지평가신경망을 순환적용 처리할 수 있는 바, 이에 대하여는 보다 구체적으로 후술하도록 한다.In particular, in order to provide such a service, the service providing device 1000 cyclically applies a virtualization composition neural network and an image evaluation neural network to finally recommend makeup that suits the user's face in the synthesis of the virtual field and determining the image evaluation score. As can be done, this will be described in more detail later.

도 2는 도 1에 도시된 서비스 제공 장치를 보다 구체적으로 도시한 블록도이다.2 is a block diagram showing in more detail the service providing apparatus shown in FIG. 1.

도 2를 참조하면, 서비스 제공 장치(1000)는, 가상화장 합성부(100), 이미지 평가점수 생성부(200), 사용자 정보 관리부(300), 입력 정보 획득부(350), 수집 정보 처리부(500), 조건별 화장법 후보 추출부(700), 스타일 데이터베이스(600), 화장법 비교 처리부(400) 및 추천 서비스 제공부(900)를 포함한다.Referring to FIG. 2, the service providing apparatus 1000 includes a virtualization field synthesis unit 100, an image evaluation score generation unit 200, a user information management unit 300, an input information acquisition unit 350, and a collection information processing unit ( 500), a cosmetic method candidate extracting unit 700 for each condition, a style database 600, a cosmetic method comparison processing unit 400, and a recommendation service providing unit 900.

먼저, 수집 정보 처리부(500)는, 인터넷 영상 정보로부터 화장 스타일 데이터베이스(600) 구성을 위한 영상 정보를 수집한다.First, the collection information processing unit 500 collects image information for configuring the makeup style database 600 from Internet image information.

앞서 설명한 바와 같이, 영상 정보는 구독자수가 일정 수 이상인 뷰티 인플루언서들의 화장 영상 정보일 수 있으며, 이는 유투브, 페이스북, 텀블러, 트위치, 네이버, 카카오 등의 다양한 영상 업로드 사이트로부터 크롤링되어 추출되는 영상 정보를 포함할 수 있다.As described above, the video information may be makeup video information of beauty influencers with a certain number of subscribers or more, which is crawled and extracted from various video upload sites such as YouTube, Facebook, Tumblr, Twitch, Naver, and Kakao. It may include image information.

예를 들어, 영상 정보 수집을 위해, 수집 정보 처리부(500)는, 소스 인물 이미지(화장전후가 등장하는 인터넷 뷰티 동영상에서의 화장 후 영상)와 소스 인물 화장전 이미지를 각각 크롤링 캡처할 수 있으며, 화장 스타일 데이터베이스(600)는 캡쳐된 이미지들을 이용한 신경망 학습에 따라 구축될 수 있다.For example, in order to collect image information, the collection information processing unit 500 may crawl and capture a source person image (a post-makeup image in an internet beauty video showing before and after makeup) and a source person before and after makeup, respectively, The makeup style database 600 may be built according to neural network learning using captured images.

이에 따라, 화장 스타일 데이터베이스(600)는 수집된 영상 정보로부터의 소스 이미지 추출 및 매핑 처리를 수행하여 구축된 데이터베이스를 저장 및 관리할 수 있으며, 조건별 화장법 후보 추출부(700)의 요청에 따른 화장 스타일 및 소스 이미지를 제공할 수 있다.Accordingly, the makeup style database 600 can store and manage the database built by performing source image extraction and mapping processing from the collected image information, and makeup according to the request of the makeup candidate extraction unit 700 for each condition. You can provide style and source images.

한편, 사용자 정보 관리부(300)는, 사용자 단말(10)로부터 입력되는 입력 정보에 따라 등록 처리를 수행하고, 사용자의 사용 이력 정보, 유사 사용자의 사용 이력 정보 및 사용자 선호 정보 등을 매핑하여 저장 및 관리할 수 있다.On the other hand, the user information management unit 300 performs registration processing according to input information input from the user terminal 10, maps and stores the user's usage history information, similar user's usage history information, and user preference information, etc. Can be managed.

또한, 사용자 정보 관리부(300)는 얼굴 사진을 활용한 프로파일링(특징 분석), 뷰티스코어 평가 및 피드백을 통한 사용자 유형 분류, 유사 사용자 군집을 통한 프로파일링(협업필터링) 및 서비스 사용 패턴을 통한 프로파일링 등을 처리함으로써, 추천 서비스를 위한 데이터를 구축할 수 있다.In addition, the user information management unit 300 includes profiling using face photos (characteristic analysis), classification of user types through beauty score evaluation and feedback, profiling through similar user clusters (collaborative filtering), and profile through service usage patterns. By processing a ring or the like, data for a recommended service can be constructed.

그리고, 입력 정보 획득부(350)는 사용자 정보 관리부(300)에서 관리되는 사용자 정보와, 사용자 단말(10)로부터 입력된 사용자 입력 정보에 따라, 추천할 화장법 후보를 선별하기 위한 입력 정보를 획득할 수 있다.In addition, the input information acquisition unit 350 may obtain input information for selecting a cosmetic method candidate to be recommended according to the user information managed by the user information management unit 300 and the user input information input from the user terminal 10. I can.

예를 들어, 사용자 단말(10)은 사용자의 맨 얼굴 이미지와 명시적 조건 정보(기간 한정, 화장법 인기도, 상황 지정 등)와 키워드 정보(검색, 필터링, 추천) 을 포함하는 사용자 입력 정보를 서비스 제공 장치(1000)로 전송할 수 있으며, 서비스 제공 장치(1000)는 수신된 사용자 입력 정보와 사용자 정보 관리부(300)의 관리 정보에 기초한 입력 정보를 결정하고, 결정된 입력 정보는 조건별 화장법 후보 추출부(700) 및 가상화장 합성부(100)로 전달될 수 있다.For example, the user terminal 10 provides a service with user input information including a user's bare face image, explicit condition information (limited time period, cosmetic method popularity, situation designation, etc.) and keyword information (search, filtering, recommendation). It can be transmitted to the device 1000, and the service providing device 1000 determines input information based on the received user input information and the management information of the user information management unit 300, and the determined input information is a cosmetic method candidate extracting unit for each condition ( 700) and the virtualization field synthesis unit 100.

그리고, 가상화장 합성부(100)는 조건별 화장법 후보로부터 결정된 화장 스타일 및 소스 이미지에 기초하여, 사용자 얼굴 이미지에 대한 하나 또는 그 이상의 가상합성 처리를 수행할 수 있다.Further, the virtualization field synthesis unit 100 may perform one or more virtual synthesis processing on the user's face image based on the makeup style and the source image determined from the makeup method candidates for each condition.

이를 위해, 가상화장 합성부(100)는 인공 신경망 학습 처리를 통해, 화장 스타일별 소스 이미지와 사용자 이미지간의 이미지 합성 처리를 수행할 수 있으며, 이를 위해, 소스 인물 이미지에서 화장 스타일 적용 부분을 추출하여 타겟 인물 이미지에 적용하는 프로세스를 수행할 수 있다.To this end, the virtualization field synthesis unit 100 may perform image synthesis processing between the source image for each makeup style and the user image through artificial neural network learning processing. To this end, the makeup style application part is extracted from the source person image. You can perform the process of applying to the target person image.

특히, 이러한 신경망 구축을 위해 최근 대두되는 쌍 순환 경쟁적 생성 네트워크 방식(PairedCycleGAN)의 비지도 학습 방식이 이용될 수 있다.In particular, the unsupervised learning method of the paired cycle competitive generation network method (PairedCycleGAN), which has recently emerged, may be used to construct such a neural network.

특히, GAN(Generative Adversarial Network) 방식은 딥러닝을 이용하여, 이미지를 생성하는 네트워크로서 서로 다른 두 개의 깊은 신경망 D(Discriminator)와 G(Generator)를 학습시켜, 좋은 성능의 감별사 네트워크와 그것을 속이는 생성자 네트워크를 경쟁시킴으로써, 학습 효과를 극대화할 수 있게 하는 방식을 의미할 수 있다.In particular, the GAN (Generative Adversarial Network) method is a network that generates images using deep learning. By learning two different deep neural networks D (Discriminator) and G (Generator), a good-performing discriminator network and a generator to deceive it. It can mean a way to maximize the learning effect by competing the network.

또한, Paired CycleGAN(H. Chang, et al.)은 이를 가상 화장 합성에 적용하여 Makeup Transfer 또는 Style Transfer 를 처리하게 하는 방식으로 제안된 것으로서, 가상 메이크업(가상 화장 합성) 네트워크와 화장을 지우는 네트워크의 쌍을 경쟁적으로 학습시켜, 그 성능을 서로 보완하게 함으로써 자연스러운 가상 화장 합성 효과를 얻을 수 있다.In addition, Paired CycleGAN (H. Chang, et al.) has been proposed as a method to process Makeup Transfer or Style Transfer by applying this to virtual makeup synthesis, and is a method of processing a virtual makeup (virtual makeup synthesis) network and a network that erases makeup. It is possible to obtain a natural virtual makeup synthesis effect by competingly learning pairs and complimenting their performance.

그리고, 가상화장 합성부(100)는 보다 자연스러운 합성을 위하여, 상기 PairedCycleGAN 방식 적용시 얼굴을 영역별로 부분 분할하는 개별 학습 프로세스를 수행할 수 있다.In addition, for a more natural synthesis, the virtualization field synthesis unit 100 may perform an individual learning process in which a face is partially divided for each region when the PairedCycleGAN method is applied.

이후, 이미지 평가점수 생성부(200)는, 가상합성된 하나 또는 복수개의 합성 이미지들에 대한 이미지 평가 점수를 생성할 수 있으며, 이를 위해, 평가하고자 종류의 이미지와 평가하고자 하는 특성에 대한 점수 쌍(이미지, 점수)을 신경망에 학습시킨 신경망으로 구축된 학습 모델을 이용할 수 있다.Thereafter, the image evaluation score generation unit 200 may generate an image evaluation score for one or a plurality of virtually synthesized composite images, and for this purpose, a pair of scores for a type of image to be evaluated and a feature to be evaluated A learning model built with a neural network that trains (images, scores) on a neural network can be used.

보다 구체적으로, 이미지 평가점수 생성부(200)는, 이미지 평가 점수를 측정하기 위해, 신경망 학습 모델을 구축할 수 있는 바, 얼굴 이미지와 뷰티 스코어의 쌍을 사용하여 신경망 네트워크 학습 모델을 생성할 수 있으며, 생성된 모델을 이용하여, 새로운 얼굴 이미지 입력에 대응하는 이미지 평가 점수를 출력할 수 있다.More specifically, the image evaluation score generation unit 200 may build a neural network training model to measure the image evaluation score, and may generate a neural network network training model using a pair of a face image and a beauty score. And, using the generated model, an image evaluation score corresponding to a new face image input may be output.

특히, 기존 기술과 같이 사람이 평가한 점수들의 평균값 등으로 단순 학습하는 경우, 사람마다의 성향 차이로 인해, 같은 이미지에서도 다른 점수들이 평가되어 발생되는 부정확성을 극복할 수 없다. 따라서, 본 발명의 실시 예에 따른 이미지 평가점수 생성부(200)는 단순 평균 연산이 아닌 점수 분포(Score Distribution Vector)값을 이미지와 쌍으로 매칭하여 학습 모델을 생성할 수 있으며, 이는 여러 사람의 전반적 성향에 의한 점수 특징(Score Feature)을 학습할 수 있게 되므로, 더욱 정확한 이미지 평가 점수를 예측할 수 있게 된다.In particular, in the case of simple learning based on the average value of scores evaluated by a person like the existing technology, it is impossible to overcome the inaccuracies caused by the evaluation of different scores in the same image due to differences in propensity for each person. Therefore, the image evaluation score generation unit 200 according to an embodiment of the present invention may generate a learning model by matching a score distribution vector value, not a simple average operation, with an image. Since it is possible to learn the score feature based on the overall tendency, it is possible to predict more accurate image evaluation scores.

예를 들어, 본 발명의 실시 예에 따른 이미지 평가점수 생성부(200)는 이미지평가점수 생성 신경망을 구축함에 있어서, (이미지, 점수 분포) 쌍을 학습시킴으로써 학습 효과를 향상시킬 수 있는 바, 이는 기존의 기존 (이미지, 점수 평균) 쌍을 학습시키는 것에 비하여, 보다 정확한 이미지 평가 점수를 결정할 수 있게 하는 것이다.For example, the image evaluation score generation unit 200 according to an embodiment of the present invention can improve the learning effect by learning the (image, score distribution) pair in building the image evaluation score generation neural network. Compared to the existing (image, score average) pair training, it is possible to determine more accurate image evaluation scores.

여기서, 이미지 평가 점수는 뷰티스코어(정량적 뷰티 평가)에 따라 결정될 수 있으며, 이미지 평가를 위해, 얼굴 랜드마크를 통한 학습/평가, 얼굴 자동 군집 분류 및 유사도 측정 평가, 얼굴각도 측정 및 필터링 평가, 개별 특성(피부톤/비례 등) 학습/개별 특성별 평가 및 평가자 자동 군집 분류 및 유사도 측정 평가 중 적어도 하나에 처리가 수행될 수 있다.Here, the image evaluation score can be determined according to the beauty score (quantitative beauty evaluation), and for image evaluation, learning/evaluation through facial landmarks, automatic face cluster classification and similarity measurement evaluation, face angle measurement and filtering evaluation, individual Treatment may be performed on at least one of learning characteristics (skin tone/proportion, etc.), evaluation by individual characteristics, automatic cluster classification of evaluators, and similarity measurement evaluation.

보다 구체적으로, 정확하고 일정한 뷰티스코어를 측정하기 위해서는 얼굴의 정확한 정면 이미지를 사용하여야 하나, 이미지 평가점수 생성부(200)는 사용자의 사진 이미지로부터 얼굴각도 측정 및 필터링을 수행하여, 일정 각도 벗어나더라도 얼굴의 특징 값을 추출하고 이에 기반한 뷰티스코어를 결정할 수 있다.More specifically, in order to measure an accurate and constant beauty score, an accurate front image of the face must be used, but the image evaluation score generator 200 measures and filters the face angle from the user's photographic image, Facial feature values can be extracted and a beauty score based on them can be determined.

예를 들어, 이미지 평가점수 생성부(200)는 사용자의 입력 이미지에 대응하는 뷰티스코어를 측정하기 전에, 미리 구축된 얼굴 각도 측정 신경망 모델을 이용하여, 얼굴이 바라보는 각도를 예측할 수 있으며, 예측된 각도가 정면에서 일정 각도 이상 벗어난 경우에만 필터링 처리함에 따라, 뷰티스코어가 결정 가능한 정면 이미지들을 추출할 수 있다.For example, before measuring the beauty score corresponding to the user's input image, the image evaluation score generation unit 200 may predict the angle at which the face is viewed using a pre-built neural network model for measuring the angle of the face. By filtering only when the set angle deviates from the front by a certain angle or more, front images that can be determined by a beauty score can be extracted.

이를 위해, 이미지 평가점수 생성부(200)는 얼굴의 3차원 X, Y, Z 각도에 대응하는 CNN(Convolutional Neural Network)과 MLP(Multi Layer Perceptron)로 구성되는 인공지능 신경망 모델을 구축하고, 이를 이용한 얼굴 각도의 필터링 처리를 수행할 수 있다.To this end, the image evaluation score generator 200 constructs an artificial intelligence neural network model composed of a convolutional neural network (CNN) and a multi-layer perceptron (MLP) corresponding to the three-dimensional X, Y, and Z angles of the face, and Filtering processing of the used face angle can be performed.

또한, 이미지 평가점수 생성부(200)는 이미지 평가를 위한 인공지능 신경망 모델 구축에 있어서, 다양한 얼굴의 개별 특징 요소들을 별도 분류하여 학습하게 할 수 있다.In addition, the image evaluation score generation unit 200 may separately classify and learn individual feature elements of various faces in building an artificial intelligence neural network model for image evaluation.

개별 특징 요소들은 예를 들어, 얼굴의 특정 요소에 대응하는 비율 정보, 길이 정보, 각도 정보 또는 위치 정보 중 적어도 하나일 수 있으며, 이는 얼굴 이미지와 함께 학습 처리됨으로써, 뷰티 스코어 평가에 반영되도록 할 수 있다.Individual feature elements may be, for example, at least one of ratio information, length information, angle information, or location information corresponding to a specific element of the face, which is learned and processed together with the face image, so that it can be reflected in the beauty score evaluation. have.

특히, 사람과 달리 단순 얼굴 이미지로만 학습된 인공지능 네트워크는 얼굴 요소의 비율 특징(턱선의 각도, 이마의 길이, 눈과 미간의 비율 등)에 대한 고려는 하지 못하는 경향이 있는데, 본 발명의 실시 예에 따른 이미지 평가점수 생성부(200)는 이러한 문제점을 해결함으로써 사람이 판별하는 다양한 미의 기준을 학습시키고, 이에 따른 정확한 뷰티스코어를 산출할 수 있다.In particular, unlike humans, artificial intelligence networks that have been trained only with simple face images tend not to consider the ratio features of facial elements (the angle of the chin line, the length of the forehead, the ratio between the eyes and the brow, etc.). The image evaluation score generation unit 200 according to an example may learn various standards of beauty that a person determines by solving such a problem, and calculate an accurate beauty score accordingly.

그리고, 화장법 비교 처리부(400)는, 사용자 프로파일링 정보 및 이미지 평가 점수에 따른 화장법 별 순위 비교를 처리할 수 있다.In addition, the makeup method comparison processing unit 400 may process ranking comparison for each cosmetic method according to user profiling information and image evaluation scores.

그리고, 추천 서비스 제공부(900)는 비교 처리 결과에 기초한 추천 서비스를 제공할 수 있는 바, 이는 순위 비교에 따라 결정된 일정 개수의 화장 스타일 정보를 포함할 수 있다.In addition, the recommendation service providing unit 900 may provide a recommendation service based on the comparison processing result, which may include a certain number of makeup style information determined according to the ranking comparison.

또한, 추천 서비스 제공부(900)는 얼굴 이미지 분석 기반 추천, 유형/컬러/피부에 따른 Rule-based 추천, 피부에 따른 Rule-based 추천 서비스를 제공할 수 있으며, 사용자 프로파일링 기반 사용자 유형별 예측 추천 서비스와, 뷰티스코어 기반 뷰티스코어를 극대화하는 추천 서비스 등 다양한 부가 서비스를 제공할 수 있다.In addition, the recommendation service provider 900 may provide facial image analysis-based recommendation, rule-based recommendation according to type/color/skin, and rule-based recommendation service according to skin, and predictive recommendation by user type based on user profiling. It can provide various additional services such as services and recommendation services that maximize beauty scores based on beauty scores.

또한, 추천 서비스 제공부(900)는 추천 서비스에 의해 연계되는 인플루언서 영상 정보와, 화장품 추천 및 구매 연동 프로세스를 제공할 수 있는 바, 이에 대하여는 보다 구체적으로 후술하도록 한다.In addition, the recommendation service providing unit 900 may provide influencer image information linked by the recommendation service and a process for recommending and purchasing cosmetics, which will be described in more detail later.

한편, 추천 서비스 제공부(900)는 사용자 정보 관리부(300)에서 수집되는 사용자 이미지에 대한 얼굴 분석 서비스를 제공할 수 있으며, 얼굴 분석 서비스는 예를 들어, 얼굴 정보 제공 서비스, 인물 간 유사도 정보 제공 서비스 및 유사 인플루언서 매칭 서비스를 포함할 수 있다. 그리고, 추천 서비스 제공부(900)는 이를 위해, 얼굴 분석을 위한 인공지능 학습 모델을 구축할 수 있다.On the other hand, the recommendation service providing unit 900 may provide a face analysis service for the user image collected by the user information management unit 300, and the face analysis service provides, for example, a face information providing service, and person-to-person similarity information. Service and similar influencer matching service may be included. In addition, the recommendation service providing unit 900 may build an artificial intelligence learning model for face analysis for this purpose.

먼저 얼굴 정보 제공 서비스를 위해, 추천 서비스 제공부(900)는 사용자 이미지로부터 얼굴의 1차적 정보를 컴퓨터 비전 기술을 이용하여 추출하여 이용할 수 있으며, 추출된 정보는 상기 학습 모델의 추가적인 학습대상으로 이용될 수 있다. 예를 들어, 추천 서비스 제공부(900)는 얼굴의 피부 색을 카테고리화 처리할 수 있으며, 처리된 정보는 사용자 단말(10)로 제공될 수 있다.First, for the face information provision service, the recommendation service provider 900 may extract and use the primary information of the face from the user image using computer vision technology, and the extracted information is used as an additional learning target of the learning model. Can be. For example, the recommendation service providing unit 900 may categorize and process the skin color of the face, and the processed information may be provided to the user terminal 10.

또한, 추천 서비스 제공부(900)는 유사도 정보 제공 서비스를 위해, 얼굴 유사도 측정 네트워크 기반의 인물 간 얼굴 유사도 분석 처리를 수행할 수 있다.In addition, the recommendation service providing unit 900 may perform a face similarity analysis process between people based on a face similarity measurement network for a similarity information providing service.

예를 들어, 추천 서비스 제공부(900)는 triplet loss 함수 기반 얼굴 이미지 학습 프로세스를 수행하여 선택된 인물과 사용자 이미지간의 얼굴 유사도를 측정하는 서비스를 제공할 수 있다.For example, the recommendation service provider 900 may provide a service for measuring a face similarity between a selected person and a user image by performing a face image learning process based on a triplet loss function.

그리고, 추천 서비스 제공부(900)는 이와 같은 얼굴 유사도 측정값에 기초하여 사용자와 비슷한 얼굴의 인물 등을 색인할 수 있는 바, 유사한 특정 인플루언서를 색인하여, 그 인플루언서의 메이크업을 사용자에게 어울리는 메이크업으로서 자동 추천하는 서비스를 제공할 수도 있다.Further, the recommendation service providing unit 900 can index a person with a similar face to the user based on such a face similarity measurement value, and indexes a specific influencer similar to the user, so that the influencer's makeup It is possible to provide a service that automatically recommends it as a makeup suitable for a person.

예를 들어, 추천 서비스 제공부(900)는 유사 스타/인플루언서 매칭 서비스를 제공할 수 있으며, 이는 전술한 인물 간의 얼굴 유사도를 측정하는 네트워크를 이용하여 사용자와의 유사도가 일정 값 이상인 스타 또는 인플루언서를 색인하여 제공하는 서비스를 포함할 수 있다.For example, the recommendation service provider 900 may provide a similar star/influencer matching service, which is a star whose similarity to a user is equal to or greater than a predetermined value using the network that measures the facial similarity between the above-described people or It may include services provided by indexing influencers.

이에 따라, 추천 서비스 제공부(900)는 사용자에게 가장 잘 어울리는 메이크업 무엇인지를 가장 닮은 스타 및 인플루언서의 화장법을 통해 알려주는 서비스를 사용자 단말(10)로 제공할 수 있게 된다.Accordingly, the recommendation service providing unit 900 can provide the user terminal 10 with a service that informs the user what makeup is best suited to the user through the makeup method of stars and influencers that resemble the most.

또한, 추천 서비스 제공부(900)는 사용자 정보 관리부(300)의 사용자 프로파일링 정보에 기초하여, 세분화된 화장 스타일 관련 정보를 제공할 수 있다.In addition, the recommendation service providing unit 900 may provide detailed makeup style related information based on the user profiling information of the user information management unit 300.

예를 들어, 추천 서비스 제공부(900)는 사용자를 평가자 분류 처리하여, 평가자 분류에 대응하는 유사도에 따른 화장 스타일 관련 정보를 제공할 수 있다.For example, the recommendation service provider 900 may classify a user as an evaluator and provide information related to a makeup style according to a degree of similarity corresponding to the evaluator classification.

이를 위해, 추천 서비스 제공부(900)는 평가자와 선호 모델과의 관계를 CBOW(Continuous Bag of Word) 또는 Skip-Gram과 같은 학습 알고리즘을 이용하여 다차원 공간의 벡터로 임베딩(embedding)하여 평가자의 분류(Clustering) 처리와 함께, 평가자의 선호 모델 정보를 함께 학습시킬 수 있다. 이에 따사, 추천 서비스 제공부(900)는 사용자 정보에 기초한 평가자 분류 처리를 수행하여, 분류된 평가자의 성향에 맞는 화장 스타일, 인플루언서 정보 또는 화장품 정보 등을 추천하는 평가자 성향 추천 정보를 사용자 단말(10)로 제공할 수 있다.To this end, the recommendation service provider 900 classifies the evaluator by embedding the relationship between the evaluator and the preference model into a vector of a multidimensional space using a learning algorithm such as CBOW (Continuous Bag of Word) or Skip-Gram. With the (Clustering) process, it is possible to learn the evaluator's preference model information together. Accordingly, the recommendation service providing unit 900 performs evaluator classification processing based on user information, and provides evaluator propensity recommendation information for recommending makeup style, influencer information, cosmetics information, etc. in accordance with the classified evaluator's propensity. (10) can be provided.

또한, 추천 서비스 제공부(900)는 앞서 수행한 얼굴 분석 정보에 기초하여, 사용자의 퍼스널 컬러 정보를 결정할 수 있으며, 퍼스널 컬러 정보에 따른 적절한 색조 화장품을 추천하기 위한 색조 화장품 정보를 사용자 단말(10)로 제공할 수도 있다.In addition, the recommendation service providing unit 900 may determine personal color information of the user based on the previously performed facial analysis information, and provide color cosmetics information for recommending appropriate color cosmetics according to the personal color information to the user terminal 10. ) Can also be provided.

예를 들어, 추천 서비스 제공부(900)는 사용자의 피부 톤에 맞는 색조 화장품을 추천해주는 추천 서비스를 제공할 수 있다. 이를 위해, 추천 서비스 제공부(900)는 피부 톤 정보를 카테고리화하고, 카테고리화된 피부 톤 정보와 매칭되는 색조 화장품들을 연결한 피부톤 데이터베이스를 학습 프로세스에 의해 구성할 수 있다. 학습 프로세스로는 다층 퍼셉트론(Multy Layer Perceptorn) 기반 딥러닝 알고리즘 처리가 예시될 수 있으며, 이를 이용하여 피부 톤과 이에 색조화장품간 매칭 처리를 수행할 수 있다.For example, the recommendation service providing unit 900 may provide a recommendation service for recommending color cosmetics suitable for a user's skin tone. To this end, the recommendation service providing unit 900 may categorize skin tone information and configure a skin tone database in which color cosmetics matching the categorized skin tone information are connected through a learning process. As a learning process, deep learning algorithm processing based on a multilayer perceptron may be exemplified, and matching processing between skin tone and color cosmetics may be performed using this.

한편, 추천 서비스 제공부(900)는 이미지와 화장품을 매칭하기 위한 매칭 데이터베이스를 딥 러닝 방식으로 구축하고, 기초하여 입력된 사진이 사용한 화장품 정보를 식별하여 출력하는 화장품 추천 서비스를 제공할 수도 있다. 예를 들어, 추천 서비스 제공부(900)는 사진 이미지로부터 추출되는 화장품의 톤과 실제 화장품 톤을 매칭하는 딥 러닝 학습 프로세스를 수행하여, 사용자로부터 입력된 사진에 대응하는 화장품 정보를 식별하여 사용자 단말(10)로 제공하는 추천 서비스를 제공할 수도 있다.Meanwhile, the recommendation service providing unit 900 may provide a cosmetic recommendation service that establishes a matching database for matching images and cosmetics in a deep learning method, and identifies and outputs cosmetic information used by the input photo based on the image and cosmetics. For example, the recommendation service providing unit 900 performs a deep learning learning process that matches the tone of cosmetics extracted from the photographic image and the actual tone of cosmetics, and identifies the cosmetic information corresponding to the picture input from the user to the user terminal. The recommended service provided by (10) can also be provided.

그리고, 추천 서비스 제공부(900)는 전술한 이미지 평가 접수(뷰티 스코어)를 기초로 하는 화장품 정보 추쳔 서비스를 제공할 수 있는 바, 예를 들어 추천 서비스 제공부(900)는 특정 색조 화장품의 색을 사용자 이미지에 입혀봤을 경우와 그렇지 않았을 때의 차이를 뷰티스코어를 기반으로 산출하여, 가장 높은 차이를 가져오는 일정 개수의 맞춤형 화장 스타일과 화장품을 식별하고, 식별된 화장 스타일 정보 및 화장품 정보를 사용자 단말(10)로 제공할 수 있다.In addition, the recommendation service provider 900 may provide a cosmetic information selection service based on the above-described image evaluation reception (beauty score). For example, the recommendation service provider 900 may provide a color of a specific color cosmetic product. By calculating the difference between when the user image is applied and when it is not, based on the beauty score, a certain number of customized makeup styles and cosmetics that have the highest difference are identified, and the identified makeup style information and cosmetics information are user It can be provided to the terminal 10.

도 3은 도 1에 도시된 서비스 제공 장치에 의한 서비스 제공 방법을 설명하기 위한 흐름도이다.FIG. 3 is a flowchart illustrating a service providing method by the service providing apparatus shown in FIG. 1.

도 3을 참조하면, 서비스 제공 장치(1000)는 먼저 인터넷 영상 정보로부터 소스 이미지를 추출 수집하고(S1001), 수집된 이미지와, 상기 이미지로부터 인공 신경망 기반으로 추출되는 화장법 정보를 매핑 처리하여 데이터베이스(600)를 구축한다(S1003).Referring to FIG. 3, the service providing apparatus 1000 first extracts and collects a source image from Internet image information (S1001), maps the collected image and cosmetic method information extracted from the image based on an artificial neural network, and processes a database ( 600) is built (S1003).

이를 위해, 서비스 제공 장치(1000)는 수집 정보 처리부(500)를 통해 인터넷상의 다양한 뷰티 동영상으로부터 화장 전과 화장 후 사진 이미지들을 크롤링 캡쳐 처리하며, 처리된 이미지에 화장 스타일(또는 화장법) 정보를 매핑 처리하기 위한 인공 신경망 학습 프로세스를 수행하여, 스타일 데이터베이스(600)를 구축할 수 있다.To this end, the service providing device 1000 crawls and captures photo images before and after makeup from various beauty videos on the Internet through the collection information processing unit 500, and maps makeup style (or makeup) information to the processed images. The style database 600 may be built by performing the artificial neural network learning process for the purpose.

예를 들어, 서비스 제공 장치(1000)는 수집된 영상 정보로부터 추출된 소스 이미지에 기초한 화장 스타일을 결정할 수 있는 바, 이를 위해 미리 학습된 화장 스타일 신경망에 기초한 이미지 분석 기술을 이용할 수 있다. 그리고, 서비스 제공 장치(1000)는 결정된 화장 스타일에 대응하는 이미지 정보를 저장 등록하여, 화장 스타일 데이터베이스를 구축할 수 있다.For example, the service providing apparatus 1000 may determine a makeup style based on a source image extracted from the collected image information, and for this purpose, an image analysis technology based on a previously learned makeup style neural network may be used. In addition, the service providing apparatus 1000 may store and register image information corresponding to the determined makeup style to build a makeup style database.

그리고, 서비스 제공 장치(1000)는 사용자 단말(10)로부터 수신되는 사용자 정보를 사용자 정보 관리부(300)를 통해 등록할 수 있으며, 사용자 단말(10)로부터의 요청에 따른 입력 정보를 획득할 수 있다(S1005).In addition, the service providing apparatus 1000 may register user information received from the user terminal 10 through the user information management unit 300, and obtain input information according to a request from the user terminal 10. (S1005).

이후, 서비스 제공 장치(1000)는 사용자 정보에 기초하여, 데이터베이스로부터 추출된 조건별 화장법 정보에 대응하는 가상화장 이미지 합성 처리를 수행할 수 있으며(S1007), 이미지 인식 학습 신경망을 이용하여 가상화장 이미지별 평가 점수를 결정할 수 있다(S1009).Thereafter, the service providing device 1000 may perform the virtual field image synthesis processing corresponding to the cosmetic method information for each condition extracted from the database based on the user information (S1007), and the virtual field image using an image recognition learning neural network. Star evaluation score may be determined (S1009).

이를 위해, 서비스 제공 장치(1000)는 이미지 평가점수 생성부(200)를 통해 평가를 위한 이미지 평가 모델 학습 처리를 수행할 수 있으며, 이미지 평가 모델 학습에는 컨볼루션 뉴럴 네트워크(CNN) 방식이 이용되는 것이 바람직하다.To this end, the service providing device 1000 may perform an image evaluation model training process for evaluation through the image evaluation score generator 200, and a convolutional neural network (CNN) method is used for image evaluation model training. It is desirable.

또한, 평가를 위한 가상화장 모델 이미지 합성을 위하여, 가상화장 합성부(100)는 전술한 쌍 순환 경쟁 생성 네트워크(Paired CycleGAN) 방식에 기초한 가상화장 합성 학습 모델을 생성할 수 있다.In addition, in order to synthesize a virtual field model image for evaluation, the virtual field synthesis unit 100 may generate a virtual field synthesis learning model based on the above-described paired cycle competition generation network (Paired CycleGAN) method.

그리고, 서비스 제공 장치(1000)는 이와 같이 구축된 모델들을 이용하여, 먼저 조건별 화장법 후보 추출부(700)를 통해 스타일 데이터베이스(600)로부터 미리 설정된 특정 개수(N)의 사용자 조건별 화장법 후보 리스트를 추출할 수 있다.In addition, the service providing apparatus 1000 uses the models constructed as described above, and first, a makeup method candidate list for each user condition of a predetermined number (N) from the style database 600 through the conditional makeup candidate extraction unit 700. Can be extracted.

가상화장 합성부(100)는 추출된 화장법 후보 리스트별 화장 스타일 이미지와 사용자의 이미지를 가상화장 합성 처리한 N개의 후보 이미지들을 생성하여, 이미지 평가점수 생성부(200)로 전달할 수 있다.The virtualization field synthesizing unit 100 may generate N candidate images obtained by synthesizing the extracted makeup style image for each makeup method candidate list and the user's image and transmitted to the image evaluation score generator 200.

이에 따라, 이미지 평가점수 생성부(200)에서는 각 N개의 후보 이미지들에 대응하는 이미지 평가점수를 전술한 이미지 평가 모델을 이용하여 결정할 수 있다.Accordingly, the image evaluation score generator 200 may determine an image evaluation score corresponding to each of the N candidate images using the image evaluation model described above.

이후, 서비스 제공 장치(1000)는 화장법 비교 처리부(400)를 통해, 상기 평가 점수에 기초한 화장법 비교 처리를 수행할 수 있으며(S1011), 추천 서비스 제공부(900)를 통해, 비교 결과에 따른 추천 서비스를 사용자 단말(10)로 제공할 수 있다.Thereafter, the service providing device 1000 may perform a cosmetic method comparison process based on the evaluation score through the cosmetic method comparison processing unit 400 (S1011), and through the recommendation service providing unit 900, the recommendation according to the comparison result The service can be provided to the user terminal 10.

도 4는 도 1에 도시된 사용자 단말에서의 사용자 인터페이스의 순차적 변화를 설명하기 위한 도면이다.4 is a diagram for explaining sequential changes of a user interface in the user terminal shown in FIG. 1.

도 4를 참조하면, 추천 서비스 제공부(900)는 사용자 단말(10)로 화장 스타일 추천 인터페이스를 제공할 수 있는 바, 이는 사용자 단말(10)에 설치된 어플리케이션 등을 통해 출력되는 그래픽 유저 인터페이스의 형태로 제공될 수 있다.Referring to FIG. 4, the recommendation service provider 900 may provide a makeup style recommendation interface to the user terminal 10, which is a form of a graphic user interface that is output through an application installed in the user terminal 10, or the like. Can be provided as

먼저, 도 4(A)는 화장법 추천을 위한 이미지 분석 정보 인터페이스를 도시한 것으로, 추천 서비스 제공부(900)는 사용자 단말(10)을 통해, 이미지 분석 정보 인터페이스를 통해 사용자의 얼굴 이미지를 촬영 입력하게 할 수 있으며, 입력된 얼굴 이미지에 대응하는 분석 정보와, 이미지 평가 점수 정보를 제공할 수 있고, 사용자로부터 평가 점수를 입력받아 학습 데이터 구축에 반영시킬 수 있다.First, FIG. 4(A) shows an image analysis information interface for recommending makeup, and the recommendation service providing unit 900 captures and inputs a user's face image through the image analysis information interface through the user terminal 10 Analysis information corresponding to the input face image and image evaluation score information may be provided, and evaluation scores may be received from the user and reflected in the construction of learning data.

그리고, 도 4(B)는 가상화장 인터페이스를 도시한 것으로, 추천 서비스 제공부(900)는 사용자 단말(10)을 통해, 가상화장 이미지 합성부(100)에서 처리된 가상화장 이미지 중 이미지 평가점수 생성부(200)에서의 평가 점수가 높은 일정 개수의 가상화장 합성 이미지들 및 화장 스타일 정보를 출력하게 할 수 있다.And, Figure 4 (B) shows a virtual field interface, the recommended service providing unit 900 through the user terminal 10, the image evaluation score among the virtual field images processed by the virtual field image synthesizing unit 100 The generation unit 200 may output a predetermined number of composite images of the virtualization site and makeup style information having a high evaluation score.

여기서, 사용자는 가상화장 합성 이미지들을 참조하여, 추천 메이크업 스타일을 선택할 수 있으며, 도 4(C)에 도시된 바와 같이 선택된 메이크업 스타일에 대응하는 인플루언서 영상 정보가 사용자 선택에 따라 제공될 수 있다. 이를 위해, 추천 서비스 제공부(900)는 인플루언서 영상 정보에 대응하는 영상 링크 정보를 스타일 데이터베이스(600)로부터 획득하여 사용자 단말(10)로 제공할 수 있다.Here, the user may select a recommended makeup style by referring to the composite images of the virtual field, and influencer image information corresponding to the selected makeup style may be provided according to the user's selection as shown in FIG. 4C. . To this end, the recommendation service providing unit 900 may obtain image link information corresponding to the influencer image information from the style database 600 and provide the information to the user terminal 10.

예를 들어, 도 4(C)에 도시된 바와 같이, 사용자가 선택한 스타일에 대응하는 인플루언서의 화장법 영상 정보가 사용자 단말(10)을 통해 출력될 수 있다.For example, as shown in FIG. 4(C), image information of an influencer's makeup method corresponding to a style selected by the user may be output through the user terminal 10.

한편, 도 4(D) 및 도 4(E)는 화장품 추천 및 구매 연동 기능 인터페이스를 도시한 것으로, 본 발명의 실시 예에 따른 추천 서비스 제공부(900)는 사용자 프로파일링 정보 및 얼굴 이미지 분석에 따른 화장품 정보를 추천할 수 있으며, 또한 전술한 인플루언서 영상에서 이용된 화장품 정보가 추천될 수도 있다.Meanwhile, FIGS. 4(D) and 4(E) illustrate a cosmetic recommendation and purchase linking function interface, and the recommendation service providing unit 900 according to an embodiment of the present invention provides user profiling information and face image analysis. According to the cosmetic information may be recommended, and also cosmetic information used in the above-described influencer image may be recommended.

특히, 추천 서비스 제공부(900)는 화장법 전체의 구성과 얼굴 각부분별 화장 상태(피부, 색)을 고려하여 전체 화장법에서 부분화장에 유사한 효과를 내는 부분별 화장품 후보를 추천하고, 이를 판매하는 쇼핑몰에 연동시킬 수 있다.In particular, the recommendation service providing unit 900 recommends cosmetic candidates for each part that have a similar effect to partial makeup in the overall makeup method in consideration of the composition of the entire makeup method and the makeup state (skin, color) for each part of the face, and sells the cosmetic product Can be linked to.

또한, 추천 서비스 제공부(900)는 영상 내에 명시적으로 화장품에 대응하는 키워드 정보 또는 화장품 포장/용기가 노출되었을 경우, 키워드 또는 화장품 포장/용기를 이미지 인식하여, 우선적으로 추천하는 프로세스를 제공할 수도 있다.In addition, when the keyword information corresponding to the cosmetic product or cosmetic packaging/container is explicitly exposed in the image, the recommendation service providing unit 900 recognizes the keyword or cosmetic packaging/container image and provides a process for preferentially recommending it. May be.

그리고, 추천 서비스 제공부(900)는 사용자가 선택한 제품에 대응하는 구매 서비스를 제공하거나, 제품 판매자 사이트와의 구매 연동 기능을 제공함으로써, 사용자가 바로 자신의 화장 스타일에 맞는 제품들을 확인하고 구매할 수 있도록 처리할 수 있다. 이를 위해, 추천 서비스 제공부(900)는 별도의 구매 모듈 및 결제 모듈을 구비하거나, 쇼핑 사이트 연동 모듈을 더 구비할 수도 있다.In addition, the recommendation service provider 900 provides a purchase service corresponding to the product selected by the user or provides a purchase linkage function with a product seller site, so that the user can immediately check and purchase products suitable for their makeup style. So you can handle it. To this end, the recommendation service providing unit 900 may include a separate purchase module and a payment module, or may further include a shopping site linkage module.

도 5는 도 2에 도시된 가상화장 합성부의 내부 구성도로서, 본 발명의 실시예에 따른 가상화장 합성 처리 장치의 구성도이다.5 is an internal configuration diagram of a virtualization field synthesis unit shown in FIG. 2 and is a configuration diagram of a virtualization field synthesis processing apparatus according to an embodiment of the present invention.

가상화장 합성부(100)는, Virtualization field synthesis unit 100,

사용자 얼굴 이미지를 세부 영역을 추출하고, 스타일 데이터 베이스(600)에 저장된 화장 이미지 A makeup image stored in the style database 600 after extracting the detailed area of the user's face image

얼굴 감지부(110), 얼굴 영역 추출부(112), 얼굴 특징점 추출부(114), 세부 영역 추출부(116), 세부 영역별 화장부(118), 및 합성부(120)를 포함한다. 가상화장 합성부(100)는 본 발명의 실시예에 따른 가상화장 합성 처리 장치가 될 수 있다.A face detection unit 110, a face region extraction unit 112, a face feature point extraction unit 114, a detailed region extraction unit 116, a makeup unit 118 for each detailed region, and a synthesis unit 120 are included. The virtualization field synthesis unit 100 may be a virtualization field synthesis processing apparatus according to an embodiment of the present invention.

얼굴 감지부(110)는 사용자 입력 이미지(즉, 얼굴이 포함된 사진 형태)에서 얼굴 영역을 감지하여 위치를 표시한다. 예를 들어, 얼굴 감지부(110)는 딥러닝 오브젝트 검출(Object Detection) 기법을 활용한다.The face detection unit 110 detects a face area from a user input image (ie, in the form of a photo including a face) and displays a location. For example, the face detection unit 110 utilizes a deep learning object detection technique.

여기서, 사용자 입력 이미지는 얼굴 감지의 정확도 및 추후에 일정한 이미지 스코어를 측정하기 위해, 가급적 사용자의 얼굴의 정면이 보여질 수 있는 이미지가 바람직하다.Here, the user input image is preferably an image in which the front of the user's face can be viewed as possible in order to measure the accuracy of face detection and a certain image score later.

얼굴 영역 추출부(112)는 얼굴 감지부(110)에서 감지된 얼굴 영역의 주변부를 제외한 나머지 배경 부분을 잘라내고, 얼굴 피부 영역을 픽셀 단위로 감지하여 나머지 부분은 전부 지우고, 픽셀 단위로 감지된 얼굴 피부 영역을 더욱 타이트하게 추출한다. 예를 들어, 얼굴 영역 추출부(112)는 얼굴 피부 영역을 픽셀 단위로 감지하여 나머지 부분은 전부 지울 때, 딥러닝 세그멘테이션(segmentation) 기법을 활용한다.The face region extracting unit 112 cuts out the remaining background portions excluding the periphery of the face region detected by the face detection unit 110, detects the face skin region in pixel units, erases all the remaining portions, and The facial skin area is extracted more tightly. For example, when the facial area extractor 112 detects the facial skin area in pixel units and erases all the rest, the deep learning segmentation technique is used.

상술한 얼굴 영역 추출부(112)는 세부 영역 추출부(116)에서의 세부영역 추출의 정확도를 위해 최대한 얼굴 영역을 클로즈업하고 불필요한 부분(예컨대, 배경 등)을 제외할 수 있다. 이러한 얼굴 영역 추출부(112)로 인해 세부 영역 추출의 정확도가 향상되고, 가상화장 시스템의 학습 효율 및 최종 결과의 성능이 개선된다.The above-described face region extracting unit 112 may close up the face region as much as possible and exclude unnecessary portions (eg, background) for accuracy of sub region extraction by the sub region extracting unit 116. Due to the face region extraction unit 112, the accuracy of sub-region extraction is improved, and the learning efficiency of the virtual field system and the performance of the final result are improved.

얼굴 특징점 추출부(114)는 얼굴 영역 추출부(112)에서 추출된 얼굴 영역 이미지에서 얼굴 특징점 위치를 감지한다. 예를 들어, 얼굴 특징점 추출부(114)는 딥러닝 얼굴 랜드마크 검출(Facial Landmark Detection) 기법을 활용한다.The facial feature point extracting unit 114 detects the position of the facial feature point in the face area image extracted by the face area extracting unit 112. For example, the facial feature point extractor 114 utilizes a deep learning facial landmark detection technique.

세부 영역 추출부(116)는 얼굴 특징점 추출부(114)에서 추출된 특징점 위치 좌표를 토대로 좌우 눈과 입술 등과 같은 세부 영역을 추출한다. 필요에 따라, 세부 영역 추출부(116)는 코, 눈썹 등의 추가영역 또는 더 세부적인 영역을 추출할 수 있다.The detailed region extracting unit 116 extracts detailed regions such as left and right eyes and lips based on the coordinates of the position of the feature points extracted from the facial feature point extracting unit 114. If necessary, the detailed region extracting unit 116 may extract an additional region such as a nose or an eyebrow or a more detailed region.

세부 영역별 화장부(118)는 세부 영역 추출부(116)에서 추출된 각각의 세부 영역에 대하여 쌍 순환 경쟁 네트워크(PairedCycleGAN) 기법을 활용하여 화장을 입힌다. 이때, 세부 영역별 화장부(118)는 수신된 조건별 화장법 후보를 근거로 각각의 세부 영역에 화장을 입힐 수 있다. 여기서, 조건별 화장법 후보는 하나 이상이 될 수 있다. 예를 들어, 조건별 화장법 후보가 3개라고 가정하면 세부 영역별 화장부(118)는 세부 영역 추출부(116)에서 추출된 각각의 세부 영역에 대하여 각각의 조건별 화장법 후보에 따라 화장을 입히게 된다. 즉, 각각의 세부 영역에 대해 서로 상이한 3개의 화장법으로 화장을 입힐 수 있다.The makeup part 118 for each detailed area puts on makeup for each detailed area extracted by the detailed area extracting unit 116 using a paired cycle competition network (PairedCycleGAN) technique. In this case, the makeup part 118 for each detailed area may put on makeup on each detailed area based on the received cosmetic method candidates for each condition. Here, there may be one or more candidates for makeup by condition. For example, assuming that there are three makeup method candidates for each condition, the makeup part 118 for each detailed area applies makeup according to the makeup method candidates for each condition for each detailed area extracted by the detailed area extraction unit 116. do. That is, it is possible to apply makeup using three different makeup methods for each detailed area.

한편, 보통 좌우 눈 영역 비대칭 문제는 PairedCycleGAN 기법에서 발생할 수 있는 문제이다. PairedCycleGAN에서는 좌우 눈을 각각 추출하여 따로따로 화장을 입히는 방법을 사용한다. 이때, GAN 딥러닝 기법에 의한 눈 화장 결과가 좌우 눈에 비대칭적으로 나타날 수 있는 위험성이 존재한다. 따라서, 세부 영역별 화장부(118)는 좌우 눈 영역을 추출하여 화장을 입히는 과정에서 양 눈의 화장 상태가 대칭적이고 자연스러운 결과가 나올 수 있도록 처리한다.Meanwhile, an asymmetry problem in the left and right eye regions is a problem that may occur in the PairedCycleGAN technique. PairedCycleGAN uses a method of separately applying makeup by extracting the left and right eyes respectively. At this time, there is a risk that the eye makeup result by the GAN deep learning technique may appear asymmetrically in the left and right eyes. Therefore, the makeup part 118 for each detailed area extracts the left and right eye areas and processes the makeup state of both eyes to produce a symmetrical and natural result in the process of applying makeup.

즉, 세부 영역별 화장부(118)는 좌우 눈에 화장을 입힌 뒤 화장에 의한 이미지 픽셀 데이터의 변화량을 서로 비교하여 그 차이가 크지 않도록(즉, 대칭적인 화장이 될 수 있도록) 조절할 수 있다.That is, the makeup part 118 for each detailed area may compare the amount of change in image pixel data due to the makeup after putting on makeup on the left and right eyes, and adjust the difference so that the difference is not large (that is, the makeup can be symmetrical).

합성부(120)는 세부 영역별 화장부(118)에서 화장된 세부 영역을 푸아송 이미지 브랜딩(Poisson Image Blending) 기법을 활용하여 합성한다.The synthesis unit 120 synthesizes the detailed areas made up in the makeup unit 118 for each detailed area using a Poisson Image Blending technique.

상술한 설명에서는 세부 영역별 화장부(118)가 화장된 각 세부 영역중에서 좌우 눈 영역의 비대칭 문제를 해결하는 것으로 하였는데, 필요에 따라서는 합성부(120)가 화장된 각 세부 영역중에서 좌우 눈 영역의 비대칭 문제를 해결하는 것으로 하여도 무방하다. 즉, 합성부(120)가 화장된 각 세부 영역중에서 좌우 눈 영역의 비대칭 문제를 해결한 후에 세부 영역을 합성하는 것으로 하여도 된다.In the above description, the makeup part 118 for each detailed area solves the asymmetry problem of the left and right eye areas among the detailed areas where makeup is made up, but if necessary, the left and right eye areas are It is okay to solve the problem of asymmetry in That is, after the synthesizing unit 120 solves the problem of asymmetry of the left and right eye areas among the detailed areas where makeup is made, the detailed areas may be synthesized.

도 6은 본 발명의 실시예에 따른 가상화장 합성 처리 방법을 설명하기 위한 플로우차트이고, 도 7 내지 도 9는 도 6의 설명에 채용되는 도면이다.6 is a flowchart illustrating a method of synthesizing a virtualization field according to an embodiment of the present invention, and FIGS. 7 to 9 are diagrams employed in the description of FIG. 6.

먼저, 얼굴 감지부(110)는 딥러닝 Object Detection 기법을 활용하여 사용자 입력 이미지(즉, 얼굴이 포함된 사진 형태)에서 얼굴 영역을 감지하여 위치를 표시한다(S110). 즉, 도 7에서와 같이 얼굴 영역을 감지하여 위치를 표시할 수 있다.First, the face detection unit 110 detects a face area from a user input image (ie, a photo form including a face) using a deep learning object detection technique and displays a location (S110). That is, as shown in FIG. 7, a face area may be detected and a location may be displayed.

이어, 얼굴 영역 추출부(112)는 얼굴 감지부(110)에서 감지된 얼굴 영역의 주변부를 제외한 나머지 배경 부분을 잘라내고, 딥러닝 segmentation 기법을 활용하여 얼굴 피부 영역을 픽셀 단위로 감지하여 나머지 부분은 전부 지우고, 픽셀 단위로 감지된 얼굴 피부 영역을 더욱 타이트하게 추출한다(S112). 즉, 도 7에서와 같이 얼굴 영역을 추출할 수 있다.Subsequently, the face region extraction unit 112 cuts out the rest of the background except for the periphery of the face region detected by the face detection unit 110, and detects the face skin region in pixel units using a deep learning segmentation technique, Is erased, and the facial skin area detected in pixel units is extracted more tightly (S112). That is, as shown in FIG. 7, the face area can be extracted.

그리고 나서, 얼굴 특징점 추출부(114)는 딥러닝 Facial Landmark Detection 기법을 활용하여, 얼굴 영역 추출부(112)에서 추출된 얼굴 영역 이미지에서 얼굴 특징점 위치를 감지한다(S114). 즉, 도 7에서와 같이 얼굴 특징점을 추출할 수 있다.Then, the facial feature point extracting unit 114 detects the position of the facial feature point in the face area image extracted by the face area extracting unit 112 by using a deep learning Facial Landmark Detection technique (S114). That is, as shown in FIG. 7, facial feature points can be extracted.

이후, 세부 영역 추출부(116)는 얼굴 특징점 추출부(114)에서 추출된 특징점 위치 좌표를 토대로 좌우 눈과 입술 등의 세부 영역을 추출한다. 필요에 따라, 세부 영역 추출부(116)는 코, 눈썹 등의 추가영역 또는 더 세부적인 영역을 추출할 수 있다(S116). 즉, 도 7에서와 같이 세부 영역을 추출할 수 있다.Thereafter, the detailed region extracting unit 116 extracts detailed regions such as left and right eyes and lips based on the coordinates of the position of the feature points extracted from the facial feature point extracting unit 114. If necessary, the detailed region extracting unit 116 may extract an additional region or a more detailed region such as a nose and an eyebrow (S116). That is, as shown in FIG. 7, the detailed region can be extracted.

이어, 세부 영역별 화장부(118)는 세부 영역 추출부(116)에서 추출된 각각의 세부 영역에 대하여 PairedCycleGAN 기법을 활용하여 화장을 입힌다(S118). 즉, 도 7에서와 같이 세부 영역별로 화장을 입힐 수 있다. 이때, 세부 영역별 화장부(118)는 조건별 화장법 후보를 근거로 각각의 세부 영역에 화장을 입힐 수 있다. 예를 들어, 조건별 화장법 후보가 3개라고 가정하면 세부 영역별 화장부(118)는 세부 영역 추출부(116)에서 추출된 각각의 세부 영역에 대하여 각각의 조건별 화장법 후보에 따라 화장을 입히게 된다.Subsequently, the makeup part 118 for each detailed area puts on makeup for each detailed area extracted by the detailed area extraction unit 116 using the PairedCycleGAN technique (S118). That is, as shown in FIG. 7, makeup may be applied for each detailed area. In this case, the makeup part 118 for each detailed area may put on makeup on each detailed area based on a makeup method candidate for each condition. For example, assuming that there are three makeup method candidates for each condition, the makeup part 118 for each detailed area applies makeup according to the makeup method candidates for each condition for each detailed area extracted by the detailed area extraction unit 116. do.

또한, 세부 영역별 화장부(118)는 화장된 각 세부 영역중에서 좌우 눈 영역의 비대칭 문제를 해결한다. 보통 좌우 눈 영역 비대칭 문제는 PairedCycleGAN 기법에서 발생할 수 있는 문제이다. PairedCycleGAN에서는 좌우 눈을 각각 추출하여 따로따로 화장을 입히는 방법을 사용한다. 이때, GAN 딥러닝 기법에 의한 눈 화장 결과가 좌우 눈에 비대칭적으로 나타날 수 있는 위험성이 존재한다. 따라서, 세부 영역별 화장부(118)는 좌우 눈 영역을 추출하여 화장을 입히는 과정에서 양 눈의 화장 상태가 대칭적이고 자연스러운 결과가 나올 수 있도록 처리한다.In addition, the makeup part 118 for each detailed area solves the problem of asymmetry of the left and right eye areas among the detailed areas of makeup. Usually, the problem of left and right eye region asymmetry is a problem that can occur in the PairedCycleGAN technique. PairedCycleGAN uses a method of separately applying makeup by extracting the left and right eyes respectively. At this time, there is a risk that the eye makeup result by the GAN deep learning technique may appear asymmetrically in the left and right eyes. Therefore, the makeup part 118 for each detailed area extracts the left and right eye areas and processes the makeup state of both eyes to produce a symmetrical and natural result in the process of applying makeup.

다시 말해서, 기존의 PairedCycleGAN 시스템에서는 딥러닝이 한 쪽 눈만 입력받아서 화장을 입히고 지우는 과정을 학습하는 구조이다. 양 눈을 따로따로 학습하고 평가받기 때문에 비대칭 문제가 발생할 위험이 있다. 이를 해결하기 위해, 본 발명의 실시예에서는 세부 영역별 화장부(118)가 도 8에서와 같이 기존의 PairedCycleGAN 구조를 수정하여 좌우 눈을 동시에 입력하여 동시에 화장을 입힌 뒤 좌우 화장 유사도를 평가하는 함수를 사용한다. 그에 따라, 세부 영역별 화장부(118)는 학습과정에서 좌우 눈에 화장을 입힌 뒤 화장에 의한 이미지 픽셀 데이터의 변화량을 서로 비교하여 그 차이가 크지 않도록, 즉 대칭적인 화장이 될 수 있도록 조절할 수 있다.In other words, in the existing PairedCycleGAN system, deep learning receives only one eye and learns the process of putting on and erasing makeup. Because both eyes are learned and evaluated separately, there is a risk of an asymmetry problem. To solve this, in an embodiment of the present invention, the makeup part 118 for each detailed area modifies the existing PairedCycleGAN structure as shown in FIG. 8 to simultaneously input the left and right eyes, put on makeup at the same time, and evaluate the similarity of the left and right makeup Use. Accordingly, the makeup part 118 for each detailed area compares the amount of change in the image pixel data due to the makeup after putting on makeup on the left and right eyes during the learning process, and adjusts the difference so that the difference is not large, that is, the makeup becomes symmetrical. have.

즉, 세부 영역별 화장부(118)는 좌우 눈 영역의 가상화장 결과 이미지에 대하여 가상화장에 의한 픽셀 변화량을 서로 대응되는 특징점끼리 매칭하여 변화량의 크기를 비교한다. 이때, 특징점별 변화량 크기 비교를 위해 특징점 기반 델타 함수를 설계하여 활용한다. 만약, 좌우 변화 값의 크기 차이가 충분히 작다면(즉, 좌우 변화값의 크기 차이가 기설정된 기준치 이하이면) 대칭적이며 자연스러운 화장이 되었다고 볼 수 있다. 그러나, 좌우 변화량이 크게 차이난다면 화장이 비대칭적으로 입혀졌다는 의미이므로, 세부 영역별 화장부(118)는 이를 바로잡기 위해 도 9에서와 같이 좌우의 픽셀 변화량을 조절하기 위한 노멀라이즈(Normalize) 과정을 추가로 행한다. 노멀라이즈 과정은 하기의 수학식을 따른다. That is, the makeup part 118 for each detailed area compares the size of the change amount by matching the amount of pixel change due to the virtual field with corresponding feature points with respect to the resulting image of the virtual field in the left and right eye areas. At this time, a delta function based on a feature point is designed and utilized to compare the magnitude of the variation for each feature point. If the difference in the size of the left and right change values is sufficiently small (that is, the difference in the size of the left and right change values is less than a preset reference value), it can be considered that the makeup is symmetrical and natural. However, if there is a large difference between the left and right changes, it means that the makeup has been asymmetrically applied, so the makeup part 118 for each detailed area is normalized to adjust the amount of change of the left and right pixels as shown in FIG. 9 to correct this. Perform the process further. The normalization process follows the following equation.

(수학식 1)(Equation 1)

ΔRightNormalized = γㆍΔRight + (1-γ)ㆍΔLeftΔRight Normalized = γㆍΔRight + (1-γ)ㆍΔLeft

ΔLeftNormalized = (1-γ)ㆍΔRight + γㆍΔLeftΔLeft Normalized = (1-γ)ㆍΔRight + γㆍΔLeft

여기서, γ=0.7이다.Here, γ = 0.7.

이와 같이 하게 되면 세부 영역 화장부(118)는 세부 영역 추출부(116)에서 추출된 각각의 세부 영역에 화장을 입히되, 화장된 각 세부 영역중에서 좌우 눈 영역의 비대칭 문제를 해결할 수 있다.In this way, the detailed area makeup part 118 applies makeup to each of the detailed areas extracted by the detailed area extracting unit 116, and the asymmetry problem of the left and right eye areas among the makeup detailed areas can be solved.

마지막으로, 합성부(120)는 세부 영역별 화장부(118)에서 화장된 세부 영역을 Poisson Image Blending 기법을 활용하여 합성한다(S120). 즉, 합성부(120)는 즉, 도 7에서와 같이 합성할 수 있다.Finally, the synthesizing unit 120 synthesizes the detailed areas made up in the makeup unit 118 for each detailed area using the Poisson Image Blending technique (S120). That is, the synthesis unit 120 may be synthesized as in FIG. 7.

상술한 바와 같이 본 발명의 실시예에 따르면, 가상 화장을 입히려는 얼굴 사진이 있을 때, 얼굴의 특징점을 분석하고 눈코입 등 세부 영역을 추출하고 각 영역에 화장을 입힌 뒤 모든 결과 값을 합성하면 가상 화장 이미지를 얻을 수 있다.As described above, according to an embodiment of the present invention, when there is a photo of a face to which virtual makeup is to be applied, feature points of the face are analyzed, detailed areas such as eyes, nose and mouth are extracted, and all result values are synthesized after applying makeup to each area. You can get makeup images.

상술한 바와 같은 본 발명의 실시예는 얼굴의 일부 영역에 각각 화장을 입힌 후 그 결과를 통합하여 최종 결과를 얻게 되므로, 얼굴 전체 영역을 동시에 처리하여 화장을 입히는 종래의 방식과 성능을 비교하여 보면 각 영역(눈, 코, 입 등)에 집중도 높은 결과를 얻게 되어 종래의 방식에 비해 보다 좋은 성능을 보이게 된다.Since the embodiment of the present invention as described above obtains the final result by applying makeup on a partial area of the face, and integrating the result, when comparing the performance with the conventional method of applying makeup by simultaneously processing the entire face area High concentration results are obtained in each area (eye, nose, mouth, etc.), resulting in better performance than the conventional method.

또한, 상술한 본 발명의 가상화장 합성 처리 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the virtual field synthesis processing method of the present invention described above can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes and code segments for implementing the method can be easily deduced by programmers in the art to which the present invention belongs.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specifications. Although specific terms have been used herein, these are only used for the purpose of describing the present invention and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical scope of the present invention should be determined by the technical spirit of the appended claims.

10 : 사용자 단말 100 : 가상화장 합성부
110 : 얼굴 감지부 112 : 얼굴 영역 추출부
114 : 얼굴 특징점 추출부 116 : 세부 영역 추출부
118 : 세부 영역별 화장부 120 : 합성부
200 : 이미지 평가점수 생성부 300 : 사용자 정보 관리부
350 : 입력 정보 획득부 400 : 화장법 비교 처리부
500 : 수집 정보 처리부 600 : 스타일 데이터베이스
700 : 조건별 화장법 후보 추출부 900 : 추천 서비스 제공부
1000 : 서비스 제공 장치
10: user terminal 100: virtualization field synthesis unit
110: face detection unit 112: face region extraction unit
114: facial feature point extraction unit 116: detailed region extraction unit
118: makeup part by detailed area 120: composite part
200: image evaluation score generation unit 300: user information management unit
350: input information acquisition unit 400: makeup method comparison processing unit
500: collection information processing unit 600: style database
700: Candidate extraction unit for each condition 900: Recommendation service provider
1000: service providing device

Claims (5)

사용자 조건 정보에 의해 추출되는 화장 스타일별 이미지 소스에 의거하여 사용자 이미지에 가상 화장을 입혀 가상 화장 이미지를 합성하는 가상화장 합성방법으로서,
얼굴이 포함된 사용자 입력 이미지에서 얼굴 영역을 감지하여 위치를 표시하는 단계;
상기 얼굴 영역의 위치 정보를 이용하여 얼굴 영역만을 추출하는 단계;
상기 추출된 얼굴 영역에서 얼굴 특징점 위치를 감지하는 단계;
상기 추출된 얼굴 특징점 위치 좌표를 토대로 좌우 눈과 입술을 포함하는 세부 영역을 추출하는 단계;
상기 추출된 각각의 세부 영역에 대하여 상기 사용자 조건에 의해 추출된 화장 스타일 이미지 소스에 의거하여 화장을 입히는 단계; 및
상기 화장된 세부 영역을 합성하여 가상화장 이미지로 합성하는 단계;를 포함하는 것을 특징으로 하는 가상화장 합성 처리 방법.
As a virtualization field synthesis method in which a virtual make-up image is synthesized by putting on a virtual make-up on a user image based on an image source for each make-up style extracted by user condition information,
Detecting a face area in a user input image including a face and displaying a location;
Extracting only the face area using the location information of the face area;
Detecting a position of a facial feature point in the extracted face area;
Extracting a detailed area including left and right eyes and lips based on the extracted facial feature point position coordinates;
Applying makeup for each of the extracted detailed areas based on a makeup style image source extracted by the user condition; And
And synthesizing the cremated detailed region into a virtual field image.
청구항 1에 있어서,
상기 추출된 각각의 세부 영역에 대하여 화장을 입히는 단계는,
상기 화장된 각 세부 영역중에서 좌우 눈 영역의 비대칭 문제를 해결하는 단계를 포함하는 것을 특징으로 하는 가상화장 합성 처리 방법.
The method according to claim 1,
The step of applying makeup for each of the extracted detailed areas,
And solving a problem of asymmetry of the left and right eye regions among the makeup detailed regions.
청구항 1에 있어서,
상기 얼굴 영역 단계는,
상기 얼굴 감지 단계에서 감지된 얼굴 영역의 주변부를 제외한 나머지 배경 부분을 잘라내고, 얼굴 피부 영역을 픽셀 단위로 감지하여 나머지 부분은 전부 지우고, 픽셀 단위로 감지된 얼굴 피부 영역을 얼굴 영역으로 추출하는 것을 특징으로 하는 가상화장 합성 처리 방법.
The method according to claim 1,
The facial area step,
In the face detection step, the rest of the background portion excluding the periphery of the face area detected in the face detection step is cut out, the face skin area is detected in pixel units, all remaining portions are erased, and the facial skin area detected in pixels is extracted as the face area. Virtualization field synthesis processing method characterized by.
청구항 1에 있어서,
상기 세부 영역별 화장단계는,
화장 스타일 정보를 저장하고 있는 스타일 데이터 베이스로부터 사용자의 조건에 의거하여 추출된 조건별로 화장법 후보 리스트에 의거하여, 상기 세부 영역 추출 단계에서 추출된 각각의 세부 영역에 대하여 서로 상이한 각각의 조건별 화장법 후보에 따른 화장법으로 화장을 입히는 것을 특징으로 하는 가상화장 합성 처리 방법.
The method according to claim 1,
The makeup step for each detailed area,
Based on a makeup method candidate list for each condition extracted based on the user's condition from a style database storing makeup style information, makeup method candidates for each condition different from each other for each detailed region extracted in the detailed region extraction step Virtualization field synthetic treatment method, characterized in that the makeup is applied by the makeup method according to.
청구항 4에 있어서,
상기 합성부는, 상기 세부영역에 대해 서로 상이한 화장법에 따라 화장을 입힌 세부영역들을 화장법별로 합성하여 조건별 화장법 후보 수 만큼의 가상 화장 이미지를 합성하는 것을 특징으로 하는 가상화장 합성 처리 방법.
The method of claim 4,
And the synthesizing unit synthesizes virtual makeup images as many as the number of makeup candidates for each condition by synthesizing detailed areas covered with makeup according to different makeup methods for the detailed areas.
KR1020190026679A 2019-03-08 2019-03-08 Virtual makeup composition processing method KR20200107488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190026679A KR20200107488A (en) 2019-03-08 2019-03-08 Virtual makeup composition processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190026679A KR20200107488A (en) 2019-03-08 2019-03-08 Virtual makeup composition processing method

Publications (1)

Publication Number Publication Date
KR20200107488A true KR20200107488A (en) 2020-09-16

Family

ID=72669875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190026679A KR20200107488A (en) 2019-03-08 2019-03-08 Virtual makeup composition processing method

Country Status (1)

Country Link
KR (1) KR20200107488A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102406377B1 (en) * 2021-08-13 2022-06-09 주식회사 에이아이네이션 Artificial intelligence-based virtual makeup method and device that can control the degree of makeup transfer for each face part
KR102465456B1 (en) * 2021-08-13 2022-11-11 주식회사 에이아이네이션 Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102406377B1 (en) * 2021-08-13 2022-06-09 주식회사 에이아이네이션 Artificial intelligence-based virtual makeup method and device that can control the degree of makeup transfer for each face part
KR102465456B1 (en) * 2021-08-13 2022-11-11 주식회사 에이아이네이션 Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis

Similar Documents

Publication Publication Date Title
Gray et al. Predicting facial beauty without landmarks
US20180268458A1 (en) Automated recommendation and virtualization systems and methods for e-commerce
JP2020522285A (en) System and method for whole body measurement extraction
US11282256B2 (en) Crowdshaping realistic 3D avatars with words
CN111291604A (en) Face attribute identification method, device, storage medium and processor
Zhang et al. Computer models for facial beauty analysis
WO2018012136A1 (en) Makeup assistance device and makeup assistance method
KR102316723B1 (en) Body-tailored coordinator system using artificial intelligence
US11978242B2 (en) Systems and methods for improved facial attribute classification and use thereof
US11521013B2 (en) Systems and methods for providing personalized product recommendations using deep learning
US10818062B2 (en) Crowdshaping realistic 3D avatars with words
KR102465454B1 (en) An apparatus and a method for generating virtual makeup beauty score by using AI recognition of facial features
CN110598097B (en) Hair style recommendation system, method, equipment and storage medium based on CNN
KR20200107488A (en) Virtual makeup composition processing method
Zhang et al. Fashion evaluation method for clothing recommendation based on weak appearance feature
KR20200107465A (en) A method for providing recommendation services of personal makeup styles based on beauty scores
KR20200107469A (en) A method for providing recommendation services of personal makeup styles based on beauty scores
KR102465453B1 (en) A virtual makeup composition A.I. processing apparatus and a method using it
Lu et al. Gated CNN for visual quality assessment based on color perception
CN117152566A (en) Classification model training method, model, classification method and product
KR20200107482A (en) Virtual makeup composition processing apparatus
KR20200107486A (en) Virtual makeup composition processing apparatus
KR20200107476A (en) An apparatus for providing recommendation services of personal makeup styles based on beauty scores
KR20200107472A (en) An apparatus for providing recommendation services of personal makeup styles based on beauty scores
KR102465455B1 (en) An AI apparatus and a method of beauty evaluation for user preference by predicting score distributions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal