KR102465456B1 - Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis - Google Patents

Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis Download PDF

Info

Publication number
KR102465456B1
KR102465456B1 KR1020210107650A KR20210107650A KR102465456B1 KR 102465456 B1 KR102465456 B1 KR 102465456B1 KR 1020210107650 A KR1020210107650 A KR 1020210107650A KR 20210107650 A KR20210107650 A KR 20210107650A KR 102465456 B1 KR102465456 B1 KR 102465456B1
Authority
KR
South Korea
Prior art keywords
image
style
information
face
user
Prior art date
Application number
KR1020210107650A
Other languages
Korean (ko)
Inventor
곽지훈
조현수
최명제
송창훈
최호진
Original Assignee
주식회사 에이아이네이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이아이네이션 filed Critical 주식회사 에이아이네이션
Priority to KR1020210107650A priority Critical patent/KR102465456B1/en
Application granted granted Critical
Publication of KR102465456B1 publication Critical patent/KR102465456B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0093Geometric image transformation in the plane of the image for image warping, i.e. transforming by individually repositioning each pixel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

According to an embodiment of the present invention, a service providing method of a service providing device includes: collecting source images and processing face warping to convert the source images into warped images based on benchmark images; constructing a style database to which style information of the source image is mapped by using the face-warped source image; and providing a style recommendation service based on style transfer using the style database. Therefore, it is possible to provide the service with high satisfaction due to high accuracy.

Description

인공지능 기반의 얼굴 나이 및 주름 분석을 통한 개인 맞춤형 화장법 추천 방법 및 장치{Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis}Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis}

본 발명은 서비스 제공 장치 및 그 방법에 관한 것이다. 보다 구체적으로, 본 발명은 인공지능 기반의 얼굴 나이 및 주름 분석을 통한 개인 맞춤형 화장법 추천 방법 및 장치에 관한 것이다.The present invention relates to a service providing apparatus and method. More specifically, the present invention relates to a method and apparatus for recommending a personalized makeup method through AI-based facial age and wrinkle analysis.

뷰티 산업(beauty industry)의 발전에 따라, 사용자의 화장품, 메이크업(make-up) 등에 대한 관심이 증가하고 있다. 이에 따라, 사용자의 화장품, 메이크업 등에 대한 욕구가 다양해지고 있는 추세이다. 예를 들어, 사용자 개인마다 피부 색상, 얼굴형, 이목구비의 생김새 등이 다양하기 때문에 개인에게 어울리는 메이크업이 다를 수 있다. 따라서, 사용자는 자신에게 어울리는 메이크업 스타일에 대한 선택의 어려움을 가질 수 있다. 또한, 사용자는 메이크업 후에 메이크업이 잘 된 것인지, 어떤 부분을 보완해야 하는지 궁금할 수 있다.With the development of the beauty industry, users' interest in cosmetics, makeup, and the like is increasing. Accordingly, it is a trend that users' desires for cosmetics, makeup, and the like are diversifying. For example, since each user has a variety of skin colors, face shapes, features, etc., makeup suitable for each individual may be different. Accordingly, the user may have difficulty in selecting a makeup style that suits him or her. In addition, the user may wonder whether the makeup is well done or what part needs to be supplemented after the makeup.

이러한 추세에 맞추어, 최근에는 사용자의 얼굴에 가상의 메이크업을 입혀주는 어플리케이션(application) 등이 개발되고 있다. 이 경우, 사용자의 호기심과 흥미를 유발할 수는 있으나, 어떤 메이크업이 사용자에게 어울리는지 개인이 판단해야 하는 한계가 있다. 즉, 현재 제공되는 뷰티 서비스의 경우에는 메이크업 전문가의 협업이 포함되지 않거나, 메이크업 전문가의 협업이 있다고 하더라도 한정적인 데이터에 기초하고 있다. 따라서, 사용자 개개인에 대한 맞춤형 서비스를 제공하기에는 어려움이 있다.In line with this trend, recently, an application for applying virtual makeup to a user's face has been developed. In this case, although it can arouse the user's curiosity and interest, there is a limit in that an individual must determine which makeup suits the user. That is, in the case of the currently provided beauty service, collaboration between makeup experts is not included, or even if there is collaboration between makeup experts, it is based on limited data. Therefore, it is difficult to provide customized services for individual users.

이러한 어려움을 해결하기 위해 최근에는 기계 학습 및 딥러닝 기술을 이용하여 패턴화된 이미지 분석을 처리하는 기술을 적용한 메이크업 평가 기술 등이 제안되며, 이는 맞춤형 서비스를 위하여 사용자들의 평가에 따라 점수화된 기준을 메이크업에 적용하여 자신의 메이크업 결과를 평가받는 서비스로서 제안되고 있다.In order to solve these difficulties, recently, a makeup evaluation technique applying a technique of processing patterned image analysis using machine learning and deep learning techniques has been proposed, which is based on scoring criteria based on user evaluation for customized services. It is proposed as a service to evaluate the result of one's own makeup by applying it to makeup.

그러나, 현재까지 알려진 기술들은 자신의 메이크업 결과를 단순히 평가받거나, 자신과 유사한 얼굴 스타일 등을 직접 찾아볼 수만 있을 뿐, 현재 자신의 얼굴에 어울리는 스타일을 부분별로 구체적으로 파악해 주거나, 파악된 분석 정보와의 비교에 기초한 다양한 스타일 추천 서비스를 제공받지는 못하고 있는 실정이다.However, the technologies known so far can only evaluate one's makeup results or directly find facial styles similar to one's own, identify in detail the style that suits one's current face by part, However, various style recommendation services based on the comparison are not provided.

또한, 얼굴에 스타일을 입히는 메이크업 스타일 트랜스퍼 기술로 스타일을 합성해주는 어플리케이션 등도 제안되고는 있으나, 상용화된 스타일 추천 서비스로서 이용하기에는 그 성능 및 효율이 높지만은 않은 실정이다. 통상적으로 GAN (Generative Adversarial Network) 기반의 메이크업 스타일 트랜스퍼 기술 등이 알려져 있으나, 대상 얼굴과 입력 이미지간의 차이에 따라 상당한 오류가 발생되고 있는 실정이다.In addition, applications that synthesize styles with makeup style transfer technology that apply styles to the face have been proposed, but their performance and efficiency are not high enough to be used as a commercialized style recommendation service. Conventionally, a makeup style transfer technology based on a generative adversarial network ( GAN ) is known, but a significant error occurs depending on the difference between a target face and an input image.

본 발명은 상기한 바와 같은 문제점을 해결하고자 안출된 것으로, 소스 이미지를 기반으로 페이스 워핑 처리된 이미지를 활용하여, 스타일 정보를 추출 및 매핑한 데이터베이스를 구성하고, 이를 이용한 가상 스타일 합성 및 분석에 따른 스타일 비교 처리에 따라, 개인화된 스타일 추천 서비스를 제공하여 사용자 편의성을 향상시키고, 정확도가 높아 만족도가 높은 서비스를 제공할 수 있는 서비스 제공 장치 및 그 동작 방법을 제공하는 데 그 목적이 있다.The present invention has been made to solve the above problems, and constructs a database in which style information is extracted and mapped by using a face warped image based on a source image, and virtual style synthesis and analysis using the same An object of the present invention is to provide a service providing apparatus and an operation method capable of providing a personalized style recommendation service according to style comparison processing to improve user convenience and to provide a highly satisfactory service with high accuracy.

상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 서비스 제공 장치의 동작 방법에 있어서, 소스 이미지를 수집하여, 벤치마크 이미지에 기초한 워핑 이미지로 변환하는 페이스 워핑을 처리하는 단계; 상기 페이스 워핑 처리된 소스 이미지를 이용하여, 상기 소스 이미지의 스타일 정보가 매핑된 스타일 데이터베이스를 구축하는 단계; 및 상기 스타일 데이터베이스를 이용한 스타일 트랜스퍼 기반의 스타일 추천 서비스를 제공하는 단계를 포함한다.A method according to an embodiment of the present invention for solving the above problems is a method of operating a service providing apparatus, comprising the steps of collecting a source image and processing face warping to convert it into a warped image based on a benchmark image. ; constructing a style database to which style information of the source image is mapped by using the face-warped source image; and providing a style recommendation service based on style transfer using the style database.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 서비스 제공 장치의 동작 방법에 있어서, 사용자 이미지와 소스 이미지 간 스타일 트랜스퍼에 기초한 가상 스타일 합성을 수행하는 단계; 및 상기 가상 스타일 합성 수행된 이미지에 기초한 스타일 추천 서비스를 제공하는 단계;를 포함하고, 상기 합성을 처리하는 단계는, 상기 스타일 트랜스퍼의 트랜스퍼 강도를 이미지의 부분 영역별로 조절하는 단계를 포함한다.In addition, a method according to an embodiment of the present invention for solving the above problems is a method of operating a service providing apparatus, comprising: performing virtual style synthesis based on style transfer between a user image and a source image; and providing a style recommendation service based on the image for which the virtual style synthesis has been performed, wherein the processing of the synthesis includes adjusting transfer strength of the style transfer for each partial region of the image.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 서비스 제공 장치의 동작 방법에 있어서, 사용자 이미지와 소스 이미지 간 스타일 트랜스퍼에 기초한 가상 스타일 합성을 수행하는 단계; 및 상기 가상 스타일 합성 수행된 하나 이상의 합성 이미지에 기초한 스타일 추천 서비스를 제공하는 단계;를 포함하고, 상기 추천 서비스를 제공하는 단계는, 상기 사용자 이미지에 대응하는 부분 영역별 분석 정보를 추출하는 단계; 및 상기 하나 이상의 합성 이미지와 상기 부분 영역별 분석 정보에 기초한 스타일 비교 처리에 따라, 스타일 추천 서비스 정보를 제공하는 단계를 포함한다.In addition, a method according to an embodiment of the present invention for solving the above problems is a method of operating a service providing apparatus, comprising: performing virtual style synthesis based on style transfer between a user image and a source image; and providing a style recommendation service based on one or more synthesized images for which the virtual style synthesis has been performed, wherein the providing of the recommendation service includes: extracting analysis information for each partial area corresponding to the user image; and providing style recommendation service information according to style comparison processing based on the one or more synthesized images and the analysis information for each partial area.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 서비스 제공 장치에 있어서, 소스 이미지를 수집하여, 벤치마크 이미지에 기초한 워핑 이미지로 변환하는 페이스 워핑을 처리하는 페이스 워핑 처리부; 상기 페이스 워핑 처리된 소스 이미지를 이용하여, 상기 소스 이미지의 스타일 정보가 매핑된 스타일 데이터베이스를 구축하는 스타일 데이터베이스; 및 상기 스타일 데이터베이스를 이용한 스타일 트랜스퍼 기반의 스타일 추천 서비스를 제공하는 서비스 제공부를 포함한다.In addition, an apparatus according to an embodiment of the present invention for solving the above problems is a face warping process in which a service providing apparatus collects a source image and converts it into a warped image based on a benchmark image. processing unit; a style database for constructing a style database in which style information of the source image is mapped using the face-warped source image; and a service provider providing a style recommendation service based on style transfer using the style database.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 서비스 제공 장치에 있어서, 사용자 이미지와 소스 이미지 간 스타일 트랜스퍼에 기초한 가상 스타일 합성을 수행하는 가상 스타일 합성부; 및 상기 가상 스타일 합성 수행된 이미지에 기초한 스타일 추천 서비스를 제공하는 서비스 제공부를 포함하고, 상기 가상 스타일 합성부에서 수행되는 상기 스타일 트랜스퍼의 트랜스퍼 강도를 이미지의 부분 영역별로 조절하는 트랜스퍼 강도 조절부를 더 포함한다.In addition, an apparatus according to an embodiment of the present invention for solving the above problem is a service providing apparatus, comprising: a virtual style synthesis unit performing virtual style synthesis based on style transfer between a user image and a source image; and a service providing unit providing a style recommendation service based on the image for which the virtual style synthesis has been performed, and a transfer strength adjusting unit adjusting the transfer strength of the style transfer performed in the virtual style synthesis unit for each partial region of the image. do.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 서비스 제공 장치에 있어서, 사용자 이미지와 소스 이미지 간 스타일 트랜스퍼에 기초한 가상 스타일 합성을 수행하는 가상 스타일 합성부; 및 상기 가상 스타일 합성 수행된 하나 이상의 합성 이미지에 기초한 스타일 추천 서비스를 제공하는 서비스 제공부를 포함하고, 상기 사용자 이미지에 대응하는 부분 영역별 분석 정보를 추출하는 분석부를 더 포함하며, 상기 서비스 제공부는 상기 하나 이상의 합성 이미지와 상기 부분 영역별 분석 정보에 기초한 스타일 비교 처리에 따라, 스타일 추천 서비스 정보를 제공한다.In addition, an apparatus according to an embodiment of the present invention for solving the above problem is a service providing apparatus, comprising: a virtual style synthesis unit performing virtual style synthesis based on style transfer between a user image and a source image; and a service providing unit providing a style recommendation service based on the one or more synthesized images in which the virtual style is synthesized, and further comprising an analysis unit extracting analysis information for each partial region corresponding to the user image, wherein the service providing unit includes the Style recommendation service information is provided according to style comparison processing based on one or more synthesized images and the analysis information for each partial region.

한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 상기 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램 및 그 프로그램이 기록된 컴퓨터 판독가능한 기록 매체로 구현될 수 있다.On the other hand, the method according to the embodiment of the present invention for solving the above problems may be implemented as a computer program for executing the method on a computer and a computer readable recording medium on which the program is recorded.

본 발명의 실시 예에 따르면, 소스 이미지를 기반으로 페이스 워핑 처리된 이미지를 활용하여, 스타일 정보를 추출 및 매핑한 데이터베이스를 구성하고, 이를 이용한 가상 스타일 합성 및 분석에 따른 스타일 비교 처리에 따라, 개인화된 스타일 추천 서비스를 제공하여 사용자 편의성을 향상시키고, 정확도가 높아 만족도가 높은 서비스를 제공할 수 있는 서비스 제공 장치 및 그 동작 방법을 제공할 수 있다.According to an embodiment of the present invention, a database in which style information is extracted and mapped is constructed by utilizing a face-warped image based on a source image, and a style comparison process based on virtual style synthesis and analysis using the same is used to create personalization. It is possible to provide a service providing device capable of improving user convenience by providing a style recommendation service and providing a highly satisfactory service with high accuracy, and an operation method thereof.

또한, 본 발명의 실시 예에 따르면, 사용자가 자신의 얼굴 이미지만 입력하면 페이스 워핑 및 트랜스퍼 강도 조절된 가상 스타일 합성 및 얼굴 분석에 기초하여, 적절한 소스 이미지와의 이미지 트랜스퍼에 따른 합성 이미지들을 추천받고, 관련 화장 스타일 정보를 제공받을 수 있게 됨으로써 사용자가 편리하게 화장 스타일들을 취사 선택할 수 있다.In addition, according to an embodiment of the present invention, when a user inputs only his/her own face image, based on virtual style synthesis and face analysis with face warping and transfer strength adjusted, synthesized images according to image transfer with an appropriate source image are recommended. , and related makeup style information can be provided, so that the user can conveniently select makeup styles.

도 1 은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 실시 예에 따른 서비스 제공 장치를 보다 구체적으로 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 서비스 제공 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시 예에 따른 페이스 워핑 처리부를 보다 구체적으로 도시한 블록도이다.
도 5는 본 발명의 실시 예에 따른 트랜스퍼 강도 조절부를 보다 구체적으로 도시한 블록도이다.
도 6은 본 발명의 실시 예에 따른 얼굴 분석부를 보다 구체적으로 도시한 블록도이다.
도 7은 본 발명의 실시 예에 따른 얼굴 부분 나이 예측 모델 및 시각화 과정을 설명하기 위한 도면이다.
도 8 내지 도 12는 본 발명의 실시 예에 따른 사용자 단말에서의 스타일 인터페이스 출력 정보를 설명하기 위한 도면이다.
1 is a conceptual diagram schematically illustrating an entire system according to an embodiment of the present invention.
2 is a block diagram illustrating a service providing apparatus according to an embodiment of the present invention in more detail.
3 is a flowchart illustrating a service providing method according to an embodiment of the present invention.
4 is a block diagram showing a face warping processing unit according to an embodiment of the present invention in more detail.
5 is a block diagram showing a transfer strength controller in more detail according to an embodiment of the present invention.
6 is a block diagram illustrating a face analysis unit according to an embodiment of the present invention in more detail.
7 is a diagram for explaining a face part age prediction model and a visualization process according to an embodiment of the present invention.
8 to 12 are diagrams for explaining style interface output information in a user terminal according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the present invention. Therefore, those skilled in the art can invent various devices that embody the principles of the present invention and fall within the concept and scope of the present invention, even though not explicitly described or shown herein. In addition, it is to be understood that all conditional terms and embodiments listed herein are, in principle, expressly intended only for the purpose of making the concept of the present invention understood, and not limited to such specifically listed embodiments and conditions. It should be.

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Further, it should be understood that all detailed descriptions reciting specific embodiments, as well as principles, aspects and embodiments of the present invention, are intended to encompass structural and functional equivalents of these matters. In addition, it should be understood that such equivalents include not only currently known equivalents but also equivalents developed in the future, that is, all devices invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of exemplary circuits embodying the principles of the present invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc., are meant to be tangibly represented on computer readable media and represent various processes performed by a computer or processor, whether or not the computer or processor is explicitly depicted. It should be.

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of various elements shown in the drawings including functional blocks represented by processors or similar concepts may be provided using dedicated hardware as well as hardware capable of executing software in conjunction with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of separate processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the explicit use of terms presented as processor, control, or similar concepts should not be construed as exclusively citing hardware capable of executing software, but without limitation, digital signal processor (DSP) hardware, ROM for storing software (ROM), random access memory (RAM) and non-volatile memory. Other hardware for the governor's use may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of this specification, components expressed as means for performing the functions described in the detailed description include, for example, a combination of circuit elements performing the functions or all types of software including firmware/microcode, etc. It is intended to include any method that performs the function of performing the function, combined with suitable circuitry for executing the software to perform the function. Since the invention defined by these claims combines the functions provided by the various enumerated means and is combined in the manner required by the claims, any means capable of providing such functions is equivalent to that discerned from this disclosure. should be understood as

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features and advantages will become more apparent through the following detailed description in conjunction with the accompanying drawings, and accordingly, those skilled in the art to which the present invention belongs can easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an entire system according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 광고 제공을 위한 전체 시스템은 사용자 단말(10) 및 서비스 제공 장치(1000)를 포함할 수 있다.An entire system for providing advertisements according to an embodiment of the present invention may include a user terminal 10 and a service providing device 1000 .

특히, 서비스 제공 장치(1000)는 본 발명의 실시 예에 따른 화장 스타일 추천 서비스 제공을 위해, 단말(10)과 유/무선 네트워크를 통해 연결될 수 있으며, 상호간 통신을 수행할 수 있다.In particular, the service providing device 1000 may be connected to the terminal 10 through a wired/wireless network and perform mutual communication in order to provide a makeup style recommendation service according to an embodiment of the present invention.

여기서 상기 각 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radiocommunication network) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Here, each network is a Local Area Network (LAN), a Wide Area Network (WAN), a Value Added Network (VAN), a Personal Area Network (PAN), a mobile communication network ( It can be implemented in all types of wired/wireless networks, such as a mobile radiocommunication network) or a satellite communication network.

그리고, 사용자 단말(10)은 컴퓨터, 휴대폰, 스마트 폰(smart phone), 스마트 패드(smart pad), 노트북 컴퓨터(laptop computer), PDA(Personal Digital Assistants), PMP(Portable Media Player) 중 어느 하나의 개별적 기기, 또는 특정 장소에 설치되는 키오스크 또는 거치형 디스플레이 장치와 같은 공용화된 디바이스 중 적어도 하나의 멀티 디바이스일 수 있으며, 서비스 제공 장치(1000)로 사용자 정보를 제공하고, 서비스 제공 장치(1000)로부터 처리된 정보를 수신하여 출력할 수 있다.In addition, the user terminal 10 is any one of a computer, a mobile phone, a smart phone, a smart pad, a laptop computer, a personal digital assistant (PDA), and a portable media player (PMP). It may be at least one multi-device of an individual device or a common device such as a kiosk or a stationary display device installed in a specific place, and provides user information to the service providing device 1000 and processes it from the service providing device 1000. information can be received and output.

이와 같은 시스템 구성에 있어서, 서비스 제공 장치(1000)는, 스타일 데이터베이스 구성을 위한 소스 이미지를 수집하고 , 수집된 소스 이미지로부터 벤치마크 이미지에 기초한 워핑 이미지로 변환하는 페이스 워핑을 처리 하며, 상기 페이스 워핑 처리된 소스 이미지를 이용하여, 상기 소스 이미지의 스타일 정보 가 매핑된 스타일 데이터베이스를 구축할 수 있다.In such a system configuration, the service providing apparatus 1000 collects source images for constructing a style database , processes face warping for converting the collected source images into a warped image based on a benchmark image, and the face warping A style database in which style information of the source image is mapped may be constructed using the processed source image.

본 발명의 실시 예에 따른 스타일 정보는, 사용자 이미지의 콘텐츠에 대응하여, 상기 콘텐츠는 유지하면서도 전체적인 이미지의 시각적 스타일은 변경하도록 하는 시각적 스타일 변경 정보를 포함할 수 있다. 이러한 스타일 정보는 상기 소스 이미지에 대응하는 딥러닝 알고리즘에 의해 추출되는 상기 시각적 스타일 변경 정보로서, 예를 들어 스타일 벡터를 포함할 수 있다. 여기서, 스타일 벡터는 상기 시각적 스타일 변경을 위한 하나 이상의 부분 위치에 대응하는 이미지 속성 변경 함수의 적용 여부를 나타내는 벡터 정보를 포함할 수 있고, 이미지 속성 변경 함수는 이미지의 질감, 색상, 선명도, 조도 또는 기타 다양한 시각적 요소 함수들을 복합적으로 적용하는 시각적 경험 기반의 함수들을 포함할 수 있다.Style information according to an embodiment of the present invention may include visual style change information for changing the visual style of the overall image while maintaining the content in response to the content of the user's image. This style information is the visual style change information extracted by a deep learning algorithm corresponding to the source image, and may include, for example, a style vector. Here, the style vector may include vector information indicating whether an image property changing function corresponding to one or more partial positions for changing the visual style is applied, and the image property changing function may include texture, color, sharpness, brightness or It may include visual experience-based functions that apply various other visual element functions in a complex manner.

특히 본 발명의 실시 예에 따른 스타일 정보는, 바람직하게는 사전 설정된 분류 기준에 의한 메이크업 스타일에 대응하여 분류될 수 있으며, 이를 위한 소스 이미지는 메이크업이 완료된 얼굴 이미지들을 포함할 수 있다. 이에 따라, 스타일 정보는 사용자 이미지에, 원하는 메이크업 스타일을 적용하여 사용자 이미지의 콘텐츠는 유지하면서도 상기 메이크업 스타일에 따른 시각적 요소들의 시각적 스타일만 변경할 수 있는 시각적 스타일 변경 정보를 포함할 수 있으며, 이러한 시각적 스타일 변경 정보는 하나 이상의 이미지 속성 변경 함수 처리를 나타내는 스타일 벡터 정보를 포함할 수 있다.In particular, style information according to an embodiment of the present invention may be classified in correspondence to a makeup style according to a pre-set classification criterion, and source images for this may include face images on which makeup is completed. Accordingly, the style information may include visual style change information capable of changing only the visual style of visual elements according to the makeup style while maintaining the contents of the user image by applying a desired makeup style to the user image. The change information may include style vector information indicating processing of one or more image property change functions.

여기서, 소스 이미지에 대응하는 이미지 정보는 네트워크를 통해 수집되거나, 별도 장치로부터 입력되는 다양한 영상 및 이미지로부터 획득될 수 있으며, 뷰티 관련 영상 또는 이미지로부터 획득되는 이미지 정보를 포함할 수 있다. 상기 소스 이미지에 대응하는 이미지 정보는 메이크업 스타일에 대응하는 스타일 정보를 추출할 수 있는 영역 이미지 정보를 포함할 수 있다. 메이크업 스타일에 대응하는 영역 이미지 정보는 메이크업된 얼굴의 전체 영역 이미지 정보이거나, 메이크업된 부분 영역 이미지이거나, 이들의 조합 중 적어도 하나를 포함할 수 있다.Here, image information corresponding to the source image may be obtained from various videos and images collected through a network or input from a separate device, and may include image information obtained from beauty-related videos or images. The image information corresponding to the source image may include area image information from which style information corresponding to a makeup style may be extracted. The region image information corresponding to the makeup style may include at least one of image information of the entire region of the face with makeup, a partial region image of the makeup, or a combination thereof.

예를 들어, 뷰티 관련 영상 또는 이미지 정보는 구독자수 또는 팔로워가 일정 수 이상인 뷰티 인플루언서들의 화장 영상 또는 이미지 정보일 수 있으며, 이는 인스타그램, 틱톡, 유투브, 페이스북, 텀블러, 트위치, 네이버, 카카오 등의 다양한 영상 업로드 사이트로부터 크롤링되어 추출되는 영상 또는 이미지 정보를 포함할 수 있다.For example, the beauty-related video or image information may be makeup video or image information of beauty influencers having a certain number of subscribers or followers, which is Instagram, TikTok, YouTube, Facebook, Tumblr, Twitch, It may include images or image information crawled and extracted from various image upload sites such as Naver and Kakao.

그리고, 서비스 제공 장치(1000)는 수집된 영상 또는 이미지 정보에 대응하는 소스 이미지들을 획득할 수 있으며, 소스 이미지는 예를 들어, 화장 스타일 예시 이미지, 특정 인플루언서의 화장 전 이미지, 특정 인플루언서의 화장 후 이미지 등을 포함할 수 있다.In addition, the service providing device 1000 may obtain source images corresponding to the collected video or image information, and the source images may include, for example, a makeup style example image, a specific influencer's before makeup image, and a specific influencer. An image of Unseo after makeup may be included.

이에 따라, 서비스 제공 장치(1000)는 소스 이미지에 기초한 스타일 정보를 결정할 수 있는 바, 이를 위해 미리 학습된 스타일 신경망 모델에 기초한 이미지 분석 기술이 이용될 수 있다. 여기서, 이미지 분석 기술은 예를 들어, 이미지를 학습 모델에 적용하여 스타일 특징 정보를 벡터화하는 기술이 예시될 수 있다.Accordingly, the service providing apparatus 1000 may determine style information based on the source image, and for this purpose, an image analysis technique based on a pre-learned style neural network model may be used. Here, the image analysis technology may be, for example, a technology of vectorizing style feature information by applying an image to a learning model.

그리고, 서비스 제공 장치(1000)는 결정된 스타일 정보에 대응하는 소스 이미지 및 소스 이미지 식별 정보를 매핑 등록하여, 스타일 데이터베이스를 구축할 수 있다.In addition, the service providing apparatus 1000 may establish a style database by mapping and registering a source image and source image identification information corresponding to the determined style information.

한편, 서비스 제공 장치(1000)는 사용자 단말(10)로부터 사용자 정보를 수신하여 등록하고, 사용자 입력 정보로서 사용자 이미지 및 기타 조건 설정 정보를 획득하여, 사용자 이미지에 대응하여 적합한 스타일을 추천하기 위한 추천 정보를 사용자 단말(10)로 제공할 수 있다. 여기서, 사용자 이미지는 사용자가 입력 또는 업로드한 이미지 정보로서, 스타일 트랜스퍼를 수행할 원본 이미지일 수 있다. 이러한 사용자 이미지는, 사용자의 얼굴 이미지, 사용자의 전신 이미지, 사용자의 인테리어 이미지, 사용자의 건물 이미지 등 사용자가 스타일 트랜스퍼를 처리하고자 입력하는 다양한 이미지 중 적어도 하나를 포함할 수 있다.Meanwhile, the service providing apparatus 1000 receives and registers user information from the user terminal 10, obtains a user image and other condition setting information as user input information, and recommends a suitable style corresponding to the user image. Information may be provided to the user terminal 10 . Here, the user image is image information input or uploaded by the user, and may be an original image for style transfer. The user image may include at least one of various images that the user inputs to process style transfer, such as a user's face image, a user's whole body image, a user's interior image, and a user's building image.

이를 위해, 서비스 제공 장치(1000)는 사용자 이미지에 대응한 가상 스타일 합성 처리, 얼굴 분석 및 스타일 비교 분석 처리를 수행할 수 있으며, 비교 분석 결과에 따른 하나 또는 그 이상의 스타일 정보, 가상합성 결과 정보 또는 얼굴 분석 정보를 사용자 단말(10)로 제공할 수 있다.To this end, the service providing device 1000 may perform virtual style synthesis processing, face analysis, and style comparison analysis processing corresponding to the user image, and one or more style information, virtual synthesis result information or Face analysis information may be provided to the user terminal 10 .

특히, 가상 스타일 합성 처리에는 사용자 이미지와 소스 이미지를 합성할 수 있는 스타일 트랜스퍼 기반의 이미지 합성 기술이 이용될 수 있다. 여기서, 본 발명에서 처리되는 스타일 트랜스퍼 기술은 현재 알려진 BeautyGAN(Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network) 기술이나, PairedCycleGAN( Asymmetric Style Transfer for Applying and Removing Makeup) 기술을 그대로 이용하거나, 또는 본 발명의 실시 예에 따라 상기 BeautyGAN 및 PairedCycleGAN 기술을 조합하는 복합적 GAN 학습 모델이 이용될 수도 있다.In particular, a style transfer-based image compositing technique capable of composing a user image and a source image may be used for the virtual style compositing process. Here, the style transfer technology processed in the present invention uses the currently known BeautyGAN (Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network) technology or PairedCycleGAN (Asymmetric Style Transfer for Applying and Removing Makeup) technology as it is, or the present invention According to an embodiment of, a complex GAN learning model combining the BeautyGAN and PairedCycleGAN techniques may be used.

본 발명의 실시 예에 따른 복합적 GAN 학습 모델은, 메이크업 스타일 트랜스퍼에 대응하는 학습 프로세스 자체는 PariedCycleGAN 모델의 프로세스를 이용하고, 로스 함수 부분만 BeautyGAN에서 정의되는 함수로 대체하여, 전체적인 합성 성능 및 주관적 화질 효과를 향상시킬 수 있는 복합적 GAN 학습 모델일 수 있으며, 이는 비메이크업 이미지로 메이크업 이미지의 스타일을 트랜스퍼함에 있어서의 성능을 향상시킬 수 있으며, 특히 본 발명의 실시 예에 따른 페이스 워핑 프로세스에 의해, 워핑된 이미지 기반의 트랜스퍼에 있어서의 자연스러움을 높일 수 있는 효과가 있다.In the complex GAN learning model according to an embodiment of the present invention, the learning process corresponding to makeup style transfer itself uses the process of the PariedCycleGAN model, and only the loss function part is replaced with a function defined in BeautyGAN, so that the overall synthesis performance and subjective image quality It can be a complex GAN learning model that can improve the effect, which can improve performance in transferring the style of a makeup image to a non-makeup image. In particular, by the face warping process according to an embodiment of the present invention, warping There is an effect of enhancing the naturalness in the image-based transfer.

한편, 사용자 단말(10)은 서비스 제공 장치(1000)로 사용자 이미지를 포함하는 사용자 정보를 전송함에 따라, 상기 서비스 제공 장치(1000)로부터의 응답으로 수신되는 스타일 추천 서비스 정보에 기초한 스타일 추천 인터페이스를 출력하여, 스타일 추천 서비스 정보를 사용자에게 제공할 수 있다.Meanwhile, as the user terminal 10 transmits user information including a user image to the service providing device 1000, a style recommendation interface based on style recommendation service information received as a response from the service providing device 1000 is provided. By outputting, style recommendation service information may be provided to the user.

특히, 사용자 단말(10)에서는 화장 스타일 추천 서비스 어플리케이션 등을 통해 상기 서비스 제공 장치(1000)로부터 스타일 정보, 가상합성 결과 정보 또는 얼굴 분석 정보를 포함하는 추천 서비스 정보를 수신하여 인터페이스를 통해 출력할 수 있다.In particular, the user terminal 10 may receive recommendation service information including style information, virtual synthesis result information, or face analysis information from the service providing device 1000 through a makeup style recommendation service application and output the information through an interface. have.

예를 들어, 사용자 단말(10)은 입력된 실제 사용자의 맨 얼굴 이미지에 인플루언서 등의 스타일이 합성된 가상합성 이미지 중, 얼굴 분석에 따라 노화된 부분의 예측 나이가 개선되는 이미지들이나, 얼굴형 및 주름 특징이 유사한 이미지들이나, 사용자가 트랜스퍼 강도 조절을 입력한 특정 스타일의 이미지들을 추천할 수 있으며, 이 중 사용자 선택된 이미지에 대응하는 화장 스타일 정보로서, 인플루언서 영상 정보, 화장품 추천 정보 또는 구매 링크 정보 중 적어도 하나를 출력할 수 있다.For example, the user terminal 10 selects images in which the predicted age of an aged part is improved according to face analysis, among virtual synthesized images in which a style such as an influencer is synthesized with an input bare face image of a real user, or a face It can recommend images with similar shape and wrinkle characteristics or images of a specific style for which the user inputs transfer strength adjustment. Among them, as makeup style information corresponding to the user-selected image, influencer image information, cosmetics recommendation information At least one of purchase link information may be output.

이에 따라, 본 발명의 실시 예에 따르면 추천 서비스를 통해 사용자가 편리하게 유명 인플루언서들의 화장 스타일들을 취사 선택할 수 있으며, 신규 수요를 창출할 수 있고 서비스 접근성과 편의성을 크게 향상시킬 수 있다.Accordingly, according to an embodiment of the present invention, a user can conveniently select makeup styles of famous influencers through a recommendation service, create new demand, and greatly improve service accessibility and convenience.

특히, 이러한 서비스 제공을 위하여, 본 발명의 실시 예에 따른 서비스 제공 장치(1000)는 가상 스타일 합성 및 분석에 있어서, 최종적으로 사용자 얼굴에 최적인 스타일을 추천하기 위한 가상 스타일합성 신경망 기반 스타일 데이터베이스 구축과 트랜스퍼의 강도 조절 및 얼굴 분석 처리를 순환적용 처리할 수 있는 바, 이에 대하여는 보다 구체적으로 후술하도록 한다.In particular, in order to provide such a service, the service providing apparatus 1000 according to an embodiment of the present invention constructs a style database based on a virtual style synthesis neural network to finally recommend a style optimal for a user's face in virtual style synthesis and analysis. And transfer intensity control and face analysis processing can be applied cyclically, which will be described later in more detail.

도 2는 본 발명의 실시 예에 따른 서비스 제공 장치를 보다 구체적으로 설명하기 위한 블록도이다.2 is a block diagram illustrating a service providing apparatus according to an embodiment of the present invention in more detail.

도 2를 참조하면, 본 발명의 실시 예에 따른 서비스 제공 장치(1000)는, 가상 스타일 합성부(100), 얼굴 분석부(200), 사용자 정보 관리부(300), 입력 정보 획득부(350), 페이스 워핑 처리부(500), 소스 이미지 수집부(501), 트랜스퍼 강도 조절부(700), 스타일 데이터베이스(600), 스타일 비교 처리부(400) 및 추천 서비스 제공부(900)를 포함한다.Referring to FIG. 2 , the service providing apparatus 1000 according to an embodiment of the present invention includes a virtual style synthesis unit 100, a face analysis unit 200, a user information management unit 300, and an input information acquisition unit 350. , a face warping processing unit 500, a source image collection unit 501, a transfer strength adjusting unit 700, a style database 600, a style comparison processing unit 400, and a recommendation service providing unit 900.

먼저, 페이스 워핑 처리부(500)는, 소스 이미지 수집부(501)로부터 수집되는 다양한 영상 및 이미지 정보로부터 스타일 데이터베이스(600) 구성을 위한 소스 이미지에 대응하는 이미지 정보를 수집한다.First, the face warping processing unit 500 collects image information corresponding to a source image for configuring the style database 600 from various images and image information collected from the source image collecting unit 501 .

앞서 설명한 바와 같이, 소스 이미지에 대응하는 이미지 정보는 다양한 경로로부터 획득될 수 있으며, 예를 들어, 구독자수가 일정 수 이상인 뷰티 인플루언서들의 화장 영상 정보 등으로부터 획득될 수 있다. 소스 이미지에 대응하는 이미지 정보는 예를 들어, 인스타그램, 유투브, 페이스북, 텀블러, 트위치, 네이버, 카카오 등의 다양한 영상 업로드 사이트로부터 크롤링되어 추출되는 영상 및 이미지 정보를 포함할 수 있다.As described above, image information corresponding to the source image may be obtained from various paths, and may be obtained from, for example, makeup video information of beauty influencers having a certain number of subscribers or more. Image information corresponding to the source image may include, for example, images and image information crawled and extracted from various image upload sites such as Instagram, YouTube, Facebook, Tumblr, Twitch, Naver, and Kakao.

예를 들어, 영상 정보 수집을 위해, 소스 이미지 수집부(501)는 소스 인물 이미지(화장전후가 등장하는 인터넷 뷰티 동영상에서의 화장 후 영상)와 소스 인물 화장전 이미지를 각각 크롤링 캡처할 수 있으며, 스타일 데이터베이스(600)는 캡쳐된 이미지들에 대한 페이스 워핑 처리부(500)의 페이스 워핑 처리된 이미지들을 이용한 신경망 학습에 따라 구축될 수 있다.For example, to collect image information, the source image collection unit 501 may crawl and capture a source person image (a video after makeup in an Internet beauty video in which before and after makeup appears) and a source person before makeup image, respectively, The style database 600 may be built according to neural network learning using images that have been face warped by the face warping processing unit 500 for captured images.

이에 따라, 스타일 데이터베이스(600)는 소스 이미지의 페이스 워핑 처리된 이미지로부터 구축된 데이터베이스를 저장 및 관리할 수 있으며, 가상 스타일 합성부(100)의 요청에 따른 스타일 정보 및 소스 이미지를 제공할 수 있다.Accordingly, the style database 600 may store and manage a database constructed from face-warped images of source images, and may provide style information and source images according to a request of the virtual style synthesis unit 100. .

한편, 사용자 정보 관리부(300)는, 사용자 단말(10)로부터 입력되는 입력 정보에 따라 사용자 등록 정보의 등록 처리를 수행하고, 상기 등록된 사용자 정보에 대응하여, 스타일 추천 서비스의 사용에 따른 사용자의 사용 이력 정보, 상기 사용자 등록 정보가 유사한 사용자 그룹의 사용 이력 정보 및 상기 스타일 추천 서비스에서 추천된 스타일에 대한 사용자 선호 정보 등을 매핑하여 저장 및 관리할 수 있다.On the other hand, the user information management unit 300 performs registration processing of user registration information according to input information input from the user terminal 10, and responds to the registered user information, in accordance with the use of the style recommendation service. Usage history information, usage history information of a user group having similar user registration information, and user preference information for a style recommended by the style recommendation service may be mapped, stored, and managed.

또한, 사용자 정보 관리부(300)는 얼굴 사진을 활용한 프로파일링(특징 분석), 뷰티스코어 평가 및 피드백을 통한 사용자 유형 분류, 유사 사용자 군집을 통한 프로파일링(협업필터링) 및 서비스 사용 패턴을 통한 프로파일링 등을 처리함으로써, 추천 서비스를 위한 데이터를 구축할 수 있다.In addition, the user information management unit 300 performs profiling using face photos (feature analysis), classifying user types through beauty score evaluation and feedback, profiling through similar user groups (collaborative filtering), and profiles through service usage patterns. By processing a ring or the like, data for a recommendation service can be constructed.

그리고, 입력 정보 획득부(350)는 사용자 정보 관리부(300)에서 관리되는 사용자 등록 정보와, 사용자 단말(10)로부터 입력된 사용자 스타일 입력 정보에 따라, 추천할 스타일 합성 이미지를 선별하기 위한 스타일 합성 입력 정보를 획득할 수 있다.In addition, the input information acquisition unit 350 is style synthesis for selecting a style synthesis image to be recommended according to the user registration information managed by the user information management unit 300 and the user style input information input from the user terminal 10. input information can be obtained.

예를 들어, 사용자 단말(10)은 사용자의 얼굴 이미지(화장 전 또는 화장 후)와, 나이 정보, 키워드 정보(검색, 필터링, 추천), 트랜스퍼 강도 설정 정보 등 을 포함하는 사용자 스타일 입력 정보를 서비스 제공 장치(1000)로 전송할 수 있으며, 서비스 제공 장치(1000)는 수신된 사용자 스타일 입력 정보와 사용자 정보 관리부(300)에서 관리된 사용자 등록 정보에 기초한 스타일 합성 입력 정보를 결정하고, 결정된 입력 정보는 가상 스타일 합성부(100) , 트랜스퍼 강도 조절부(700) 또는 얼굴 분석부(200)로 전달될 수 있다.For example, the user terminal 10 provides user style input information including a user's face image (before or after makeup), age information, keyword information (search, filtering, recommendation), transfer strength setting information, and the like. It can be transmitted to the providing device 1000, and the service providing device 1000 determines style synthesis input information based on the received user style input information and user registration information managed by the user information management unit 300, and the determined input information is It may be transmitted to the virtual style synthesis unit 100, the transfer strength adjusting unit 700, or the face analysis unit 200.

그리고, 가상 스타일 합성부(100)는 사용자 이미지와 상기 스타일 합성 입력 정보에 따라 사전 설정된 조건 정보에 기초하여 결정된 스타일 정보에 따라, 상기 데이터베이스(600)에서 획득된 소스 이미지와 상기 사용자 이미지에 대한 하나 또는 그 이상의 가상합성 처리를 수행한다.Then, the virtual style synthesis unit 100 determines one source image obtained from the database 600 and the user image according to style information determined based on condition information preset according to the user image and the style synthesis input information. Or more virtual synthesis processing is performed.

이를 위해, 가상 스타일 합성부(100)는 인공 신경망 학습 처리를 통해, 화장 스타일별 소스 이미지와 사용자 이미지간의 이미지 합성 처리를 수행할 수 있으며, 이를 위해, 상기 소스 이미지에서 화장 스타일 적용 부분을 추출하여 상기 사용자 이미지에 적용하는 프로세스를 수행할 수 있다.To this end, the virtual style synthesis unit 100 may perform image synthesis processing between a source image for each makeup style and a user image through an artificial neural network learning process. To this end, a makeup style applied portion is extracted from the source image A process applied to the user image may be performed.

특히, 이러한 신경망 구축을 위해 쌍 순환 경쟁적 생성 네트워크 방식(PairedCycleGAN)의 비지도 학습 방식이 이용될 수 있으며, 특히 메이크업 트랜스퍼에 특화된 GAN을 적용하는 BeautyGAN 방식이 병행될 수 있다. GAN(Generative Adversarial Network) 방식은 딥러닝을 이용하여, 이미지를 생성하는 네트워크로서 서로 다른 두 개의 깊은 신경망 D(Discriminator)와 G(Generator)를 학습시켜, 좋은 성능의 감별사 네트워크와 그것을 속이는 생성자 네트워크를 경쟁시킴으로써, 학습 효과를 극대화할 수 있게 하는 방식을 의미할 수 있다.In particular, an unsupervised learning method of PairedCycleGAN can be used to construct such a neural network, and a BeautyGAN method applying a GAN specialized for makeup transfer can be used in parallel. The Generative Adversarial Network (GAN) method uses deep learning to train two different deep neural networks, D (Discriminator) and G (Generator), as a network that generates images, to create a discriminator network with good performance and a generator network that deceives it. By competing, it may mean a way to maximize the learning effect.

또한, PairedCycleGAN: Asymmetric Style Transfer for Applying and Removing Makeup(Huiwen Chang, Jingwan Lu, Fisher Yu, Adam Finkelstein; Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 40-48) 논문의 방식은 이를 가상 화장 합성에 적용하여 Makeup Transfer 또는 Style Transfer 를 처리하게 하는 방식으로 제안된 것으로서, 가상 메이크업(가상 화장 합성) 네트워크와 화장을 지우는 네트워크의 쌍을 경쟁적으로 학습시켜, 그 성능을 서로 보완하게 함으로써 자연스러운 가상 화장 합성 효과를 얻을 수 있다.Also, in the paper PairedCycleGAN: Asymmetric Style Transfer for Applying and Removing Makeup (Huiwen Chang, Jingwan Lu, Fisher Yu, Adam Finkelstein; Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 40-48) The method is proposed as a method of processing Makeup Transfer or Style Transfer by applying it to virtual makeup synthesis, and training pairs of virtual makeup (virtual makeup synthesis) networks and makeup erasing networks competitively to complement each other. By doing so, a natural virtual makeup synthesis effect can be obtained.

나아가, BeautyGAN(BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network(Tingting Li, Ruihe Qian, Chao Dong, Si Liu, Qiong Yan, Wenwu Zhu, Liang Lin, MM '18: Proceedings of the 26th ACM international conference on MultimediaOctober 2018 Pages 645-653) 논문을 통해 알려진 방식은, 알려진 ResNet 아키텍처를 이용한 정규화를 수행하며, 오버래핑된 이미지의 지역적인 페이크 분류를 수행하는 패치 GAN들을 적용하여 성능을 향상시킨 GAN 기반의 메이크업 트랜스퍼를 처리한다.Furthermore, BeautyGAN (BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network (Tingting Li, Ruihe Qian, Chao Dong, Si Liu, Qiong Yan, Wenwu Zhu, Liang Lin, MM '18: Proceedings of the 26th ACM international conference on MultimediaOctober 2018 Pages 645-653) The method known through the paper is a GAN-based makeup transfer that improves performance by applying patch GANs that perform regularization using a known ResNet architecture and perform regional fake classification of overlapped images. to process

그리고, 본 발명의 실시 예에 따르면 가상 스타일 합성부(100)는 보다 자연스러우면서도 신속한 합성을 위하여, 상기 PairedCycleGAN 방식을 기본적인 모델 구축 프로세스로 적용하되, 로스 함수에 대하여만 BeautyGAN 모델의 로스 함수를 이용하는 복합적 GAN 모델을 구축하고, 이에 기초한 이미지들의 스타일 트랜스퍼 학습 프로세스를 수행할 수 있다.In addition, according to an embodiment of the present invention, the virtual style synthesis unit 100 applies the PairedCycleGAN method as a basic model building process for more natural and rapid synthesis, but uses the loss function of the BeautyGAN model only for the loss function. It is possible to build a GAN model and perform a style transfer learning process of images based on the GAN model.

특히, 본 발명의 실시 예에 따른 스타일 트랜스퍼 학습 프로세스는, 페이스 워핑 처리부(500)에서 워핑 처리된 이미지에 대응하여 수행될 수 있으며, 이는 GAN 모델들에서 발생되는 오류를 사전에 방지하고 자연스러운 이미지 합성을 가능하게 한다. 페이스 워핑은 사용자 이미지와 소스 이미지 간 얼굴의 특징 부분 영역들에 대응하는 위치들이 서로 일치하지 않을 때 발생되는 문제점을 해결하고자 안출된 것이며, 가상 스타일 합성부(100)는 페이스 워핑 처리부(500)의 페이스 워핑 프로세스 적용 여부를 확인하고, 적용 여부가 확인된 페이스 워핑 프로세스에 따라 얼굴의 부분 영역들이 일치되도록 그 위치가 조정된 후에 스타일 트랜스퍼를 수행함으로써, 자연스러운 합성이 이루어지도록 한다.In particular, the style transfer learning process according to an embodiment of the present invention may be performed in response to the image warped by the face warping processing unit 500, which prevents errors occurring in GAN models in advance and synthesizes natural images. makes it possible Face warping is devised to solve a problem that occurs when positions corresponding to facial feature regions between a user image and a source image do not match each other, and the virtual style synthesis unit 100 is It is checked whether the face warping process is applied or not, and after adjusting the positions of partial regions of the face to match the face warping process, style transfer is performed so that natural synthesis is achieved.

또한, 페이스 워핑 처리부(500)는 가상 스타일 합성부(100)에서 스타일 트랜스퍼된 가상 합성 이미지에 대응하는 페이스 역워핑 처리를 수행할 수 있는 바, 기존의 사용자 이미지의 얼굴 방향 및 위치가 복원되며, 이에 따라 가상 스타일 합성부(100)는 보다 자연스러운 가상 합성 이미지 결과 데이터를 상기 역워핑된 이미지로서 출력할 수 있다. 보다 구체적인 페이스 워핑 프로세스에 대하여는 도 4를 참조하여 설명하도록 한다.In addition, the face warping processor 500 may perform a face inverse warping process corresponding to the virtual synthesized image style-transferred in the virtual style synthesizer 100, so that the face direction and position of the existing user image are restored, Accordingly, the virtual style synthesizer 100 may output more natural virtual synthesized image result data as the inverse warped image. A more detailed face warping process will be described with reference to FIG. 4 .

한편, 얼굴 분석부(200)는, 사용자 이미지 또는 가상 합성 이미지에 대응하는 얼굴 분석을 수행하여 얼굴 분석 정보를 출력할 수 있다. 얼굴 분석 정보는 추천 서비스 제공부(900)를 통해 사용자 단말(10)로 직접 제공되거나 스타일 비교 처리부(400)로 전달될 수 있다.Meanwhile, the face analysis unit 200 may output face analysis information by performing face analysis corresponding to a user image or a virtual composite image. The face analysis information may be directly provided to the user terminal 10 through the recommendation service provider 900 or transmitted to the style comparison processor 400 .

여기서, 얼굴 분석 정보는, 상기 사용자 이미지에 대응하는 얼굴 부분 영역 이미지를, 사전 학습된 하나 이상의 인공신경망 학습 모델에 적용한 나이 예측 정보를 포함할 수 있다. 이 경우 추천 서비스 제공부(900)는 상기 나이 예측 정보에 기초한 얼굴 부분 영역별 나이 분석 정보를 포함하는 스타일 추천 서비스 정보를 사용자 단말(10)로 제공할 수 있다.Here, the face analysis information may include age prediction information obtained by applying one or more pre-learned artificial neural network learning models to a facial partial region image corresponding to the user image. In this case, the recommendation service provider 900 may provide style recommendation service information including age analysis information for each facial region based on the age prediction information to the user terminal 10 .

또한, 얼굴 분석 정보는 상기 사용자 이미지에 대응하는 얼굴 부분 영역 이미지를 사전 학습된 하나 이상의 인공신경망 학습 모델에 적용하여 획득된 주름 특성 정보를 포함할 수 있다. 이 경우 추천 서비스 제공부(900)는 상기 주름 특성 정보에 기초한 얼굴 부분 영역별 주름 분석 정보를 포함하는 스타일 추천 서비스 정보를 사용자 단말(10)로 제공할 수 있다.In addition, the face analysis information may include wrinkle characteristic information obtained by applying one or more pre-trained artificial neural network learning models to a facial partial region image corresponding to the user image. In this case, the recommendation service provider 900 may provide the user terminal 10 with style recommendation service information including wrinkle analysis information for each facial region based on the wrinkle characteristic information.

또한, 스타일 비교 처리부(400)는 사용자 이미지의 얼굴 분석 정보에 대응하는 가상합성된 하나 또는 복수개의 합성 이미지들에 대한 얼굴 분석 수행 결과를 비교하여, 추천 서비스 제공부(900)에서 제공될 가상 합성 이미지들을 선별할 수 있다.In addition, the style comparison processing unit 400 compares the face analysis result of one or a plurality of virtually synthesized synthetic images corresponding to the face analysis information of the user image, and virtual synthesis to be provided by the recommendation service providing unit 900. Images can be selected.

예를 들어, 스타일 비교 처리부(400)는, 상기 나이 분석 정보에 따라 사용자 입력된 나이보다 제1 임계치 이상 높은 얼굴 부분 영역을 식별하고, 상기 하나 이상의 합성 이미지 중 상기 식별된 얼굴 부분 영역의 나이 예측 정보가 가장 낮은 합성 이미지를 획득하며, 상기 나이 예측 정보가 가장 낮은 합성 이미지에 기초하여, 추천 서비스 제공부(900)에서 사용자 단말(10)로 제공될 스타일 추천 서비스 정보를 구성할 수 있다. For example, the style comparison processing unit 400 identifies a face region higher than a first threshold or higher than a user input age according to the age analysis information, and predicts the age of the identified face region among the one or more synthesized images. A synthesized image having the lowest information is obtained, and based on the synthesized image having the lowest age prediction information, the recommendation service providing unit 900 may configure style recommendation service information to be provided to the user terminal 10 .

그리고, 추천 서비스 제공부(900)는 가상 스타일 합성부(100)의 합성 이미지와, 얼굴 분석부(200)의 얼굴 분석 정보 및 스타일 비교 처리부(400)의 비교 정보 중 적어도 하나에 기초하여, 상기 스타일 추천 서비스 정보를 구성하고, 사용자 단말(10)로 제공할 수 있다.In addition, the recommendation service provider 900 based on at least one of the synthesized image of the virtual style synthesizer 100, the face analysis information of the face analyzer 200, and the comparison information of the style comparison processor 400, Style recommendation service information may be configured and provided to the user terminal 10 .

또한, 추천 서비스 제공부(900)는 사용자 프로파일링 기반 사용자 유형별 예측 추천 서비스와, 뷰티스코어 기반 뷰티스코어를 극대화하는 추천 서비스 등 다양한 부가 서비스를 제공할 수 있다. 여기서, 뷰티스코어는 스타일 합성된 이미지에 대응하는 평가 점수를 나타낼 수 있으며, 예를 들어 메이크업 후에 메이크업이 잘 된 것인지 또는 보완이 필요한지 등을 얼굴 전체 또는 부분 영역별로 나타낼 수 있는 스코어 정보를 포함할 수 있다. 이러한 뷰티스코어는 메이크업된 전체적인 얼굴 또는 메이크업된 얼굴 부위의 비율 및 위치 등에 따라 뷰티 전문가나 사용자들이 판단한 정보의 학습데이터에 근거하여 산출될 수 있다.In addition, the recommendation service provider 900 may provide various additional services, such as a prediction recommendation service for each user type based on user profiling and a beauty score-based recommendation service for maximizing a beauty score. Here, the beauty score may indicate an evaluation score corresponding to the style-synthesized image, and may include score information indicating, for example, whether the makeup is good after makeup or whether supplementation is needed for the entire face or for each partial area. have. The beauty score may be calculated based on learning data of information judged by beauty experts or users according to the overall makeup face or the ratio and position of the makeup face part.

또한, 추천 서비스 제공부(900)는 추천 서비스에 의해 연계되는 인플루언서 영상 정보와, 화장품 추천 및 구매 연동 프로세스를 제공할 수 있다. In addition, the recommendation service providing unit 900 may provide influencer video information linked by the recommendation service, and a process of recommending and purchasing cosmetics.

그리고, 추천 서비스 제공부(900)는 얼굴 분석 정보에 기초하여, 사용자의 얼굴을 얼굴 부분 영역별로 개선할 수 있는 스타일을 갖는 인물 등을 색인할 수 있는 바, 특정 인플루언서를 색인하여, 그 인플루언서의 메이크업을 사용자에게 어울리는 메이크업 스타일로서 자동 추천하는 서비스를 제공할 수도 있다.Further, the recommendation service provider 900 may index a person having a style that can improve the user's face for each facial region based on the face analysis information, and index a specific influencer, A service that automatically recommends the influencer's makeup as a makeup style that suits the user can also be provided.

한편, 추천 서비스 제공부(900)는 이미지와 화장품을 매칭하기 위한 매칭 데이터베이스를 딥 러닝 방식으로 구축하고, 기초하여 입력된 사진이 사용한 화장품 정보를 식별하여 출력하는 화장품 추천 서비스를 제공할 수도 있다. 예를 들어, 추천 서비스 제공부(900)는 사진 이미지로부터 추출되는 화장품의 톤과 실제 화장품 톤을 매칭하는 딥 러닝 학습 프로세스를 수행하여, 사용자로부터 입력된 사진에 대응하는 화장품 정보를 식별하여 사용자 단말(10)로 제공하는 추천 서비스를 제공할 수도 있다.Meanwhile, the recommendation service providing unit 900 may provide a cosmetics recommendation service that constructs a matching database for matching images and cosmetics using a deep learning method, and identifies and outputs cosmetics information used in an input photo based thereon. For example, the recommendation service provider 900 performs a deep learning learning process of matching a cosmetic tone extracted from a photo image with an actual cosmetic tone, identifies cosmetic information corresponding to a photo input from a user, and provides information to the user terminal. A recommendation service provided in (10) may be provided.

한편, 트랜스퍼 강도 조절부(700)는, 추천 서비스 제공부(900)를 통해 제공된 가상 합성 이미지에 대응하는 사용자 입력에 따라, 스타일 트랜스퍼의 트랜스퍼 강도를 이미지의 부분 영역별로 조절하는 조절 처리를 수행할 수 있다.Meanwhile, the transfer strength control unit 700 performs an adjustment process of adjusting the transfer strength of the style transfer for each partial region of the image according to a user input corresponding to the virtual composite image provided through the recommendation service provider 900. can

여기서, 트랜스퍼 강도는 스타일 트랜스퍼가 적용되는 정도를 나타내는 것으로, 사용자 이미지의 영역별로 메이크업 스타일을 어느 정도로 적용할지를 나타내는 강도일 수 있다. 트랜스퍼 강도는 사용자 입장에서 원하는 이미지의 부분 영역별 메이크업 스타일 강도를 설정할 수 있게 하기 위한 수치적 정보일 수 있다. 사용자는 트랜스퍼 강도 설정에 따라, 자신이 원하는 부분에 대한 메이크업 수준, 예를 들어 눈 화장의 메이크업 합성을 짙게 또는 옅게 반영한다거나, 입 화장의 메이크업 합성을 짙게 또는 옅게 반영한다거나, 얼굴 전체의 베이스 화장의 메이크업 합성을 짙게 또는 옅게 반영하는 등의 서비스를 제공받을 수 있으며, 이는 개인화된 다양한 스타일 합성 기반의 추천 서비스를 제공함에 있어서 편의성, 선택의 다변화 및 서비스 이용 만족도를 향상시킬 수 있게 한다.Here, the transfer strength indicates the degree to which the style transfer is applied, and may indicate the degree to which the makeup style is applied to each area of the user's image. The transfer strength may be numerical information for enabling the user to set the strength of a makeup style for each partial region of an image desired from the user's point of view. Depending on the transfer strength setting, the user can set the level of makeup for the part he or she wants, for example, reflect the makeup composition of the eye makeup thickly or lightly, reflect the makeup synthesis of the mouth makeup thickly or lightly, or apply the base makeup of the entire face. A service such as thickly or lightly reflecting makeup synthesis can be provided, which enables convenience, diversification of selection, and improvement in satisfaction with service use in providing a recommendation service based on a variety of personalized style synthesis.

이를 위해, 트랜스퍼 강도 조절부(700)는, 사용자 입력에 대응하는 얼굴 부분별 트랜스퍼 강도 변수와 소스 이미지를 결정할 수 있는 바, 이에 따라 결정된 얼굴 부분별 트랜스퍼 강도 변수와 소스 이미지 식별 정보는 가상 스타일 합성부(100)로 전달될 수 있다. 가상 스타일 합성부(100)는, 상기 사용자 이미지와 상기 소스 이미지가 상기 얼굴 부분별 상기 트랜스퍼 강도 변수에 따라 재 합성된 스타일 트랜스퍼 이미지를 생성하여, 추천 서비스 제공부(900)를 통해 상기 사용자 단말(10)로 제공할 수 있다.To this end, the transfer intensity control unit 700 may determine the transfer intensity variable for each face part corresponding to the user input and the source image, and the thus determined transfer intensity variable for each face part and the source image identification information are synthesized with a virtual style. It can be delivered to unit 100. The virtual style synthesis unit 100 generates a style transfer image in which the user image and the source image are recombined according to the transfer intensity variable for each face part, and through the recommendation service providing unit 900, the user terminal ( 10) can be provided.

이러한 상기 얼굴 부분별 트랜스퍼 강도 변수는, 얼굴 부분 정보 및 대상 소스 이미지에 대응하는 이미지 정보, 트랜스퍼 가중치 정보 중 적어도 하나를 포함할 수 있고, 이에 대응하는 사용자 설정 인터페이스가 사용자 단말(10)을 통해 출력될 수 있는 바, 구체적인 프로세스에 대하여는 후술하도록 한다.The transfer intensity variable for each face part may include at least one of face part information, image information corresponding to a target source image, and transfer weight information, and a corresponding user setting interface is output through the user terminal 10. As possible, the specific process will be described later.

도 3은 본 발명의 실시 예에 따른 서비스 제공 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a service providing method according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시 예에 따른 서비스 제공 장치(1000)는 먼저 소스 이미지를 수집하여 페이스 워핑 처리하고(S1001), 수집된 이미지와, 상기 이미지로부터 인공 신경망 기반으로 추출되는 스타일 정보를 매핑 처리하여 데이터베이스(600)를 구축한다(S1003).Referring to FIG. 3 , the service providing apparatus 1000 according to an embodiment of the present invention first collects source images, performs face warping processing (S1001), collects images, and style information extracted from the images based on an artificial neural network. The database 600 is built by mapping processing (S1003).

이를 위해, 서비스 제공 장치(1000)는 소스 이미지 수집부(501)를 통해 네트워크상의 다양한 뷰티 영상 또는 이미지로부터 스타일 이미지들을 크롤링 캡쳐 처리할 수 있다.To this end, the service providing device 1000 may crawl and capture style images from various beauty images or images on the network through the source image collecting unit 501 .

그리고, 서비스 제공 장치(1000)는 처리된 이미지에 페이스 워핑 처리부(500)의 페이스 워핑을 처리할 수 있다. And, the service providing apparatus 1000 may process the face warping of the face warping processing unit 500 on the processed image.

이에 따라, 서비스 제공 장치(1000)는 페이스 워핑된 소스 이미지에 스타일 정보를 매핑 처리하기 위한 인공 신경망 학습 프로세스를 수행하여, 상기 스타일 데이터베이스(600)를 구축할 수 있다.Accordingly, the service providing apparatus 1000 may build the style database 600 by performing an artificial neural network learning process for mapping style information to a face-warped source image.

예를 들어, 서비스 제공 장치(1000)는 페이스 워핑 처리된 소스 이미지에 기초한 스타일 정보를 결정할 수 있는 바, 이를 위해 미리 학습된 스타일 신경망에 기초한 이미지 분석 기술을 이용할 수 있다. 예를 들어 스타일 정보는 소스 이미지를 이미지 스타일 신경망에 적용하여 추출되는 스타일 특징 벡터를 포함할 수 있다.For example, the service providing apparatus 1000 may determine style information based on a face warped source image, and for this purpose, an image analysis technique based on a pre-learned style neural network may be used. For example, the style information may include a style feature vector extracted by applying a source image to an image style neural network.

그리고, 서비스 제공 장치(1000)는 결정된 스타일 특징 벡터에 대응하는 소스 이미지 식별 정보를 매핑 저장 등록하여, 스타일 데이터베이스를 구축할 수 있다.In addition, the service providing apparatus 1000 may construct a style database by mapping, storing, and registering source image identification information corresponding to the determined style feature vector.

그리고, 서비스 제공 장치(1000)는 사용자 단말(10)로부터 수신되는 사용자 정보를 사용자 정보 관리부(300)를 통해 등록할 수 있으며, 사용자 단말(10)로부터의 요청에 따른 입력 정보를 획득할 수 있다(S1005).In addition, the service providing apparatus 1000 may register user information received from the user terminal 10 through the user information management unit 300 and obtain input information according to a request from the user terminal 10. (S1005).

이후, 서비스 제공 장치(1000)는 사용자 정보 및 사용자 이미지에 기초하여, 얼굴 분석 정보를 획득할 수 있으며(S1007), 획득된 얼굴 분석 정보에 기초하여, 스타일 비교 처리를 수행하고(S1009), 비교 처리 결과에 따라, 데이터베이스(600)로부터 추출된 스타일 정보에 대응하는 가상 스타일 이미지 합성 및 선별 처리를 수행한다(S1011).Thereafter, the service providing apparatus 1000 may acquire face analysis information based on the user information and the user image (S1007), perform style comparison processing based on the obtained face analysis information (S1009), and compare According to the processing result, a virtual style image synthesis and selection process corresponding to the style information extracted from the database 600 is performed (S1011).

여기서 얼굴 분석 정보는, 사용자 이미지의 스타일 정보와, 얼굴 부분별 나이 예측 정보 및 주름 특징 정보중 적어도 하나를 포함할 수 있다.Here, the face analysis information may include at least one of style information of the user's image, age prediction information for each facial part, and wrinkle feature information.

또한, 예를 들어, 스타일 비교 처리는, 사용자 이미지에서 추출되는 화장스타일 특징 벡터와, 하나 이상의 소스 이미지에서 획득되는 화장 스타일 특징 벡터와의 비교 처리를 포함할 수 있다. 여기서 화장 스타일 특징 벡터는, 이미지에 적용된 하나 이상의 메이크업 방법을 나타내는 벡터 정보를 포함할 수 있다. 예를 들어, 화장 스타일 특징 벡터는 아이섀도, 볼터치, 아이라이너, 마스카라, 립스틱, 컨투어링 등에 대응하는 각각의 부분별 스타일을 나타낼 수 있으며, 또한 유명 연예인 등에 대응하여 이미 알려진 화장 스타일 세트를 나타낼 수도 있다.Also, for example, the style comparison process may include a comparison process between a makeup style feature vector extracted from a user image and a makeup style feature vector obtained from one or more source images. Here, the makeup style feature vector may include vector information representing one or more makeup methods applied to the image. For example, the makeup style feature vector may indicate a style for each part corresponding to eye shadow, blush, eyeliner, mascara, lipstick, contouring, etc., and may also indicate a set of known makeup styles corresponding to a famous celebrity. have.

또한, 스타일 비교 처리는 상기 사용자 이미지의 얼굴 부분별 나이 예측 정보와, 하나 이상의 소스 이미지와의 합성 이미지에서 분석되는 얼굴 부분별 나이 예측 정보 간의 비교 처리를 포함하거나, 상기 사용자 이미지의 주름 특징 정보와, 하나 이상의 소스 이미지와의 합성 이미지에서 분석되는 주름 특징 정보와의 비교 처리를 포함할 수 있다.In addition, the style comparison process includes a comparison process between age prediction information for each face part of the user image and age prediction information for each face part analyzed in a composite image with one or more source images, or wrinkle feature information and wrinkle feature information of the user image , a comparison process with wrinkle feature information analyzed in a synthesized image with one or more source images.

이를 위해, 서비스 제공 장치(1000)에서는 분석을 위한 복수의 얼굴 분석 모델 학습 처리를 수행할 수 있으며, 학습된 모델 적용 결과를 비교하여, 합성 이미지 중 사용자 단말(10)로 제공될 합성 이미지와의 선별 처리를 수행할 수 있다.To this end, the service providing device 1000 may perform a learning process of a plurality of face analysis models for analysis, compare a result of applying the learned model, and compare the synthesized image to be provided to the user terminal 10 among the synthesized images. Selective treatment can be performed.

이후, 서비스 제공 장치(1000)는 얼굴 분석 정보와, 선별된 합성 이미지들을 이용하여 추천 서비스 제공부(900)를 통해, 얼굴 분석 결과 및 이에 따른 따른 합성 이미지 기반의 스타일 추천 서비스를 사용자 단말(10)로 제공할 수 있다(S1013).Thereafter, the service providing device 1000 provides a style recommendation service based on the face analysis result and the resulting synthesized image through the recommendation service providing unit 900 using the face analysis information and the selected synthesized images to the user terminal 10 ) can be provided (S1013).

한편, 서비스 제공 장치(1000)는 사용자 입력에 따라 추천된 합성 이미지에 대응하는 얼굴 부분별 트랜스퍼 대상 및 강도 조절 처리를 수행할 수 있는 바(S1015), 이는 트랜스퍼 강도 조절부(700)에서 처리될 수 있다.Meanwhile, the service providing device 1000 may perform a transfer target and intensity adjustment process for each face part corresponding to the recommended synthesized image according to the user input (S1015), which will be processed in the transfer intensity adjustment unit 700. can

도 4는 본 발명의 실시 예에 따른 페이스 워핑 처리부를 보다 구체적으로 도시한 블록도이다.4 is a block diagram showing a face warping processing unit according to an embodiment of the present invention in more detail.

도 4를 참조하면, 본 발명의 실시 예에 따른 페이스 워핑 처리부(500)는, 벤치마크 이미지 설정부(510), 삼각화 처리부(520), 이미지 입력부(530), 랜드마크 식별부(540), 변환 행렬 산출부(550) 및 워핑 이미지 구성부(560)를 포함한다.Referring to FIG. 4 , the face warping processing unit 500 according to an embodiment of the present invention includes a benchmark image setting unit 510, a triangulation processing unit 520, an image input unit 530, and a landmark identification unit 540. , a transformation matrix calculation unit 550 and a warping image configuration unit 560.

전술한 바와 같이, 기존의 GAN 모델을 기반으로 한 메이크업 스타일 트랜스퍼 방법은 스타일 트랜스퍼를 하고자 하는 사용자 이미지와, 원하는 메이크업 스타일을 가진 소스 이미지의 특정 부분 (눈, 코, 입 등) 위치가 서로 일치하지 않으면 메이크업 트랜스퍼가 잘 이루어지지 않거나, 혹은 이상한 위치에 메이크업이 이동하는 문제를 내포하고 있다.As described above, in the makeup style transfer method based on the existing GAN model, the location of a specific part (eye, nose, mouth, etc.) Otherwise, makeup transfer is not performed well, or makeup is moved to a strange location.

이를 해결하기 위해, 본 발명의 실시 예에 따른 페이스 워핑 처리부(500)는, 사용자 이미지 및 소스 이미지의 얼굴 위치를 일치시키는 페이스 워핑 처리를 수행하여 가상 스타일 합성부(100)의 메이크업 스타일 트랜스퍼 합성 처리가 오류 없이 잘 수행되도록 하고, 수행된 합성 이미지의 역 워핑 처리를 수행하여, 가상 스타일 합성부(100)에서 자연스러운 합성 결과가 출력되도록 한다.In order to solve this problem, the face warping processing unit 500 according to an embodiment of the present invention performs a face warping processing to match the face positions of the user image and the source image to the makeup style transfer synthesis processing of the virtual style synthesis unit 100. is performed well without errors, and inverse warping of the synthesized image is performed so that the virtual style synthesizer 100 outputs a natural synthesized result.

또한, 페이스 워핑 처리부(500)는, 신경망 학습 이미지의 페이스 워핑 처리를 수행함으로써, 정렬된 얼굴 이미지를 벤치마크 이미지로 활용한 학습을 통해 메이크업 트랜스퍼 모델의 학습이 더 수월하게 이루어지도록 처리할 수 있으며, 이는 사용자 이미지의 얼굴이 제대로 정렬되지 않은 경우에도 메이크업 트랜스퍼가 잘 진행되도록 하는 학습 모델을 구축할 수 있도록 한다.In addition, the face warping processing unit 500 performs face warping processing on the neural network training image so that the makeup transfer model can be learned more easily through learning using the aligned face image as a benchmark image. , which makes it possible to build a learning model that allows the makeup transfer to proceed well even when the face in the user image is not properly aligned.

이를 위해 먼저, 벤치마크 이미지 설정부(510)는, 사전에 미리 설정된 벤치마크 이미지를 설정할 수 있다. 벤치마크 이미지는 얼굴의 랜드마크 위치가 고르게 잘 정렬된 이미지일 수 있으며, 이는 관리자 입력에 따라 미리 입력될 수 있으며, 삼각화 처리 이후에는 삭제 처리될 수 있다. 여기서, 랜드마크는 이미지상에서 특징점을 나타내기 위한 기준 좌표 정보로서, 이미지의 속성에 따라 다르게 결정되는 기준 위치 정보를 포함할 수 있다. 통상적으로 얼굴 이미지의 경우 랜드마크는 동공, 눈썹, 코, 턱선에 대응하는 사전 설정된 68개의 기준 위치 정보로 구성될 수 있으며, 랜드마크는 이미지에서 식별되는 68개의 기준 위치 정보에 대응하는 좌표 정보를 포함할 수 있다.To this end, first, the benchmark image setting unit 510 may set a preset benchmark image. The benchmark image may be an image in which landmark positions of the face are evenly aligned, which may be input in advance according to an administrator's input, and may be deleted after triangulation. Here, the landmark is reference coordinate information for indicating a feature point on the image, and may include reference position information determined differently according to the property of the image. Typically, in the case of a face image, landmarks may be composed of 68 preset reference position information corresponding to pupils, eyebrows, noses, and jawlines, and landmarks include coordinate information corresponding to 68 reference position information identified in an image. can include

그리고, 삼각화 처리부(520)는 벤치마크 이미지에 대응하는 랜드마크 지점들을 식별하고, 이에 대응하는 삼각화 처리를 수행하여 상기 삼각화 수행에 따라 결정된 하나 이상의 삼각형 정보를 저장한다. 보다 구체적으로, 전술한 얼굴 이미지의 경우 동공, 눈썹, 코, 턱선에 대응하는 68개의 기준 위치 정보가 식별될 수 있으며 68개의 기준 위치 정보에 대응하는 좌표 정보들을 복수 개의 삼각형으 데이터로 구성하는 삼각화 처리를 수행할 수 있다.The triangulation processing unit 520 identifies landmark points corresponding to the benchmark image, performs triangulation processing corresponding thereto, and stores one or more triangle information determined according to the triangulation. More specifically, in the case of the aforementioned face image, 68 reference position information corresponding to the pupil, eyebrow, nose, and jaw line can be identified, and a triangle comprising coordinate information corresponding to the 68 reference position information as data of a plurality of triangles. processing can be performed.

예를 들어, 삼각화 처리부(520)는, 벤치마크 얼굴 이미지에서 사전 설정된 일정 위치의 68개의 랜드마크 점들을 추출할 수 있으며, 랜드마크 점들을 연결하는 삼각형들을 식별하는 삼각화를 수행할 수 있다.For example, the triangulation processing unit 520 may extract 68 landmark points at predetermined positions from the benchmark face image and perform triangulation to identify triangles connecting the landmark points. .

여기서, 삼각화 처리는, 랜드마크 점들을 삼각형으로 연결하여 공간을 분할하는 방법이며, 삼각형들의 내각의 최소값이 최대가 되도록 하는 분할을 처리하는 들로네 삼각분할(Delaunay triangulation)이 바람직할 수 있다. 들로네 삼각분할의 경우 어떤 삼각형의 외접원도 그 삼각형의 세 꼭지점을 제외한 다른 어떤 점도 포함하지 않도록 형성될 수 있다. 이러한 삼각화 처리는 데이터 분포에서의 유의미한 클러스터를 추출하는 데 있어서 유용하게 활용될 수 있으며, 얼굴인식, 도로망 구축 등에서 활용되는 기법이다.Here, the triangulation process is a method of dividing the space by connecting landmark points into triangles, and Delaunay triangulation, which processes division such that the minimum value of the interior angles of the triangles is maximized, may be preferable. In the case of a Delaunay triangulation, the circumcircle of any triangle can be formed such that it contains no points other than the three vertices of the triangle. This triangulation process can be usefully used to extract meaningful clusters from data distribution, and is a technique used in face recognition and road network construction.

이러한 삼각화 처리에 따라 적어도 하나 이상의 랜드마크 점들을 공유하는 다수의 삼각형들이 형성될 수 있다.According to this triangulation process, a plurality of triangles sharing one or more landmark points may be formed.

그리고, 삼각화 처리부(520)는 삼각화 결과 얻어진 점들과 삼각형들에 대한 위치 정보를 저장할 수 있다.Also, the triangulation processing unit 520 may store location information about points and triangles obtained as a result of triangulation.

이후, 이미지 입력부(530)는 페이스 워핑할 페이스 워핑 대상 이미지를 입력받을 수 있다. 페이스 워핑 대상 이미지는 사용자 이미지이거나, 소스 이미지이거나, 또는 학습에 이용되는 트레이닝 이미지를 포함할 수 있다.Then, the image input unit 530 may receive a face warping target image to be face warped. The face warping target image may include a user image, a source image, or a training image used for learning.

그리고, 랜드마크 식별부(540)는 입력 이미지에 대응하는 랜드마크 지점 영역들을 추출한다. 랜드마크 지점 영역들은 상기 벤치마크 얼굴 이미지에서 추출되는 지점 영역에 대응할 수 있다.Then, the landmark identification unit 540 extracts landmark point regions corresponding to the input image. Landmark point areas may correspond to point areas extracted from the benchmark face image.

그리고, 변환 행렬 산출부는, 상기 페이스 워핑 대상 이미지로부터, 상기 벤치마크 이미지의 랜드마크 지점 삼각화 처리에 따라 획득되는 삼각형들 중 제1 삼각형에 대응하는 제1 삼각형 정보와, 상기 제1 삼각형 정보에 대응하는 상기 입력 이미지의 부분 영역 이미지를 추출하고, 상기 부분 영역 이미지에서 추출된 특정 삼각형 정보를 상기 제1 삼각형 정보의 배치 좌표로 변환하는 변환 행렬을 산출한다.The conversion matrix calculation unit generates first triangle information corresponding to a first triangle among triangles obtained by triangulating the landmark point of the benchmark image, and the first triangle information, from the face warping target image. A corresponding partial region image of the input image is extracted, and a transformation matrix for converting specific triangle information extracted from the partial region image into arrangement coordinates of the first triangle information is calculated.

여기서 삼각형 간 변환 행렬은, 영상을 구성하는 픽셀의 배치 구조를 변경함으로써, 평행 이동, 확대 및 축소, 회전 등 전체 영상의 모양을 바꾸는 기하학적 변환 행렬일 수 있으며, 알려진 어파인(affine) 변환 방식에 의한 변환 행렬이 예시될 수 있다. 어파인 변환은 입력 영상의 좌표 (x, y)가 결과 영상의 좌표 (x', y')로 이동할때 총 여섯 개(a, b, c, d, e, f)의 파리미터를 이용한 수식으로 정의할 수 될 수 있다. Here, the transformation matrix between triangles may be a geometric transformation matrix that changes the shape of the entire image, such as translation, scaling, rotation, etc., by changing the arrangement structure of pixels constituting the image. A transformation matrix by can be exemplified. Affine transformation is a formula using a total of six parameters (a, b, c, d, e, f) when the coordinates (x, y) of the input image are moved to the coordinates (x', y') of the resulting image. can be defined

(수학식 1)(Equation 1)

x' = f(x, y) = ax + by + c x' = f(x, y) = ax + by + c

y' = f(x, y) = dx + ey + fy' = f(x, y) = dx + ey + f

이러한 어파인 변환과 같은 방식으로 산출되는 삼각형 간 변환 행렬은

Figure 112021093992256-pat00001
과 같은 변환식을 구성하는 중간의 2x3 크기의 행렬로 나타낼 수 있으며, 이를 산출하기 위하여는 제1 삼각형 정보의 3개 위치 좌표를 (x, y)로 하고, 상기 특정 삼각형 정보의 3개 위치 좌표를 (x', y')로 하는 각각의 점 3개에 대응하는 연립방정식이 주어지며, 이에 따른 계수 a, b, c, d, e, f가 산출되면 상기 2x3 크기의 행렬
Figure 112021093992256-pat00002
이 전술한 변환 행렬로서 산출될 수 있다. 이러한 변환 함수는 이미지의 픽셀 배치 구조를 제1 삼각형에서 상기 특정 삼각형으로 변환하기 위해 평행 이동, 확대 및 축소, 회전등의 기하학적 형태로서 변환시키는 행렬 함수일 수 있으며, 형태가 다른 기하학적 영역들에 모두 적용될 수 있는 2차원 변환 행렬일 수 있다.The inter-triangular transformation matrix calculated in the same way as this affine transformation is
Figure 112021093992256-pat00001
It can be expressed as an intermediate 2x3 size matrix constituting the conversion equation, and in order to calculate it, the three positional coordinates of the first triangle information are set as (x, y), and the three positional coordinates of the specific triangle information If a system of equations corresponding to each of the three points of (x', y') is given, and the coefficients a, b, c, d, e, and f are calculated accordingly, the 2x3 matrix
Figure 112021093992256-pat00002
This can be calculated as the transformation matrix described above. This conversion function may be a matrix function that converts the pixel arrangement structure of the image into a geometric shape such as translation, enlargement and reduction, rotation, etc. in order to transform the first triangle into the specific triangle, and is applied to all geometric regions of different shapes. It may be a two-dimensional transformation matrix that can be.

여기서, 상기 부분 영역 이미지는 상기 페이스 워핑 대상 이미지에 대응하는 랜드마크 지점 영역들 중, 상기 제1 삼각형 정보에 대응하는 특정 삼각형 영역을 포함하는 사각형 영역을 포함할 수 있다.Here, the partial region image may include a rectangular region including a specific triangle region corresponding to the first triangle information among landmark point regions corresponding to the face warping target image.

그리고, 워핑 이미지 구성부(560)는, 페이스 워핑 출력 이미지를 생성하고, 상기 부분 영역 이미지 전체에 대응하는 상기 변환 행렬을 적용하여 상기 페이스 워핑 출력 이미지를 워핑된 상태로 기하학적 변환 처리한다.The warping image configuration unit 560 generates a face warping output image and geometrically transforms the face warping output image into a warped state by applying the transformation matrix corresponding to the entire partial region image.

상기 부분 영역 이미지에 상기 변환 행렬을 적용하기 위해, 워핑 이미지 구성부(560)는 상기 제1 삼각형 정보에 대응하는 특정 삼각형 영역을 포함하는 사각형 영역으로 구성된 사각형 이미지를 상기 부분 영역 이미지에서 추출하고, 추출된 사각형 이미지에 상기 변환 행렬을 적용하여 기하학적 변환 처리를 수행할 수 있다.In order to apply the transformation matrix to the partial region image, the warping image construction unit 560 extracts a rectangular image composed of a rectangular region including a specific triangle region corresponding to the first triangle information from the partial region image; Geometric transformation processing may be performed by applying the transformation matrix to the extracted rectangular image.

그리고, 워핑 이미지 구성부(560)는 상기 변환 처리된 부분 영역 이미지에서, 상기 제1 삼각형 정보에 대응하는 영역 이외의 부분을 제거하고, 상기 제1 삼각형 정보에 대응하는 영역 이외의 부분이 제거된 부분 영역 이미지를 상기 출력 이미지에 결합한다. 이에 따라 가상 스타일 합성을 보다 원활하게 수행하기 위한 랜드마크 기반 기하 변환된 픽셀 데이터가 상기 상기 페이스 워핑 출력 이미지로 구성될 수 있다.Then, the warping image construction unit 560 removes parts other than the area corresponding to the first triangle information from the converted partial area image, and removes parts other than the area corresponding to the first triangle information. Combine the sub-region image with the output image. Accordingly, landmark-based geometrically transformed pixel data for smoother virtual style synthesis may be configured as the face warping output image.

그리고, 각 벤치마크 이미지의 모든 삼각형들에 대응하여, 상기한 바와 같은 입력된 사용자 이미지의 랜드마크 식별, 변환 행렬 산출 및 워핑 이미지 구성 프로세스가 반복적으로 수행되며, 결과적으로 벤치마크 이미지의 랜드마크 부분과 상기 페이스 워핑 대상 이미지에 대응하여 구성된 변환 행렬에 따라 상기 페이스 워핑 출력 이미지가 구성되어 출력될 수 있다.And, corresponding to all the triangles of each benchmark image, the landmark identification of the input user image, conversion matrix calculation, and warping image construction process as described above are repeatedly performed, and as a result, the landmark part of the benchmark image The face warping output image may be configured and output according to a transformation matrix configured to correspond to the face warping target image.

한편, 페이스 워핑 처리부(500)는 전술한 바와 같은 각 처리부들을 역으로 구동시켜, 페이스 역 워핑 처리를 수행할 수 있다.Meanwhile, the face warping processing unit 500 may reversely drive each processing unit as described above to perform reverse face warping processing.

이에 따른 가상 스타일 합성부(100)의 합성 프로세스는 아래와 같이 수행될 수 있다.Accordingly, the synthesis process of the virtual style synthesizer 100 may be performed as follows.

먼저, 가상 스타일 합성부(100)는, 사용자 이미지와, 소스 이미지에 대응하는 얼굴 영역 이미지를 추출한다.First, the virtual style synthesis unit 100 extracts a user image and a face region image corresponding to a source image.

그리고, 가상 스타일 합성부(100)는 추출된 얼굴 영역 이미지에 대응하는 얼굴 각도 조정을 통해, 사용자 이미지와 소스 이미지의 눈의 높이가 동일하도록 정렬 처리할 수 있다.In addition, the virtual style synthesis unit 100 may align the user image and the source image so that the eye heights of the user image and the source image are the same by adjusting the face angle corresponding to the extracted face region image.

이후, 가상 스타일 합성부(100)는 정렬 처리된 사용자 이미지와 소스 이미지를 각각 페이스 워핑 처리부(500)에 전달하여, 벤치마크 이미지 기반의 페이스 워핑이 수행되도록 한다.Thereafter, the virtual style synthesis unit 100 transfers the sorted user image and the source image to the face warping processing unit 500, so that face warping based on the benchmark image is performed.

그리고, 가상 스타일 합성부(100)는 페이스 워핑 처리된 사용자 이미지와 소스 이미지를 이용하여, 스타일 트랜스퍼를 수행함으로써, 메이크업 스타일이 합성된 합성 이미지를 획득한다.Then, the virtual style synthesizer 100 obtains a synthesized image in which a makeup style is synthesized by performing style transfer using the face-warped user image and the source image.

이후, 가상 스타일 합성부(100)는, 합성 이미지에 대응하는 역 워핑 처리를 페이스 워핑 처리부(500)에 요청하고, 페이스 워핑 처리부(500)로부터 역 워핑 처리된 합성 이미지를 획득한다.Thereafter, the virtual style synthesis unit 100 requests the face warping processing unit 500 to perform inverse warping processing corresponding to the synthesized image, and obtains the inverse warping processed synthesized image from the face warping processing unit 500 .

그리고, 가상 스타일 합성부(100)는, 상기 얼굴 각도 조정에 따른 얼굴 각도를 역으로 재조정하는 처리를 통해, 사용자 이미지의 각도와 맞는 위치로 역 조정 처리한다.Then, the virtual style synthesis unit 100 reversely adjusts the face angle according to the face angle adjustment to a position that matches the angle of the user's image.

그리고, 가상 스타일 합성부(100)는 역 조정 처리된 합성 이미지와, 사용자 이미지를, 알려진 푸아송 블렌딩 방식과 같은 이미지 합성 처리하여, 사용자 이미지에 대한 메이크업 스타일 트랜스퍼가 자연스럽게 수행된 가상 스타일 합성 이미지를 획득 및 출력할 수 있다.Then, the virtual style synthesis unit 100 performs image synthesis processing on the reverse-adjusted synthesized image and the user image, such as a known Poisson blending method, to obtain a virtual style synthesized image in which makeup style transfer is naturally performed for the user image. can be obtained and output.

도 5는 본 발명의 실시 예에 따른 트랜스퍼 강도 조절부를 보다 구체적으로 도시한 블록도이다.5 is a block diagram showing a transfer strength controller in detail according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시 예에 따른 트랜스퍼 강도 조절부(700)는 사용자 입력에 따라, 스타일 트랜스퍼된 가상 합성 이미지의 트랜스퍼 강도 및 영역과 그 대상을 자유롭게 설정 및 조정하게 할 수 있는 바, 이는 GAN 기반의 메이크업 트랜스퍼 모델을 응용하여 처리될 수 있다.Referring to FIG. 5 , the transfer strength adjusting unit 700 according to an embodiment of the present invention can freely set and adjust the transfer strength, area, and subject of a style-transferred virtual composite image according to a user input. , which can be processed by applying a GAN-based makeup transfer model.

이를 위해, 트랜스퍼 강도 조절부(700)는, GAN 기반 모델을 이용하여 입력이 되는 두개의 이미지에서 바로 메이크업 스타일 트랜스퍼된 이미지를 출력하는 것이 아니라, 입력 이미지 각각을 잠재 공간(Latent space)으로 보내는 인코더를 구축하고, 잠재 공간에서 메이크업 스타일 트랜스퍼 정보를 추출하는 메이크업 스타일 트랜스퍼 변환 행렬 W를 설정하며, 그리고 잠재 공간의 메이크업 스타일 트랜스퍼 벡터를 다시 원래의 이미지로 복원하는 디코더를 구축하여 트랜스퍼 강도 조절 처리를 수행할 수 있다.To this end, the transfer strength control unit 700 does not directly output makeup style transferred images from two input images using a GAN-based model, but an encoder that sends each input image to a latent space. , constructing a makeup style transfer transformation matrix W that extracts makeup style transfer information from the latent space, and constructing a decoder that restores the makeup style transfer vector in the latent space back to the original image to perform transfer intensity adjustment processing. can do.

이를 구현하기 위해, 트랜스퍼 강도 조절부(700)는, 부분별 강도 변수 설정부(710), 부분별 잠재 공간 이미지 인코딩부(720), 잠재 공간 이미지의 스타일 트랜스퍼 처리부(730), 부분별 이미지 디코딩부(740), 합성 출력부(750) 및 변경 처리부(760)를 포함한다.To implement this, the transfer strength control unit 700 includes an intensity variable setting unit 710 for each segment, a latent space image encoding unit 720 for each segment, a style transfer processing unit 730 for the latent space image, and image decoding for each segment. It includes a unit 740, a synthesis output unit 750 and a change processing unit 760.

부분별 강도 변수 설정부(710)는, 사용자 입력에 따른 얼굴 부분 영역별 트랜스퍼 강도 변수와, 트랜스퍼 대상 소스 이미지를 각각 설정할 수 있다. 예를 들어, 트랜스퍼 강도 변수는 0 내지 5 사이의 특정 변수일 수 있으며, 이는 메이크업 스타일 트랜스퍼 연산에 대한 가중치 값으로 변환될 수 있다.The part-specific intensity variable setting unit 710 may set a transfer intensity variable for each facial part region according to a user input and a source image to be transferred, respectively. For example, the transfer strength variable may be a specific variable between 0 and 5, which may be converted into a weight value for makeup style transfer calculation.

그리고, 부분별 잠재 공간 이미지 인코딩부(720)는, 사용자 이미지 및 소스 이미지 각각을 얼굴 부분별로 잠재 공간으로 변환하는 인코딩 처리를 수행한다. 잠재 공간은, 머신 러닝을 위해 직접 관찰하거나 측정이 어려운 변수를 벡터 등으로 변환하는 특징 공간일 수 있다.Then, the partial latent space image encoding unit 720 performs an encoding process of converting each of the user image and the source image into a latent space for each face part. The latent space may be a feature space in which variables that are difficult to directly observe or measure are converted into vectors for machine learning.

잠재 공간 이미지 스타일 트랜스퍼 처리부(730)는 인코딩된 얼굴 부분별 사용자 이미지와 소스 이미지를 각각 스타일 트랜스퍼 모델의 입력 이미지로 인가하여, 잠재 공간 이미지의 스타일 트랜스퍼가 처리되도록 한다. 여기서, 상기 트랜스퍼 강도 변수가 각각의 얼굴 부분별 가중치 값으로 인가될 수 있다.The latent space image style transfer processing unit 730 applies the encoded user image and source image for each face part as input images of the style transfer model, so that the style transfer of the latent space image is processed. Here, the transfer intensity variable may be applied as a weight value for each face part.

예를 들어, 잠재 공간 내에서 메이크업을 하고자 하는 사용자 이미지 얼굴 부분과, 타겟이 되는 소스 이미지의 얼굴 부분에 대응되어 인코딩된 벡터가 각각 v1, v2이고, 스타일 트랜스퍼 모델 행렬이 W이고 단위 행렬이 I이며, 트랜스퍼 강도 가중치가 t(0<=t<=1)인 경우, (I-W)*v1 + t*W*v2 와 같은 수학식 수행을 통해 획득되는 잠재 공간 벡터가 잠재 공간 이미지 스타일 트랜스퍼 처리부(730)의 출력일 수 있다.For example, vectors encoded corresponding to the face part of the user image to be applied in the latent space and the face part of the target source image are v1 and v2, respectively, the style transfer model matrix is W, and the identity matrix is I , and when the transfer strength weight is t (0 <= t <= 1), the latent space vector obtained by performing equations such as (I-W) * v1 + t * W * v2 is the latent space image style transfer processing unit ( 730) may be output.

그리고, 부분별 이미지 디코딩부(740)는, 상기 잠재 공간 벡터를 역 연산하여 부분별 이미지 정보로 디코딩하는 연산을 수행할 수 있다.In addition, the partial image decoding unit 740 may perform an inverse operation on the latent space vector and decode it into image information for each segment.

또한, 합성 출력부(750)는 상기 디코딩된 부분별 이미지 정보를 합성하여, 트랜스퍼 강도 설정에 따라 재구성된 합성 이미지를 가상 스타일 합성부(100)로 전달할 수 있다.In addition, the synthesizing output unit 750 may synthesize the decoded image information for each part and transmit the reconstructed synthesized image according to the transfer strength setting to the virtual style synthesizing unit 100 .

그리고, 변경 처리부(760)는, 상기 재구성된 합성 이미지에 대응하는 사용자 변경 설정 입력에 따라, 전술한 트랜스퍼 강도 정보 및 소스 정보의 변경 처리를 재수행할 수 있다.Then, the change processing unit 760 may re-perform the above-described change processing of the transfer strength information and the source information according to a user change setting input corresponding to the reconstructed composite image.

이와 같은, 트랜스퍼 강도 조절부(700)의 동작은 서로 다른 각각의 얼굴 영역(눈, 입, 피부 등)에 대해 세분화되어 적용될 수 있으며, 각 영역은 상기 사용자 변경 설정 입력에 따라 중첩될 수도 있다. 또한, 각 부분 스타일에 대응하는 서로 다른 인물의 메이크업 스타일을 개별 적용할 수 있는 바, 앞서 설명한 바와 같이 얼굴의 부분 나이 등을 개선할 수 있도록 복합적인 서로 다른 소스 이미지들이 각 부분별로 적용될 수도 있다.The operation of the transfer strength controller 700 may be subdivided and applied to different facial areas (eyes, mouth, skin, etc.), and each area may be overlapped according to the user change setting input. In addition, different makeup styles corresponding to each part style can be individually applied, and as described above, different complex source images may be applied to each part to improve the age of the part of the face.

예를 들어, 트랜스퍼 강도 조절부(700)는 메이크업 스타일 변환 행렬 W_eye, W_lip, W_skin을 각각 설정하고, 이에 대응하는 각 부분 화장에 대한 서로 다른 소스 이미지를 설정하며, 각각의 트랜스퍼 강도가 조절되도록 구성할 수 있다. 이 경우, 사용자 이미지의 인코딩된 v1 벡터와, 소스 이미지의 인코딩된 v2 벡터 및 가중치 t는 eye, lip, skin 부분별로 세분화 처리되어 이하와 같은 연산이 처리될 수 있다.For example, the transfer strength control unit 700 sets makeup style transformation matrices W_eye, W_lip, and W_skin, sets different source images for each partial makeup corresponding thereto, and adjusts transfer strength of each. can do. In this case, the encoded v1 vector of the user image, the encoded v2 vector of the source image, and the weight t are subdivided into eye, lip, and skin parts, and the following operations may be processed.

v1_out = (I - W_eye - W_lip - W_skin)*v1 + t_eye*W_eye*v2_eye + t_lip*W_lip *v2_lip + t_skin*W_skin*v2_skin 혹은 v1_out = (I - W_eye - W_lip - W_skin)*v1 + t_eye*W_eye*v2_eye + t_lip*W_lip *v2_lip + t_skin*W_skin*v2_skin or

v1_out = (I - W_skin)*( (I - W_lip)*( (I - W_eye)*v1 + t_eye*W_eye*v2_eye) + t_lip*W_lip*v2_lip) + t_skin*W_skin*v2_skinv1_out = (I - W_skin)*( (I - W_lip)*( (I - W_eye)*v1 + t_eye*W_eye*v2_eye) + t_lip*W_lip*v2_lip) + t_skin*W_skin*v2_skin

도 6은 본 발명의 실시 예에 따른 얼굴 분석부를 보다 구체적으로 도시한 블록도이며, 도 7은 본 발명의 실시 예에 따른 얼굴 부분 나이 예측 모델 및 시각화 과정을 설명하기 위한 도면이다.6 is a block diagram illustrating a face analysis unit in more detail according to an embodiment of the present invention, and FIG. 7 is a diagram for explaining a facial age prediction model and visualization process according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시 예에 따른 얼굴 분석부(200)는, 사용자 이미지 또는 합성 이미지에 대응하는 얼굴 부분 영역별 분석 정보를 추출할 수 있으며, 이러한 얼굴 부분 영역별 분석 정보는 스타일 비교를 용이하게 하며, 스타일 추천 서비스 정보를 보다 효과적으로 구성하는 데 이용될 수 있다.Referring to FIG. 6 , the face analyzer 200 according to an embodiment of the present invention may extract analysis information for each facial region corresponding to a user image or a synthesized image. It facilitates comparison and can be used to construct style recommendation service information more effectively.

보다 구체적으로 얼굴 분석부(200)는, 부분 나이 예측부(210), 부분 주름 분석부(220), 시각화 처리부(240) 및 분석 정보 출력부(250)를 포함한다.More specifically, the face analysis unit 200 includes a partial age prediction unit 210, a partial wrinkle analysis unit 220, a visualization processing unit 240, and an analysis information output unit 250.

부분 나이 예측부(210)는, 사용자 이미지 또는 가상 스타일 합성부(100)의 합성 이미지에 대응하는 얼굴 부분 영역 이미지를 추출하고, 상기 얼굴 부분 영역 이미지를, 사전 학습된 하나 이상의 인공신경망 학습 모델에 적용하여 나이 예측 정보를 획득할 수 있다. 이에 따라, 상기 스타일 추천 서비스 정보는, 상기 나이 예측 정보에 기초한 얼굴 부분 영역별 나이 분석 정보를 포함할 수 있다.The partial age predictor 210 extracts a facial partial region image corresponding to a user image or a synthesized image of the virtual style synthesis unit 100, and applies the facial partial region image to one or more pretrained artificial neural network learning models. Age prediction information may be obtained by applying the method. Accordingly, the style recommendation service information may include age analysis information for each facial region based on the age prediction information.

이러한 나이 분석 정보는 사용자 등록 정보에 대응하는 국가별 또는 지역별로 상이하게 구축된 학습 모델로부터 개별적으로 획득될 수 있다. 예를 들어, 미국, 한국, 동양, 서양 등과 같이 사전 설정된 국가별 또는 지역별 이미지 학습에 따른 얼굴 부분 영역별 나이 분석 정보가 서로 다른 학습 모델로부터 추출될 수 있다. 이는 국가 또는 인종 등에 따라 나이를 잘 구분하지 못하는 문제점 등을 고려하여 안출된 것으로, 본 발명의 실시 예에 따른 얼굴 분석부(200)는, 얼굴 부분 영역별 나이 분석 정보를 획득하기 위해, 국가 또는 지역 분류에 따라 상이한 데이터로 학습된 학습 모델들을 개별적으로 구축하고, 사용자 등록 정보에 따라 식별된 국가 또는 지역에 대응하는 학습 모델을 사용하여 상기 나이 분석 정보를 획득할 수 있다.Such age analysis information may be individually obtained from a learning model differently constructed for each country or region corresponding to user registration information. For example, age analysis information for each face part region according to image learning for each country or region set in advance, such as the United States, Korea, the East, and the West, may be extracted from different learning models. This was devised in consideration of the problem of not being able to distinguish age according to country or race. Learning models learned with different data according to region classification may be individually built, and the age analysis information may be obtained by using a learning model corresponding to a country or region identified according to user registration information.

보다 구체적으로, 얼굴 부분 영역별 나이 분석 정보 추출을 위하여, 상기 인공신경망 학습 모델은 얼굴 부분 이미지 입력에 대응하여 나이 정보를 출력하는 학습 모델로 구축될 수 있다. 예를 들어, ResNet, DenseNet, MobileNet과 같은 인공신경망 학습 모델들을 기초로, 각 얼굴 랜드마크에 대응하는 얼굴 부분별 나이 정보가 예측되는 학습 모델이 개별적으로 구축될 수 있다.More specifically, in order to extract age analysis information for each face region, the artificial neural network learning model may be constructed as a learning model that outputs age information in response to a face image input. For example, based on artificial neural network learning models such as ResNet, DenseNet, and MobileNet, a learning model in which age information for each face part corresponding to each face landmark is predicted may be individually built.

이에 따라, 추천 서비스 제공부(900)는, 상기 스타일 추천 서비스 정보를 제공함에 있어서, 상기 나이 분석 정보에 따라 사용자 입력된 나이보다 제1 임계치 이상 높은 얼굴 부분 영역을 식별하고, 상기 하나 이상의 합성 이미지 중 상기 식별된 얼굴 부분 영역의 나이 예측 정보가 가장 낮은 합성 이미지를 가상 스타일 합성부(100)로부터 획득할 수 있으며, 상기 나이 예측 정보가 가장 낮은 합성 이미지에 기초하여, 상기 스타일 추천 서비스 정보를 구성할 수 있다.Accordingly, in providing the style recommendation service information, the recommendation service providing unit 900 identifies a facial region higher than a user's input age by a first threshold value or more according to the age analysis information, and identifies the one or more synthesized images. A synthesized image having the lowest age prediction information of the identified face region may be obtained from the virtual style synthesis unit 100, and the style recommendation service information is configured based on the synthesized image having the lowest age prediction information. can do.

예를 들어, 사용자가 입력한 생물학적 나이보다 일정 수치 이상 높게 예측되는 이마 부분에 대응하여, 가상 스타일 합성 이미지 중 가장 이마가 ◎게 예측되는 소스 이미지의 인물 정보, 스타일 정보 또는 스타일 합성 이미지가 상기 스타일 추천 서비스 정보에 포함될 수 있을 것이다.For example, in response to a forehead portion predicted to be higher than a predetermined value or more than the biological age input by the user, person information, style information, or a style synthesis image of a source image in which the most forehead is predicted as ◎ among the virtual style synthesis images is the style. It may be included in the recommended service information.

이에 대하여, 도 7은 본 발명의 실시 예에 따른 얼굴 부분 나이 예측 모델 및 시각화 과정을 나타내고 있으며, 좌측 눈에 대응하는 제1 학습 모델, 우측 눈에 대응하는 제2 학습 모델, 피부에 대응하는 제3 학습 모델, 코에 대응하는 제4 학습 모델 및 입에 대응하는 제5 학습 모델 등과 같은 각각의 영역에 대응하는 나이 예측 모델이 개별적으로 구비될 수 있으며, 예측 결과는 시각화 처리되어 각각의 부분별 나이가 그래프 형태로 연결 표시되는 형태의 이미지로 사용자 단말(10)에서 출력될 수 있다.In contrast, FIG. 7 shows a facial age prediction model and visualization process according to an embodiment of the present invention, a first learning model corresponding to the left eye, a second learning model corresponding to the right eye, and a second learning model corresponding to the skin. Age prediction models corresponding to each region, such as 3 learning models, a 4th learning model corresponding to the nose, and a 5th learning model corresponding to the mouth, may be provided individually, and the prediction results are visualized and processed for each part. Age may be output from the user terminal 10 as an image in which the age is connected and displayed in the form of a graph.

또한, 부분 주름 분석부(220)는, 사용자 이미지 또는 가상 스타일 합성부(100)의 합성 이미지에 대응하는 얼굴 부분 영역 이미지를 추출하고, 상기 얼굴 부분 영역 이미지를, 사전 학습된 하나 이상의 인공신경망 학습 모델에 적용하여 주름 특성 정보를 획득할 수 있다. 이에 따라, 상기 스타일 추천 서비스 정보는, 상기 주름 특성 정보에 기초한 얼굴 부분 영역별 주름 분석 정보를 포함할 수 있다.In addition, the partial wrinkle analysis unit 220 extracts a facial partial region image corresponding to a user image or a synthesized image of the virtual style synthesizing unit 100, and uses the facial partial region image to learn one or more pretrained artificial neural networks. It can be applied to the model to obtain wrinkle characteristic information. Accordingly, the style recommendation service information may include wrinkle analysis information for each facial region based on the wrinkle characteristic information.

보다 구체적으로, 얼굴 부분 영역별 주름 분석 정보 추출을 위하여, 상기 인공신경망 학습 모델은 얼굴 부분 이미지 입력에 대응하여 주름 특성 정보로 변환하는 변환 모델과, 유사 주름 특성 정보를 갖는 이미지들을 색인하는 학습 모델로 구축될 수 있다. 예를 들어, 주름 특성 정보를 변환함에 있어서는, 이미지를 푸리에 변환시킨 주파수 정보를 1차 필터링하며, 잘 알려진 하이브리드 헤시안(Hybrid Hessian) 필터를 적용한 특징 데이터와 결합하고, 임계치 이상의 특징 정보가 추출되는 영역을 주름 데이터로 출력하는 변환 방식이 예시될 수 있다. 또한, 주름 특성 정보의 유사성을 확인하기 위하여는 모바일 페이스넷과 같은 알려진 학습 모델이 이용될 수 있다.More specifically, in order to extract wrinkle analysis information for each facial region, the artificial neural network learning model is a conversion model that converts facial image input into wrinkle characteristic information and a learning model that indexes images having similar wrinkle characteristic information. can be built with For example, in converting wrinkle characteristic information, frequency information obtained by Fourier transforming an image is first filtered, combined with feature data to which a well-known Hybrid Hessian filter is applied, and feature information above a threshold value is extracted. A conversion method of outputting a region as wrinkle data may be exemplified. In addition, a known learning model such as mobile facenet may be used to confirm the similarity of wrinkle characteristic information.

이에 따라, 추천 서비스 제공부(900)는, 상기 스타일 추천 서비스 정보를 제공함에 있어서, 상기 주름 분석 정보에 따라 주름 분석 정보가 가장 유사한 합성 이미지를 가상 스타일 합성부(100)로부터 획득할 수 있으며, 상기 합성 이미지에 기초하여, 상기 스타일 추천 서비스 정보를 구성할 수 있다.Accordingly, in providing the style recommendation service information, the recommendation service provider 900 may obtain a synthesized image having the most similar wrinkle analysis information from the virtual style synthesizer 100 according to the wrinkle analysis information, Based on the synthesized image, the style recommendation service information may be configured.

한편, 시각화 처리부(240)는 얼굴 분석 정보를 종합하여 시각화 처리할 수 있으며, 분석 정보 출력부(250)는 시각화 처리된 얼굴 분석 정보를 추천 서비스 제공부(900)로 출력할 수 있다. 추천 서비스 제공부(900)는 시각화 처리된 얼굴 분석 정보를 기반으로 하는 스타일 인터페이스가 사용자 단말(10)에서 출력되도록 하는 서비스 데이터를 사용자 단말(10)제공 할 수 있는 바, 이에 대하여는 도 8 내지 도 12를 참조하여 예시적으로 설명하도록 한다.Meanwhile, the visualization processing unit 240 may synthesize and visualize the face analysis information, and the analysis information output unit 250 may output the visualized face analysis information to the recommendation service provider 900 . The recommendation service providing unit 900 may provide the user terminal 10 with service data such that a style interface based on the visualized face analysis information is output from the user terminal 10, which is shown in FIGS. 8 to 90. 12 to be described as an example.

도 8 내지 도 12는 본 발명의 실시 예에 따른 사용자 단말에서의 스타일 인터페이스 출력 정보를 설명하기 위한 도면이다.8 to 12 are diagrams for explaining style interface output information in a user terminal according to an embodiment of the present invention.

도 8을 참조하면, 먼저 본 발명의 실시 예에 따른 사용자 단말(10)에서는 자신의 얼굴에 대한 화장 스타일을 추천받을 수 있는 초기 인터페이스가 출력될 수 있다. 사용자는 초기 인터페이스를 통해, 얼굴 분석을 위한 자신의 나이 정보를 입력할 수 있으며, 입력 이미지가 화장 전인지 화장 후인지에 대한 정보와, 자신의 얼굴 이미지를 입력할 수 있다.Referring to FIG. 8 , first, the user terminal 10 according to the embodiment of the present invention may output an initial interface through which makeup styles for the user's face may be recommended. Through the initial interface, the user may input age information for face analysis, information on whether the input image is before makeup or after makeup, and the user's face image.

도 9는 본 발명의 실시 예에 따른 스타일 인터페이스의 얼굴 부분 나이 분석 결과 화면을 도시한 것으로, 사용자가 입력한 나이(20)는 적색 선으로 표시되고, 이에 대응하는 볼, 눈, 코, 입 각각에 대응하는 예측 나이 값이, 그래프의 중심으로부터 멀어질수록 증가된 지점에 위치되어 표시되도록 하는 다각형 그래프 형태로 출력될 수 있다.9 shows a screen showing an age analysis result of a facial part of a style interface according to an embodiment of the present invention. The age 20 input by the user is displayed as a red line, and the corresponding cheeks, eyes, nose, and mouth respectively. The predicted age value corresponding to may be output in the form of a polygonal graph in which the predicted age value is positioned and displayed at a point that increases as the distance from the center of the graph increases.

또한, 도 10은 본 발명의 실시 예에 따른 스타일 인터페이스의 얼굴 부분 주름 분석 결과 화면을 도시한 것으로, 사용자 입력한 얼굴 이미지에 대응하는 주름 형태가 입가 주름, 코 주변, 눈가 주름과 같은 각각의 영역별로 표시될 수 있다.In addition, FIG. 10 shows a wrinkle analysis result screen of the facial part of the style interface according to an embodiment of the present invention, and the wrinkle form corresponding to the user input facial image is each area such as wrinkles around the mouth, wrinkles around the nose, and wrinkles around the eyes. may be displayed separately.

그리고, 도 11은 본 발명의 실시 예에 따른 얼굴 분석 기반의 화장 스타일 추천 인터페이스를 도시한다. 도 11에 도시된 바와 같이, 화장 전 또는 화장 후 사진에 대응하여 얼굴 특성이 가장 유사하거나, 얼굴 나이를 개선할 수 있는 소스 이미지의 인물 정보가 추천 서비스 제공부(900)를 통해 식별되어 사용자 단말(10)로 제공될 수 있다.11 illustrates a makeup style recommendation interface based on face analysis according to an embodiment of the present invention. As shown in FIG. 11, the person information of the source image having the most similar face characteristics or the face age that can be improved in correspondence with the before or after makeup photo is identified through the recommendation service provider 900, and the user terminal (10) can be provided.

예를 들어, 도 11에 도시된 바와 같이, 얼굴 주름 등의 특징 유사도에 따라 가장 유사한 뷰티유투버 정보 및 링크 정보가 제공될 수 있으며, 해당 인터페이스를 통해 사용자 이미지와, 합성 이미지 및 소스 이미지를 함께 제공하여, 사용자가 자신의 얼굴이 소스 이미지의 스타일에 따라 어떻게 변화될 수 있는지를 확인할 수 있다.For example, as shown in FIG. 11, the most similar beauty YouTuber information and link information may be provided according to the degree of feature similarity such as facial wrinkles, and a user image, synthesized image, and source image may be provided together through a corresponding interface. In this way, the user can check how his/her face can be changed according to the style of the source image.

또한, 도 12를 참조하면, 본 발명의 실시 예에 따른 스타일 인터페이스는, 각각의 얼굴 부분별 스타일 트랜스퍼 대상 및 강도를 세분화하여 설정할 수 있는 트랜스퍼 강도 및 대상 설정 인터페이스를 제공할 수 있다.Also, referring to FIG. 12 , the style interface according to an embodiment of the present invention may provide a transfer strength and target setting interface capable of subdividing and setting style transfer targets and strengths for each face part.

도 12에 도시된 바와 같이, 트랜스퍼 강도는 각각의 식별 번호가 할당된 얼굴 부분 영역별로 0 내지 5와 같은 값이 결정될 수 있으며, 소스 이미지 또한 A, B, C 등의 다양한 이미지로 변경 설정될 수 있다. 이에 따라, 사용자는 자신이 원하는 소스 이미지와 강도를 조절하여, 원하는 스타일의 화장을 보다 자유롭게 테스트해볼 수 있으며, 최종 적용된 트랜스퍼 강도 및 대상 설정 정보에 기초하여, 보다 자신에게 적합하다고 생각되는 화장 스타일 정보 및 참고할만한 인물 정보와 화장품 정보 등을 제공받을 수 있게 된다.As shown in FIG. 12, the transfer strength may be determined to be a value such as 0 to 5 for each face region to which each identification number is assigned, and the source image may also be changed and set to various images such as A, B, and C. have. Accordingly, the user can test the desired style of makeup more freely by adjusting the source image and intensity desired by the user, and based on the finally applied transfer intensity and target setting information, the user can adjust the makeup style information that is more suitable for the user. In addition, it is possible to be provided with referenceable personal information and cosmetic information.

상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.The method according to the present invention described above may be produced as a program to be executed on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, and magnetic tape. , floppy disks, and optical data storage devices.

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer-readable recording medium is distributed to computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the technical field to which the present invention belongs.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

Claims (11)

서비스 제공 장치의 동작 방법에 있어서,
사용자 이미지와 소스 이미지 간 스타일 트랜스퍼에 기초한 가상 스타일 합성을 수행하는 단계; 및
상기 가상 스타일 합성 수행된 하나 이상의 합성 이미지에 기초한 스타일 추천 서비스를 제공하는 단계;를 포함하고,
상기 추천 서비스를 제공하는 단계는,
상기 사용자 이미지에 대응하는 부분 영역별 분석 정보를 추출하는 단계; 및
상기 하나 이상의 합성 이미지와 상기 부분 영역별 분석 정보에 기초한 스타일 비교 처리에 따라, 스타일 추천 서비스 정보를 제공하는 단계를 포함하고,
상기 추천 서비스 정보를 제공하는 단계는,
상기 합성 이미지를 각 부분 영역별 인공신경망 학습 모델에 적용하여 획득되는 상기 부분 영역별 분석 정보로부터, 각 부분 영역별 얼굴 나이를 개선할 수 있는 소스 이미지의 인물 정보를 식별하는 단계; 및
상기 사용자 이미지, 상기 합성 이미지 및 상기 식별된 인물 정보에 대응하는 소스 이미지를 사용자 단말로 제공하고, 상기 사용자 이미지의 상기 소스 이미지의 스타일에 따른 변화를 상기 사용자 단말의 얼굴 부분 나이 분석 기반 화장 스타일 추천 인터페이스를 통해 출력하는 단계를 포함하고,
상기 가상 스타일 합성을 수행하는 단계는,
소스 이미지를 수집하여, 벤치마크 이미지에 기초한 워핑 이미지로 변환하는 페이스 워핑을 처리하는 단계; 및
상기 페이스 워핑 처리된 소스 이미지를 이용하여, 상기 페이스 워핑 처리된 소스 이미지의 스타일 정보가 매핑된 스타일 데이터베이스를 구축하는 단계를 포함하고,
사용자 단말로부터 입력된 상기 사용자 이미지의 페이스 워핑을 수행하는 단계;
상기 페이스 워핑된 사용자 이미지에 대응하여, 상기 스타일 데이터베이스에 매핑된 상기 페이스 워핑된 소스 이미지의 스타일 정보를 이용한 스타일 트랜스퍼를 수행하는 단계; 및
상기 스타일 트랜스퍼가 수행된 이미지의 페이스 역 워핑을 처리하여, 가상 스타일 합성 이미지로 출력하는 단계를 더 포함하는
서비스 제공 장치의 동작 방법.
In the operating method of the service providing device,
performing virtual style synthesis based on style transfer between a user image and a source image; and
Providing a style recommendation service based on one or more synthesized images for which the virtual style synthesis has been performed;
The step of providing the recommendation service,
extracting analysis information for each partial area corresponding to the user image; and
providing style recommendation service information according to style comparison processing based on the one or more synthesized images and the analysis information for each partial area;
The step of providing the recommended service information,
identifying person information of a source image capable of improving facial age for each partial region from analysis information for each partial region obtained by applying the synthesized image to an artificial neural network learning model for each partial region; and
A source image corresponding to the user image, the composite image, and the identified person information is provided to a user terminal, and a change according to the style of the source image of the user terminal is recommended based on the age analysis of the facial part of the user terminal. Including the step of outputting through the interface,
The step of performing the virtual style synthesis,
Collecting source images and processing face warping to convert them into warped images based on benchmark images; and
Constructing a style database to which style information of the face warped source image is mapped using the face warped source image;
performing face warping on the user image input from a user terminal;
performing style transfer using style information of the face-warped source image mapped to the style database in response to the face-warped user image; and
Further comprising the step of processing face inverse warping of the style transfer-performed image and outputting it as a virtual style composite image.
A method of operating a service providing device.
제1항에 있어서,
상기 분석 정보를 추출하는 단계는,
상기 사용자 이미지에 대응하는 얼굴 부분 영역 이미지를 추출하는 단계; 및
상기 얼굴 부분 영역 이미지를, 사전 학습된 하나 이상의 인공신경망 학습 모델에 적용하여 나이 예측 정보를 획득하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to claim 1,
Extracting the analysis information,
extracting a face part region image corresponding to the user image; and
Obtaining age prediction information by applying the face part region image to one or more pre-trained artificial neural network learning models.
A method of operating a service providing device.
제2항에 있어서,
상기 스타일 추천 서비스 정보는, 상기 나이 예측 정보에 기초한 얼굴 부분 영역별 나이 분석 정보를 포함하는
서비스 제공 장치의 동작 방법.
According to claim 2,
The style recommendation service information includes age analysis information for each facial region based on the age prediction information.
A method of operating a service providing device.
제3항에 있어서,
각 부분 영역별 얼굴 나이를 개선할 수 있는 소스 이미지의 인물 정보를 식별하는 단계는,
상기 나이 분석 정보에 따라 사용자 입력된 나이보다 제1 임계치 이상 높은 얼굴 부분 영역을 식별하는 단계;
상기 하나 이상의 합성 이미지 중 상기 식별된 얼굴 부분 영역의 나이 예측 정보가 가장 낮은 합성 이미지를 획득하는 단계; 및
상기 나이 예측 정보가 가장 낮은 합성 이미지의 소스 이미지를 상기 각 부분 영역별 얼굴 나이를 개선할 수 있는 소스 이미지로 식별하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to claim 3,
The step of identifying the person information of the source image capable of improving the face age for each partial region,
identifying a facial region higher than a user's input age by at least a first threshold according to the age analysis information;
acquiring a synthesized image having the lowest age prediction information of the identified face region among the one or more synthesized images; and
Identifying a source image of the synthesized image having the lowest age prediction information as a source image capable of improving the facial age for each partial region.
A method of operating a service providing device.
제1항에 있어서,
상기 분석 정보를 추출하는 단계는,
상기 사용자 이미지에 대응하는 얼굴 부분 영역 이미지를 추출하는 단계; 및
상기 얼굴 부분 영역 이미지를, 사전 학습된 하나 이상의 인공신경망 학습 모델에 적용하여 주름 특성 정보를 획득하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to claim 1,
Extracting the analysis information,
extracting a face part region image corresponding to the user image; and
Acquiring wrinkle characteristic information by applying the face part region image to one or more pre-learned artificial neural network learning models
A method of operating a service providing device.
제5항에 있어서,
상기 스타일 추천 서비스 정보는, 상기 주름 특성 정보에 기초한 얼굴 부분 영역별 주름 분석 정보를 포함하는
서비스 제공 장치의 동작 방법.
According to claim 5,
The style recommendation service information includes wrinkle analysis information for each facial region based on the wrinkle characteristic information.
A method of operating a service providing device.
제6항에 있어서,
상기 스타일 추천 서비스 정보를 제공하는 단계는,
상기 하나 이상의 합성 이미지 중 상기 분석된 주름 특성 정보가 유사한 하나 이상의 합성 이미지를 획득하는 단계; 및
주름 특성 정보가 유사한 하나 이상의 합성 이미지에 기초하여, 상기 스타일 추천 서비스 정보를 구성하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to claim 6,
The step of providing the style recommendation service information,
acquiring one or more synthesized images having similar wrinkle characteristic information among the one or more synthesized images; and
Constructing the style recommendation service information based on one or more synthesized images having similar wrinkle characteristic information
A method of operating a service providing device.
제1항에 있어서,
상기 추천 서비스를 제공하는 단계는, 상기 스타일 데이터베이스를 이용한 스타일 트랜스퍼 기반의 스타일 추천 서비스를 제공하는 단계를 포함하며,
상기 페이스 워핑을 처리하는 단계는,
상기 벤치마크 이미지를 결정하는 단계;
상기 벤치마크 이미지의 랜드마크 지점들을 식별하는 단계;
상기 랜드마크 지점들에 대응하는 삼각화를 수행하는 단계; 및
상기 삼각화 수행에 따라 결정된 하나 이상의 삼각형 정보를 저장하는 단계;
상기 소스 이미지로부터, 상기 벤치마크 이미지의 제1 삼각형 정보에 대응하는 부분 영역 이미지를 추출하는 단계;
상기 부분 영역 이미지에서 추출된 삼각형 정보를 상기 제1 삼각형 정보로 변환하는 변환 행렬을 산출하는 단계;
상기 부분 영역 이미지 전체를 상기 변환 행렬을 이용하여 변환 처리하는 단계;
상기 변환 처리된 부분 영역 이미지에서 제1 삼각형 정보에 대응하는 영역 이외의 부분을 제거하는 단계; 및
상기 제거된 부분 영역 이미지를 페이스 워핑될 이미지에 결합하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to claim 1,
The providing of the recommendation service includes providing a style recommendation service based on style transfer using the style database;
The step of processing the face warping,
determining the benchmark image;
identifying landmark points of the benchmark image;
performing triangulation corresponding to the landmark points; and
storing one or more pieces of triangle information determined according to the triangulation;
extracting a partial region image corresponding to first triangle information of the benchmark image from the source image;
calculating a conversion matrix for converting triangle information extracted from the partial region image into the first triangle information;
transforming the entire partial region image using the transformation matrix;
removing parts other than the region corresponding to the first triangle information from the transformed partial region image; and
combining the removed partial region image with an image to be face warped.
A method of operating a service providing device.
서비스 제공 장치에 있어서,
사용자 이미지와 소스 이미지 간 스타일 트랜스퍼에 기초한 가상 스타일 합성을 수행하는 가상 스타일 합성부; 및
상기 가상 스타일 합성 수행된 하나 이상의 합성 이미지에 기초한 스타일 추천 서비스를 제공하는 서비스 제공부를 포함하고,
상기 사용자 이미지에 대응하는 부분 영역별 분석 정보를 추출하는 분석부를 더 포함하며,
상기 서비스 제공부는 상기 하나 이상의 합성 이미지와 상기 부분 영역별 분석 정보에 기초한 스타일 비교 처리에 따라, 스타일 추천 서비스 정보를 제공하며,
상기 서비스 제공부는,
상기 합성 이미지를 각 부분 영역별 인공신경망 학습 모델에 적용하여 획득되는 상기 부분 영역별 분석 정보로부터, 각 부분 영역별 얼굴 나이를 개선할 수 있는 소스 이미지의 인물 정보를 식별하고, 상기 사용자 이미지, 상기 합성 이미지 및 상기 식별된 인물 정보에 대응하는 소스 이미지를 사용자 단말로 제공하며, 상기 사용자 이미지의 상기 소스 이미지의 스타일에 따른 변화를 상기 사용자 단말의 얼굴 부분 나이 분석 기반 화장 스타일 추천 인터페이스를 통해 출력하고,
상기 가상 스타일 합성부는,
소스 이미지를 수집하여, 벤치마크 이미지에 기초한 워핑 이미지로 변환하는 페이스 워핑을 처리하고, 상기 페이스 워핑 처리된 소스 이미지를 이용하여, 상기 페이스 워핑 처리된 소스 이미지의 스타일 정보가 매핑된 스타일 데이터베이스를 구축하며, 사용자 단말로부터 입력된 상기 사용자 이미지의 페이스 워핑을 수행하고, 상기 페이스 워핑된 사용자 이미지에 대응하여, 상기 스타일 데이터베이스에 매핑된 상기 페이스 워핑된 소스 이미지의 스타일 정보를 이용한 스타일 트랜스퍼를 수행하며, 상기 스타일 트랜스퍼가 수행된 이미지의 페이스 역 워핑을 처리하여, 가상 스타일 합성 이미지로 출력하는
서비스 제공 장치.
In the service providing device,
a virtual style synthesis unit that performs virtual style synthesis based on style transfer between a user image and a source image; and
A service providing unit providing a style recommendation service based on one or more synthesized images in which the virtual style synthesis is performed;
Further comprising an analysis unit for extracting analysis information for each partial region corresponding to the user image;
The service providing unit provides style recommendation service information according to style comparison processing based on the one or more synthesized images and the analysis information for each partial region;
The service provider,
Person information of a source image capable of improving facial age for each partial region is identified from analysis information for each partial region obtained by applying the synthetic image to an artificial neural network learning model for each partial region; A synthesized image and a source image corresponding to the identified person information are provided to a user terminal, and a change in the style of the source image of the user image is output through an age analysis-based makeup style recommendation interface of the user terminal. ,
The virtual style synthesis unit,
Collects source images, processes face warping to convert them into warped images based on benchmark images, and builds a style database in which style information of the face warped source images is mapped using the face warped source images. performing face warping on the user image input from the user terminal, and performing style transfer using style information of the face warped source image mapped to the style database in response to the face warped user image; Processing face inverse warping of the image on which the style transfer has been performed and outputting it as a virtual style composite image
Service Provisioning Device.
제9항에 있어서,
상기 서비스 제공부는, 상기 스타일 데이터베이스를 이용한 스타일 트랜스퍼 기반의 스타일 추천 서비스를 제공하며,
상기 가상 스타일 합성부에서 수행되는 상기 스타일 트랜스퍼의 트랜스퍼 강도를 이미지의 부분 영역별로 조절하는 트랜스퍼 강도 조절부를 더 포함하는
서비스 제공 장치.
According to claim 9,
The service provider provides a style recommendation service based on style transfer using the style database;
Further comprising a transfer strength control unit for adjusting the transfer strength of the style transfer performed by the virtual style synthesis unit for each partial region of the image
Service Provisioning Device.
제1항 내지 제8항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 판독 가능한 매체에 저장되는 컴퓨터프로그램.A computer program stored in a computer readable medium for executing the method according to any one of claims 1 to 8 on a computer.
KR1020210107650A 2021-08-13 2021-08-13 Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis KR102465456B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210107650A KR102465456B1 (en) 2021-08-13 2021-08-13 Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210107650A KR102465456B1 (en) 2021-08-13 2021-08-13 Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis

Publications (1)

Publication Number Publication Date
KR102465456B1 true KR102465456B1 (en) 2022-11-11

Family

ID=84042631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210107650A KR102465456B1 (en) 2021-08-13 2021-08-13 Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis

Country Status (1)

Country Link
KR (1) KR102465456B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101835333B1 (en) * 2017-06-08 2018-03-08 서창영 Method for providing face recognition service in order to find out aging point
KR20200003402A (en) * 2017-05-31 2020-01-09 더 프록터 앤드 갬블 캄파니 Systems and Methods for Determining Apparent Skin Age
KR20200107488A (en) * 2019-03-08 2020-09-16 주식회사 에이아이네이션 Virtual makeup composition processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200003402A (en) * 2017-05-31 2020-01-09 더 프록터 앤드 갬블 캄파니 Systems and Methods for Determining Apparent Skin Age
KR101835333B1 (en) * 2017-06-08 2018-03-08 서창영 Method for providing face recognition service in order to find out aging point
KR20200107488A (en) * 2019-03-08 2020-09-16 주식회사 에이아이네이션 Virtual makeup composition processing method

Similar Documents

Publication Publication Date Title
KR102567266B1 (en) Service providing device and method for artificial intelligence virtual makeup
KR102406377B1 (en) Artificial intelligence-based virtual makeup method and device that can control the degree of makeup transfer for each face part
US8749556B2 (en) Data compression for real-time streaming of deformable 3D models for 3D animation
WO2017029488A2 (en) Methods of generating personalized 3d head models or 3d body models
KR102602112B1 (en) Data processing method, device, and medium for generating facial images
US11562536B2 (en) Methods and systems for personalized 3D head model deformation
US11587288B2 (en) Methods and systems for constructing facial position map
US11461970B1 (en) Methods and systems for extracting color from facial image
CN110458121B (en) Method and device for generating face image
KR102465454B1 (en) An apparatus and a method for generating virtual makeup beauty score by using AI recognition of facial features
KR20230110787A (en) Methods and systems for forming personalized 3D head and face models
KR102465456B1 (en) Personalized makeup recommendation method and device through artificial intelligence-based facial age and wrinkle analysis
KR102372524B1 (en) System for buying service of cosmetic object and applying selective makeup effect
CN110766631A (en) Face image modification method and device, electronic equipment and computer readable medium
KR20200107469A (en) A method for providing recommendation services of personal makeup styles based on beauty scores
KR20200107488A (en) Virtual makeup composition processing method
CN115936796A (en) Virtual makeup changing method, system, equipment and storage medium
KR20200107476A (en) An apparatus for providing recommendation services of personal makeup styles based on beauty scores
KR20200107465A (en) A method for providing recommendation services of personal makeup styles based on beauty scores
KR20200107472A (en) An apparatus for providing recommendation services of personal makeup styles based on beauty scores
WO2020085922A1 (en) Digital character blending and generation system and method
KR20200107486A (en) Virtual makeup composition processing apparatus
KR20200107482A (en) Virtual makeup composition processing apparatus
KR102372522B1 (en) System for applying selective makeup effect through sourcing of cosmetic object
KR102465453B1 (en) A virtual makeup composition A.I. processing apparatus and a method using it

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant