KR102316723B1 - Body-tailored coordinator system using artificial intelligence - Google Patents

Body-tailored coordinator system using artificial intelligence Download PDF

Info

Publication number
KR102316723B1
KR102316723B1 KR1020210017827A KR20210017827A KR102316723B1 KR 102316723 B1 KR102316723 B1 KR 102316723B1 KR 1020210017827 A KR1020210017827 A KR 1020210017827A KR 20210017827 A KR20210017827 A KR 20210017827A KR 102316723 B1 KR102316723 B1 KR 102316723B1
Authority
KR
South Korea
Prior art keywords
information
user
module
shape
coordination
Prior art date
Application number
KR1020210017827A
Other languages
Korean (ko)
Inventor
장의상
Original Assignee
주식회사 더대박컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더대박컴퍼니 filed Critical 주식회사 더대박컴퍼니
Priority to KR1020210017827A priority Critical patent/KR102316723B1/en
Application granted granted Critical
Publication of KR102316723B1 publication Critical patent/KR102316723B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0613Third-party assisted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a body-tailored coordination system using artificial intelligence, which comprises: a fashion information collecting module for collecting, from an external server, fashion information including a first coordination information including various pieces of clothing information, accessory information, hat information, sock information, and shoe information and a first beauty information including hair style information, nail art information and cosmetic information; a database module for collecting, from the external server, a first body information including face information, race information, skin tone information, age information, body type information, gender information, height information, hair length information, hair color information, hair style information and nail shape information on a plurality of persons, and performing learning for each information on the basis of a convolutional neural network to generate a learning model; an input module for inputting a user image obtained by photographing the whole body of a user and user personal information; a processing module for receiving the user image from the input module to pre-process the same; a prediction module for analyzing the user image processed by the processing module on the basis of information from the database module to predict a face shape, skin tone, body type, height, gender, race and age of the user so as to generate a second body information; a recommendation module for matching the fashion information corresponding to the second body information generated by the prediction module to generate a second beauty information and a second coordination information for the user; and an interface module for receiving the second beauty information and the second coordination information from the recommendation module, and providing the same for the user. Therefore, beauty information and coordination information suitable for user body information can be provided.

Description

인공지능을 이용한 신체 맞춤형 코디 시스템{Body-tailored coordinator system using artificial intelligence}Body-tailored coordinator system using artificial intelligence

본 발명은, 인공지능을 이용한 신체 맞춤형 코디 시스템에 관한 것으로서 더욱 상세하게는 사용자의 신체를 분석하여 사용자의 신체정보에 적합한 미용정보와 코디정보를 제공하는 인공지능을 이용한 신체 맞춤형 코디 시스템에 관한 것이다.The present invention relates to a body-tailored coordination system using artificial intelligence, and more particularly, to a body-tailored coordination system using artificial intelligence that analyzes a user's body and provides beauty information and coordination information suitable for the user's body information. .

코디네이션(Coordination)이란, 상황에 맞게 의상, 악세사리, 구두 따위를 전체적으로 조화롭게 갖추어 꾸미는 일을 의미한다.Coordination refers to decorating clothes, accessories, and shoes in a harmonious manner according to the situation.

최근에는 공항 코디, 면접 코디, 상견례 코디, 하체 비만 코디 등이 인터넷 검색어에 자리를 차지할 만큼, 사용자의 체형 및 상황에 따른 코디네이션 방법이 많은 사람들에게 관심을 받고 있다.Recently, airport coordinating, interview coordinating, meeting coordinating coordinator, lower body obesity coordinating, etc. have taken a place in Internet search terms, so the coordination method according to the user's body type and situation is attracting attention from many people.

패션에 관심이 있는 사람이라면 손쉽게 본인의 체형적 단점을 커버할 수 있는 제품을 선택하여 코디네이션을 할 수 있지만, 대다수의 사람들은 본인의 체형과 상황에 적합한 제품을 선택하는 것에 어려움을 겪고 있다.If you are interested in fashion, you can easily choose a product that can cover your body type and coordinate it, but most people have a hard time choosing a product that suits their body type and situation.

사람들은 이러한 문제점을 해결하기 위하여 상황 및 체형을 키워드로 하여 인터넷 검색을 하는 방법으로 코디 정보를 얻고 있다. 그러나 이러한 검색방법은, 사용자의 상황 및 체형을 단순하게 키워드화 한 것이므로 사용자의 상황 및 체형에 정확히 맞는 코디 정보 검색이 어려우며, 일체화된 코디 정보가 검색되기 때문에 다양한 코디 정보를 얻기 어렵다는 문제점이 있다.In order to solve this problem, people are getting information about coordinating by doing an Internet search using the situation and body shape as keywords. However, in this search method, since the user's situation and body type are simply keywords, it is difficult to search for coordination information that exactly fits the user's situation and body type, and since the integrated coordination information is searched, it is difficult to obtain various coordination information.

또한, 사용자가 자신의 체형을 잘못 알고 있는 경우가 많으므로 검색 결과의 정확도가 현저히 떨어지는 문제점이 있다.In addition, there is a problem in that the accuracy of the search result is significantly lowered because the user often misunderstands his or her body type.

한편, 인터넷 및 어플리케이션이 대중화되면서 모바일 기기를 통해 의류, 화장품, 액세서리 등의 제품을 구매하는 사람들이 매우 증가하였다.Meanwhile, as the Internet and applications become popular, the number of people who purchase products such as clothes, cosmetics, and accessories through mobile devices has increased significantly.

그러나, 모바일 기기를 이용하여 제품을 구입할 때에는, 제품을 테스트 해보거나 시착할 수 없기 때문에 제품의 색상, 사이즈, 재질 등을 사진으로만 확인 한 후 구입할 수 밖에 없다.However, when purchasing a product using a mobile device, it is not possible to test or try on the product, so you have no choice but to purchase it after checking the color, size, material, etc. of the product only with pictures.

이에 따르면, 구매 후 제품을 사용하였을 때에 디자인 및 색상이 사용자에게 어울리지 않거나 의류 사이즈 또한 맞지 않는 문제점이 있다.According to this, when the product is used after purchase, there is a problem that the design and color do not suit the user or the clothing size does not fit.

본 발명의 목적은, 상술한 종래의 문제점을 해결하기 위한 것으로서, 사용자의 신체를 분석하여 사용자의 신체정보에 적합한 미용정보와 코디정보를 제공하는 인공지능을 이용한 신체 맞춤형 코디 시스템을 제공함에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a body-tailored coordination system using artificial intelligence that analyzes a user's body and provides beauty information and coordination information suitable for the user's body information.

본 발명은, 외부 서버로부터 다양한 의상정보, 악세사리정보, 모자정보, 양말정보 및 신발정보를 포함하는 제1코디정보와, 헤어스타일정보, 네일아트정보 및 화장품정보를 포함하는 제1미용정보를 포함하는 패션정보를 수집하는 패션정보 수집모듈; 외부 서버로부터 복수의 사람의 얼굴형정보, 인종정보, 피부톤정보, 나이정보, 체형정보, 성별정보, 신장정보, 머리길이정보, 머리색정보, 머리모양정보 및 손톱모양정보를 포함하는 제1신체정보를 수집하고, 컨볼루션 신경망을 기초로 각 정보에 대한 학습을 실시하여 학습모델을 생성하는 데이터베이스모듈; 사용자의 전신을 촬영한 사용자이미지와 사용자의 개인정보가 입력되는 입력모듈; 상기 입력모듈로부터 상기 사용자이미지를 수신받아, 상기 사용자이미지를 전처리하는 가공모듈; 상기 데이터베이스모듈의 정보를 기초로, 상기 가공모듈에서 가공된 상기 사용자이미지를 분석하여 사용자의 얼굴형, 사용자의 피부톤, 사용자의 체형, 사용자의 신장길이, 사용자의 성별, 사용자의 인종 및 사용자의 나이를 예측하여 제2신체정보를 생성하는 예측모듈; 상기 예측모듈에서 생성된 상기 제2신체정보에 대응되는 상기 패션정보를 매칭하여 사용자를 위한 제2미용정보와 제2코디정보를 생성하는 추천모듈; 및 상기 추천모듈로부터 상기 제2미용정보와 상기 제2코디정보를 제공받아 사용자에게 제공하는 인터페이스모듈을 포함한다.The present invention includes first coordination information including various clothes information, accessory information, hat information, socks information and shoes information, and first beauty information including hair style information, nail art information and cosmetics information from an external server. a fashion information collection module for collecting fashion information; A first body including face shape information, race information, skin tone information, age information, body type information, gender information, height information, hair length information, hair color information, hair shape information and nail shape information of a plurality of people from an external server a database module that collects information and generates a learning model by learning each information based on a convolutional neural network; an input module into which a user image obtained by photographing the user's whole body and personal information of the user is input; a processing module receiving the user image from the input module and pre-processing the user image; Based on the information of the database module, by analyzing the user image processed by the processing module, the user's face shape, the user's skin tone, the user's body type, the user's height, the user's gender, the user's race, and the user's age a prediction module for predicting and generating second body information; a recommendation module for matching the fashion information corresponding to the second body information generated by the prediction module to generate second beauty information and second coordination information for the user; and an interface module that receives the second beauty information and the second coordination information from the recommendation module and provides them to the user.

상기 예측모듈은, 상기 사용자이미지에서 사용자의 얼굴윤곽선을 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 얼굴윤곽선과 가장 유사한 얼굴형을 매칭함으로써 사용자 얼굴형을 예측하는 얼굴형예측모듈; 상기 사용자이미지에서 사용자의 피부를 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 피부톤과 가장 유사한 피부톤을 매칭함으로써 사용자 피부톤을 예측하는 피부톤예측모듈; 상기 사용자이미지에서 사용자의 몸체를 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 체형과 가장 유사한 체형을 매칭함으로써 사용자 체형을 예측하는 체형예측모듈; 상기 사용자이미지에서 사용자의 얼굴과 사용자의 몸체를 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 신장길이를 예측하는 신장예측모듈; 상기 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형 및 피부색을 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 성별을 예측하는 성별예측모듈; 상기 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형 및 피부색을 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 인종을 예측하는 인종예측모듈; 및 상기 얼굴형예측모듈, 상기 피부톤예측모듈, 상기 체형예측모듈, 상기 신장예측모듈, 상기 성별예측모듈 및 상기 인종예측모듈의 예측결과를 바탕으로, 사용자의 나이를 예측하는 나이예측모듈을 포함할 수 있다.The prediction module detects the user's face contour from the user image, and compares it with the first body information of the database module to predict the user's face shape by matching the face shape most similar to the user's face contour line module; a skin tone prediction module that detects the user's skin from the user image and predicts the user's skin tone by matching the skin tone most similar to the user's skin tone by comparing it with the first body information of the database module; a body shape prediction module for detecting a user's body in the user image, and predicting the user's body shape by matching the body shape most similar to the user's body shape by comparing it with the first body information of the database module; a height prediction module for detecting the user's face and the user's body from the user image, and predicting the height of the user by comparing it with the first body information of the database module; a gender prediction module for detecting the user's face contour, eye shape, nose shape, mouth shape, hair length, body type, and skin color from the user image, and predicting the user's gender by comparing it with the first body information of the database module; a race prediction module for detecting the user's face contour, eye shape, nose shape, mouth shape, hair length, body type, and skin color from the user image, and comparing it with the first body information of the database module to predict the user's race; and an age prediction module for predicting the age of the user based on the prediction results of the face shape prediction module, the skin tone prediction module, the body shape prediction module, the height prediction module, the gender prediction module, and the race prediction module. can

상기 추천모듈은, 사용자가 설정한 계절, 장소 및 상황과 일치하는 상기 제2미용정보와 상기 제2코디정보를 사용자에게 추천하는 것을 특징으로 하고, 상기 제2미용정보는, 상기 제2신체정보에 대응되는 피부 화장품 정보, 립 화장품 정보, 치크 화장품 정보, 헤어스타일정보, 네일아트 정보 및 컬러 렌즈 정보를 포함하고, 상기 제2코디정보는, 상기 제2신체정보에 대응되는 의상 정보, 가방 정보, 신발 정보, 양말 정보, 모자 정보 및 악세사리 정보를 포함할 수 있다.The recommendation module is characterized in that it recommends the second beauty information and the second coordination information matching the season, place and situation set by the user to the user, wherein the second beauty information is the second body information including skin cosmetics information, lip cosmetics information, cheek cosmetics information, hair style information, nail art information, and color lens information corresponding to , shoe information, socks information, hat information, and accessory information.

상기 추천모듈은, 사용자가 소지하고 있는 사용자 단말기를 통하여 사용자의 위치를 파악하고, 외부 서버로부터 사용자의 위치에 대한 날씨 정보를 수집하여 날씨 정보와 일치하는 상기 제2미용정보와 상기 제2코디정보를 추천할 수 있다.The recommendation module is configured to determine the user's location through the user terminal possessed by the user, collect weather information about the user's location from an external server, and the second beauty information and the second coordination information matching the weather information can recommend

상기 인공지능을 이용한 맞춤형 코디 시스템은, 상기 제2미용정보와 상기 제2코디정보에 포함된 제품의 거래를 위한 전자거래 서버를 더 포함하고, 사용자가 상기 사용자 단말기를 통해 상기 제2미용정보와 상기 제2코디정보 중 어느 하나 이상을 선택하면 상기 전자거래 서버에 접속될 수 있다.The customized coordination system using the artificial intelligence further includes an electronic transaction server for trading the second beauty information and a product included in the second coordination information, wherein the user communicates with the second beauty information and the second beauty information through the user terminal. If any one or more of the second coordination information is selected, the electronic transaction server may be accessed.

본 발명에 따르면, 사용자의 신체를 분석하여 사용자에게 적합한 미용정보와 코디정보가 사용자에게 제공되므로, 사용자가 자신에게 어울리는 제품을 검색하거나 직접 시착하여야 하는 번거로움이 감소될 수 있다.According to the present invention, since beauty information and coordination information suitable for the user are provided to the user by analyzing the user's body, the hassle of the user having to search for a product suitable for him or try on it can be reduced.

또한, 본 발명에 따르면, 사용자에게 적합한 미용정보와 코디정보가 사용자에게 제공되므로, 사용자가 직접 코디네이션을 하지 않아도 사용자에게 어울리는 코디네이션을 할 수 있는 효과가 있다.In addition, according to the present invention, since beauty information and coordination information suitable for the user are provided to the user, there is an effect that the user can coordinate suitable for the user without directly coordinating the user.

도 1은 본 발명의 일 실시 예에 따른 인공지능을 이용한 신체 맞춤형 코디시스템의 동작을 위한 전체 네트워크 시스템의 개요도이고,
도 2는 본 발명의 일 실시 예에 따른 인공지능을 이용한 신체 맞춤형 코디시스템의 구성도이고,
도 3은 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 예측모듈의 구성도이고,
도 4는 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 데이터베이스모듈의 구성도이고,
도 5는 전자거래 서버를 더 포함하는 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 구성도이고,
도 6은 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 블록도이고,
도 7은 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 예측모듈이 사용자이미지의 얼굴영역을 분석하기 위한 특징점을 나타내기 위한 도면이다.
1 is a schematic diagram of an entire network system for the operation of a body-customized coordination system using artificial intelligence according to an embodiment of the present invention;
2 is a block diagram of a body-customized coordination system using artificial intelligence according to an embodiment of the present invention;
3 is a block diagram of a prediction module of a body-customized coordination system using artificial intelligence of FIG. 2;
4 is a block diagram of a database module of the body-customized coordination system using artificial intelligence of FIG. 2;
5 is a configuration diagram of a body-customized coordination system using the artificial intelligence of FIG. 2 that further includes an electronic transaction server;
6 is a block diagram of a body-customized coordination system using artificial intelligence of FIG. 2;
FIG. 7 is a diagram illustrating a feature point for analyzing a face region of a user image by a prediction module of a body-customized coordination system using artificial intelligence of FIG. 2 .

이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings.

그리고 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시 예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. In the description of the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the component from other components, and the essence, order, or order of the component is not limited by the term.

이하에서는 도면을 참조하면서, 본 발명의 일 실시 예에 따른 인공지능을 이용한 신체 맞춤형 코디 시스템에 대해서 상세히 설명한다.Hereinafter, a body-tailored coordination system using artificial intelligence according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시 예에 따른 인공지능을 이용한 신체 맞춤형 코디시스템의 동작을 위한 전체 네트워크 시스템의 개요도이다.1 is a schematic diagram of an entire network system for the operation of a body-customized coordination system using artificial intelligence according to an embodiment of the present invention.

도 1을 참조하면, 사용자 단말기(10), 외부 서버(2000) 및 인공지능을 이용한 신체 맞춤형 코디시스템(100)이 하나의 네트워크(1000)를 통해 서로 필요한 정보를 송수신 할 수 있다. 네트워크(1000)는 허브, 브리지, 라우터, 스위치 및 게이트웨어와 같은 네트워크(1000) 요소들의 연결을 포함할 수 있다. 또한, 인터넷과 같은 공용 네트워크(1000) 및 사설 네트워크(1000)를 비롯한 다중 네트워크(1000) 환경을 포함할 수 있다.Referring to FIG. 1 , a user terminal 10 , an external server 2000 , and a body-customized coordination system 100 using artificial intelligence may transmit/receive necessary information to each other through a single network 1000 . Network 1000 may include connections of elements of network 1000 such as hubs, bridges, routers, switches, and gateways. It may also include a multi-network 1000 environment, including a public network 1000 such as the Internet and a private network 1000 .

도 2는 본 발명의 일 실시 예에 따른 인공지능을 이용한 신체 맞춤형 코디시스템의 구성도이고, 도 3은 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 예측모듈의 구성도이고, 도 4는 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 데이터베이스모듈의 구성도이고, 도 5는 전자거래 서버를 더 포함하는 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 구성도이고, 도 6은 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 블록도이고, 도 7은 도 2의 인공지능을 이용한 신체 맞춤형 코디시스템의 예측모듈이 사용자이미지의 얼굴영역을 분석하기 위한 특징점을 나타내기 위한 도면이다.2 is a block diagram of a body-customized coordination system using artificial intelligence according to an embodiment of the present invention, FIG. 3 is a block diagram of a prediction module of the body-customized coordination system using artificial intelligence of FIG. 2, and FIG. 4 is FIG. 2 is a block diagram of a database module of the body-customized coordination system using artificial intelligence, FIG. 5 is a block diagram of the body-customized coordination system using artificial intelligence of FIG. 2 further including an electronic transaction server, and FIG. 6 is FIG. It is a block diagram of a body-tailored coordination system using artificial intelligence, and FIG. 7 is a diagram illustrating a feature point for analyzing a face region of a user image by the prediction module of the body-customized coordination system using artificial intelligence of FIG. 2 .

도 2를 참조하면, 본 발명의 일 실시 예에 따른 인공지능을 이용한 신체 맞춤형 코디시스템(100)은 패션정보 수집모듈(110), 데이터베이스모듈(120), 입력모듈(130), 가공모듈(140), 예측모듈(150), 추천모듈(160) 및/또는 인터페이스모듈(170)을 포함한다.Referring to FIG. 2 , the body-customized coordination system 100 using artificial intelligence according to an embodiment of the present invention includes a fashion information collection module 110 , a database module 120 , an input module 130 , and a processing module 140 . ), a prediction module 150 , a recommendation module 160 and/or an interface module 170 .

패션정보 수집모듈(110)은 외부 서버(2000)로부터 제1코디정보와 제1미용정보를 포함하는 패션정보를 수집할 수 있다.The fashion information collection module 110 may collect fashion information including the first coordination information and the first beauty information from the external server 2000 .

패션정보 수집모듈(110)에서 수집하는 제1코디정보는 의상정보, 악세사리정보, 모자정보, 양말정보, 신발정보 및 가방정보를 포함할 수 있고, 제1미용정보는 헤어스타일정보, 네일아트정보 및 화장품정보를 포함할 수 있다.The first coordination information collected by the fashion information collection module 110 may include clothing information, accessory information, hat information, socks information, shoe information, and bag information, and the first beauty information is hair style information and nail art information. and cosmetic information.

구체적으로 제1코디정보는 각 패션 상품에 대한 정보로서 패션 상품의 이미지, 패션 상품의 외관 형태, 패션 상품의 색깔, 패션 상품의 무늬패턴, 패션 상품의 길이, 패션 상품의 재질, 패션 상품의 부가구성 위치 및 크기, 패션 상품의 판매처 및 패션 상품의 가격에 대한 정보가 포함될 수 있다. 또한, 각 패션 상품별로 어울리는 피부톤, 체형 등에 관한 정보가 포함될 수 있다.Specifically, the first coordination information is information about each fashion product, and the image of the fashion product, the appearance form of the fashion product, the color of the fashion product, the pattern pattern of the fashion product, the length of the fashion product, the material of the fashion product, and the addition of the fashion product Information on a configuration location and size, a sales place of a fashion product, and a price of a fashion product may be included. In addition, information on skin tones, body types, etc. suitable for each fashion product may be included.

예컨대, 의상정보는 의상의 외관 형태, 의상의 색, 의상의 무늬 패턴, 의상의 길이, 의상의 재질, 의상의 부가구성 위치 및 크기에 대한 설명, 의상의 판매처, 의상의 가격, 의상의 외관 형태별로 어울리는 체형, 의상의 색에 따라 어울리는 피부톤 등에 관한 정보가 포함될 수 있는 것이다.For example, costume information includes the appearance of the clothes, the color of the clothes, the pattern of the clothes, the length of the clothes, the material of the clothes, the location and size of the additional components of the clothes, the seller of the clothes, the price of the clothes, and the appearance of the clothes. It may include information about the body type that suits the outfit, the skin tone that suits the color of the clothes, and the like.

제1미용정보는 헤어스타일, 네일아트, 화장품에 대한 정보로서 다양한 헤어스타일에 대한 이미지, 얼굴형에 따라 어울리는 머리길이, 피부톤에 따라 어울리는 머리색, 헤어샵 위치, 헤어샵 헤어 시술 가격, 네일 아트 디자인, 네일 아트샵 위치, 네일 아트 시술 가격, 화장품 종류, 화장품 색상, 화장품 색상별로 어울리는 피부톤, 화장품 크기, 화장품 효능, 화장품 가격, 화장품 판매처에 대한 정보가 포함될 수 있다.The first beauty information is information on hairstyles, nail art, and cosmetics, and includes images of various hairstyles, hair length that suits each face shape, hair color that suits skin tone, hair salon location, hair salon price, and nail art. Information on design, nail art shop location, nail art treatment price, cosmetic type, cosmetic color, skin tone suitable for each cosmetic color, cosmetic size, cosmetic efficacy, cosmetic price, and cosmetics vendor may be included.

예컨대, 헤어스타일정보는 얼굴형에 따라 어울리는 머리모양 및 머리길이, 피부톤에 따라 어울리는 머리색, 얼굴형에 따라 어울리는 머리길이 등에 관한 정보가 포함될 수 있는 것이다.For example, the hairstyle information may include information about a hair shape and hair length suitable for a face type, a hair color suitable for a skin tone, a hair length suitable for a face type, and the like.

한편, 패션정보 수집모듈(110)은 차량에 대한 정보를 수집할 수도 있다. 이때, 차량에 대한 차량정보는 차량의 가격 정보, 차량의 외관 정보, 차량의 색상 정보, 차량의 연식정보, 차량의 모델명 정보, 차량을 선호하는 연령층 정보 등이 포함될 수 있다.Meanwhile, the fashion information collection module 110 may collect information about the vehicle. In this case, the vehicle information on the vehicle may include price information of the vehicle, exterior information of the vehicle, color information of the vehicle, year information of the vehicle, model name information of the vehicle, information on the age group that prefers the vehicle, and the like.

패션정보 수집모듈(110)은 웹 사이트에서 제1코디정보와 제1미용정보를 포함하는 패션정보를 수집 내지 크롤링 할 수 있다. The fashion information collection module 110 may collect or crawl fashion information including the first coordination information and the first beauty information from the website.

예를 들면, 패션정보 수집모듈(110)은, 파이썬 언어 기반으로 작성된 Scrapy 라이브러리 또는 구글 스프레드시트를 사용하여 아마존, 타오바오, 쿠팡, 11번가, G마켓, 위메프 등과 같은 대표적인 오픈 마켓 서버, 구글, 네이버, 다음 등의 검색 사이트 서버 및 개인이 운영하는 인터넷 쇼핑몰 사이트에서 패션정보를 수집하여 저장할 수 있다.For example, the fashion information collection module 110 is a representative open market server such as Amazon, Taobao, Coupang, 11st, Gmarket, WeMakep, Google, etc. using a Scrapy library or Google Spreadsheet written based on the Python language. Fashion information can be collected and stored from search site servers such as Naver and Daum, and from Internet shopping mall sites operated by individuals.

그러나, 패션정보 수집모듈(110)은 상술한 파이썬 언어에 제한되지 않고 웹 사이트에서 정보를 수집할 수 있는 방법이라면 어떠한 방법으로 실시되더라도 무방하다.However, the fashion information collection module 110 is not limited to the above-described Python language and may be implemented in any way as long as it is a method capable of collecting information from a web site.

한편, 패션정보 수집모듈(110)은 수집된 제1코디정보를 각 패션 상품의 종류에 따라 분류하여 저장할 수 있다. 또한, 패션정보 수집모듈(110)은 수집된 제1미용정보를 나이, 성별, 인종, 피부톤, 얼굴형별로 구분하여 저장할 수 있다.Meanwhile, the fashion information collection module 110 may classify and store the collected first coordination information according to the type of each fashion product. In addition, the fashion information collection module 110 may store the collected first beauty information by dividing it by age, gender, race, skin tone, and face type.

데이터베이스모듈(120)은 외부 서버(2000)로부터 제1신체정보를 수집하고, 학습모델을 생성할 수 있다. The database module 120 may collect the first body information from the external server 2000 and generate a learning model.

더 상세하게, 데이터베이스모듈(120)은 신체정보 수집부(121), 학습부(122) 및 메모리(123)를 포함할 수 있다.In more detail, the database module 120 may include a body information collection unit 121 , a learning unit 122 , and a memory 123 .

신체정보 수집부(121)는, 외부 서버(2000)로부터 사람들의 얼굴형정보, 인종정보, 피부톤정보, 나이정보, 체형정보, 성별정보, 신장정보, 머리길이정보, 머리색정보, 머리모양정보, 손톱모양정보를 포함하는 제1신체정보를 수집할 수 있다.The body information collection unit 121 receives from the external server 2000 people's face shape information, race information, skin tone information, age information, body type information, gender information, height information, hair length information, hair color information, and hair shape information. , first body information including nail shape information may be collected.

신체정보 수집부(121)는, 웹 사이트, 블로그, 유튜브, SNS 등의 다양한 외부 서버(2000)로부터 제1신체정보를 수집할 수 있다. 외부 서버(2000)는 상술한 종류에 제한되지 않고, 상술한 제1신체정보를 수집할 수 있는 곳이라면 어떠한 서버라도 무방하다.The body information collection unit 121 may collect the first body information from various external servers 2000 such as websites, blogs, YouTube, and SNS. The external server 2000 is not limited to the above type, and any server may be used as long as it can collect the above-mentioned first body information.

신체정보 수집부(121)가 수집하는 제1신체정보는, 복수의 사람들의 인종, 나이, 성별에 따른 얼굴형정보, 인종정보, 피부톤정보, 나이정보, 체형정보, 성별정보, 신장정보, 머리길이정보, 머리색정보, 머리모양정보, 손톱모양정보를 포함할 수 있다.The first body information collected by the body information collection unit 121 includes face shape information, race information, skin tone information, age information, body type information, gender information, height information, and hair according to race, age, and gender of a plurality of people. It may include length information, hair color information, hair shape information, and nail shape information.

신체정보 수집부(121)에서 수집하는 제1신체정보의 형태는 이미지, 동영상, 텍스트 등을 포함하는 다양한 형태일 수 있다.The form of the first body information collected by the body information collection unit 121 may be in various forms including images, videos, texts, and the like.

신체정보 수집부(121)는 수집된 제1신체정보를 인종, 성별, 나이별로 구분하여 메모리(123)에 저장할 수 있다. The body information collection unit 121 may classify the collected first body information by race, gender, and age and store it in the memory 123 .

예를들면, 신체정보 수집부(121)는 인종에 따른 얼굴형정보, 피부톤정보, 체형정보, 신장정보, 머리길이정보, 머리색정보, 머리모양정보, 손톱모양 정보를 구분하여 저장하거나 성별에 따른 얼굴형정보, 피부톤정보, 체형정보, 신장정보, 머리길이정보, 머리색정보, 머리모양정보, 손톱모양 정보를 구분할 수 있다.For example, the body information collection unit 121 separates and stores face shape information, skin tone information, body type information, height information, hair length information, hair color information, hair shape information, and nail shape information according to race or by gender. Face shape information, skin tone information, body type information, height information, hair length information, hair color information, hair shape information, and nail shape information can be classified according to the corresponding information.

여기서 얼굴형정보는, 얼굴 윤곽선의 형상에 대한 정보로서 사각 얼굴형 정보, 삼각 얼굴형 정보, 역삼각 얼굴형 정보, 타원 얼굴형 정보, 긴타원 얼굴형 정보, 둥근 얼굴형 정보, 마름모 얼굴형 정보를 포함할 수 있다.Here, the face shape information is information about the shape of the face outline, and includes square face shape information, triangular face shape information, inverted triangular face shape information, elliptical face shape information, long oval face shape information, round face shape information, and rhombus face shape information. may include.

피부톤정보는, 피부의 색 정보로서 RGB 값으로 구분되어 표현될 수 있고, 피부의 색에 따라 봄웜톤, 여름쿨톤, 가을웜톤, 겨울쿨톤으로 구분될 수 있다.The skin tone information may be expressed by being divided into RGB values as skin color information, and may be divided into spring warm tones, summer cool tones, autumn warm tones, and winter cool tones according to skin color.

체형정보는, 사람의 전체적인 몸체의 형상에 대한 정보로서 몸체의 형상에 따라 구분되며, 직사각형 체형정보, 일직선형 체형정보, 삼각형 체형정보, 역삼각형 체형정보, 모래시계형 체형정보, 둥근형 체형정보, 다이아몬드 체형정보로 구분될 수 있다.Body shape information is information about the overall body shape of a person, and is classified according to the shape of the body. It can be classified by diamond body type information.

신장정보는, 사람의 머리끝부터 발끝까지의 직선길이에 대한 정보로써 cm 단위로 구분될 수 있다.The height information is information on the straight length from the head to the toes of a person, and may be classified in cm units.

머리길이정보는, 사람의 머리카락의 길이에 대한 정보로서, 머리카락의 길이에 따라 숏컷, 단발, 중단발, 장발로 구분될 수 있다.The hair length information is information about the length of human hair, and may be classified into short hair, short hair, medium hair, and long hair according to the length of hair.

머리색정보는, 머리카락의 색 정보로서 피부톤정보와 같이 RGB 값으로 구분되어 표현될 수 있다. 이러한 머리색정보에는 각 피부톤에 어울리는 머리색에 대한 내용이 포함될 수 있다.The hair color information, as hair color information, may be expressed by being divided into RGB values like skin tone information. Such hair color information may include information on hair color suitable for each skin tone.

손톱모양정보는, 각 손톱의 모양에 대한 정보로서 손톱의 좌측길이, 우측길이, 전단길이, 후단길이에 대한 정보를 포함할 수 있고 짧은 손톱, 긴 손톱, 넓은 손톱 등으로 구분될 수 있다.The nail shape information is information on the shape of each nail, and may include information on the left length, the right length, the front end length, and the rear end length of the nail, and may be classified into a short nail, a long nail, a wide nail, and the like.

머리모양정보는, 다양한 머리 모양에 대한 정보로서, 각 얼굴형에 어울리는 머리모양(예컨대, 숏 컷, S컬 펌, 시스루뱅, 레이어드 컷 등)에 대한 내용이 포함될 수 있다.The hair shape information is information on various hair shapes, and may include information on hair shapes suitable for each face shape (eg, short cut, S curl perm, see-through bang, layered cut, etc.).

학습부(122)는 신체정보 수집부(121)에서 수집된 각 정보 중 단일 이미지 또는 복수의 이미지 형태로 만들어진 제1이미지를 분석함으로써, 제1이미지의 특징을 추출하여 분류하는 학습을 할 수 있다. The learning unit 122 may learn to extract and classify the features of the first image by analyzing the first image made in the form of a single image or a plurality of images among the pieces of information collected by the body information collection unit 121 . .

이때, 학습부(122)는 딥러닝 기술의 일종인 컨볼루션 신경망(CNN, Convolution Neural Network)을 기반으로 학습을 실시하여 학습모델을 생성할 수 있고, 다수개의 컨볼루션 신경망을 포함할 수 있다.In this case, the learning unit 122 may generate a learning model by performing learning based on a convolutional neural network (CNN), which is a kind of deep learning technology, and may include a plurality of convolutional neural networks.

딥러닝(Deep learning)이란, 다층구조 형태의 신경망을 기반으로하여 다량의 데이터를 분류하여 같은 집합들끼리 묶고 상하의 관계를 파악함으로써 학습을 실시하는 기술이다.Deep learning is a technology that performs learning by classifying a large amount of data based on a multi-layered neural network, tying the same sets to each other, and grasping the upper-lower relationship.

이러한 딥러닝 기술은 기계학습의 한 분야로서, 스스로 인지, 추론, 판단이 가능하여 음성 및 이미지 인식과 사진 분석등에 광범위하게 활용되고 있다.This deep learning technology is a field of machine learning and is widely used for voice and image recognition and photo analysis because it can recognize, reason, and judge by itself.

본 발명에서 사용되는 컨볼루션 신경망은 딥러닝 기술의 일종으로, 학습 결과를 모델로 생성하고, 생성된 모델을 통해 새로 취득한 정보에 관하여 분석과 예측이 가능해 진다.The convolutional neural network used in the present invention is a kind of deep learning technology, and it generates a learning result as a model, and analyzes and predicts newly acquired information through the generated model.

컨볼루션 신경망은, 크게 컨볼루션 레이어(Convolution layer), 풀링 레이어(Pooling layer), 언풀링 레이어(Unpooling layer), 디컨볼루션 레이어(Deconvolution layer)로 이루어져 있다.A convolutional neural network is largely composed of a convolution layer, a pooling layer, an unpooling layer, and a deconvolution layer.

컨볼루션 신경망은, 컨볼루션 레이어와 풀링 레이더를 번갈아 수행함으로써 이미지로부터 객체의 특징을 추출하고 추출된 특징의 차원수를 줄여 나가게 된다.A convolutional neural network extracts object features from an image by alternately performing a convolutional layer and a pooling radar, and reduces the number of dimensions of the extracted features.

언풀링 레이어는 풀링 레이어에서 사라진 공간정보들의 문제를 해결하고, 디컨볼루션 레이어는 언풀링 레이어를 거치면서 작아진 요소들을 학습된 필터를 이용하여 새로운 값을 생성하기 위하여 사용된다.The unpooling layer solves the problem of spatial information lost in the pooling layer, and the deconvolution layer is used to generate new values using the learned filter for elements that have been reduced through the unpooling layer.

한편, 풀링 레이어는 컨볼루션 레이어의 피처맵의 크기를 줄여주는 역할을 수행하는데, 이때 맥스 풀링 레이어 또는 에버리지 풀링 레이어를 선택적으로 사용할 수 있다.Meanwhile, the pooling layer serves to reduce the size of the feature map of the convolutional layer. In this case, a max pooling layer or an average pooling layer may be selectively used.

맥스 풀링 레이어는 피처맵을 임의의 크기로 잘라낸 다음, 잘라낸 크기의 이미지 영역에서 가장 큰 값을 뽑아내는 방법이다. 이는 전체 데이터의 사이즈가 줄어들기 때문에 연산에 들어가는 자원을 줄일 수 있는 장점이 있다.The max pooling layer is a method of cropping a feature map to an arbitrary size, and then extracting the largest value from the image area of the cropped size. This has the advantage of reducing the resources required for calculation because the size of the entire data is reduced.

에버리지 풀링 레이어는 풀링 필터 안의 4개 파라미터값들을 평균 낸 평균값 1개를 선택함으로써 피처맵의 크기를 줄여준다.The average pooling layer reduces the size of the feature map by selecting one average value obtained by averaging the four parameter values in the pooling filter.

여기서 풀링 레이어는 한개 이상이며 또는, 풀리 커넥티드 레이어가 2개 이상으로 구성될 수 있다.Here, there may be one or more pooling layers, or two or more fully connected layers may be configured.

풀리 커넥티드 레이어는 모든 입력 노드(Input node)가 모든 출력 노드(Out node)로 연결된 상태이고 실제로 풀리 커넥티드 레이어를 통해 특징 데이터를 학습하게 된다.In the fully connected layer, all input nodes are connected to all output nodes, and feature data is actually learned through the fully connected layer.

풀리 커넥티드 레이어는 컨볼루션 레이어와 풀링 레이어에서 추출된 특징값들을 기존의 뉴럴 네트워크(Neural network)에 인입한다.The fully connected layer introduces feature values extracted from the convolutional layer and the pooling layer into an existing neural network.

풀리 커넥티드 레이어의 출력단에는 입력 이미지에 포함된 각 요소를 확률값으로 표시하기 위해 소프트맥스(Softmax) 함수가 사용될 수 있다.At the output end of the fully connected layer, a Softmax function may be used to display each element included in the input image as a probability value.

또한, 본 발명은 컨볼루션 필터를 적용하여 추출된 피처맵에 Leaky ReLU(Rectified Linear Unit) 활성화 함수를 적용할 수 있다.In addition, the present invention can apply a Leaky Rectified Linear Unit (ReLU) activation function to a feature map extracted by applying a convolution filter.

이는, 신경망이 깊어질수록 레이어층이 증가되므로, 학습이 어려워지면서 발생되는 기울기 소실(Gradient Vanishing) 현상을 방지하기 위함이다.This is to prevent a gradient vanishing phenomenon that occurs when learning becomes difficult because the layer layer increases as the neural network deepens.

본 발명은 컨볼루션 신경망의 출력단으로부터 출력되는 결과와 출력 기댓값과의 차이를 참고한 다음, 역전파 알고리즘을 통해 상기 컨볼루션 신경망의 네트에 해당하는 가중치값을 변화시키는 단계 및 이미지를 반복적으로 적용함으로써 컨볼루션 신경망의 출력단으로부터 출력되는 결과가 출력 기댓값으로 수렴하도록하고, 실제 출력값과 기댓값의 차이가 가장 최소화되는 경우 학습을 마치는 단계를 포함한다.The present invention refers to the difference between the result output from the output end of the convolutional neural network and the expected output value, and then changes the weight value corresponding to the net of the convolutional neural network through a backpropagation algorithm and repeatedly applies the image. It includes the step of allowing the result output from the output end of the convolutional neural network to converge to the expected output value, and finishing the learning when the difference between the actual output value and the expected value is minimized.

학습부(122)는 제1이미지에 컨볼루션 필터를 적용하여, 제1이미지를 피처맵(Feature map)으로 변환하는 컨볼루션 레이어를 포함할 수 있다.The learner 122 may include a convolution layer that converts the first image into a feature map by applying a convolution filter to the first image.

나아가, 학습부(122)는 제1이미지의 데이터 크기를 줄이는 풀링 레이어를 포함할 수 있다. 즉, 학습부(122)는 컨볼루션 레이어와 풀링 레이어를 반복적으로 구성하면서, 제1이미지의 각 특징을 추출한 데이터의 크기를 축소하여 종류별로 분류할 수 있다.Furthermore, the learning unit 122 may include a pooling layer that reduces the data size of the first image. That is, the learning unit 122 may reduce the size of data obtained by extracting each feature of the first image while repeatedly configuring the convolution layer and the pooling layer to classify the data by type.

예컨대, 학습부(122)는 제1이미지의 특징을 추출하여 인종, 성별, 나이별로 분류하거나, 각 패션 상품, 각 미용 상품별로 분류할 수 있다. For example, the learning unit 122 may extract the features of the first image and classify them by race, gender, and age, or classify them by each fashion product and each beauty product.

예를들면, 학습부(122)는 제1이미지의 특징을 추출한 데이터를 인종에 따른 얼굴형, 피부톤, 체형, 신장, 머리길이, 머리색, 헤어스타일, 손톱모양으로 구분하여 저장하거나, 성별에 따른 얼굴형, 피부톤, 체형, 신장, 머리길이, 머리색, 헤어스타일, 손톱모양으로 구분하여 저장할 수 있다.For example, the learning unit 122 divides and stores the data extracted from the features of the first image into face type, skin tone, body type, height, hair length, hair color, hairstyle, and nail shape according to race, or stores the data according to gender. Depending on the face type, skin tone, body type, height, hair length, hair color, hairstyle, and nail shape, it can be stored.

이후, 학습부(122)는 분류된 데이터를 각각 벡터값으로 변환하여 배열한 제1벡터 정보를 생성할 수 있다. 이때 학습부(122)는 하나 이상의 제1이미지를 분석할 수 있다.Thereafter, the learner 122 may generate first vector information arranged by converting each classified data into a vector value. In this case, the learning unit 122 may analyze one or more first images.

한편, 학습부(122)는 복수의 컨볼루션 신경망을 포함할 수 있고, 복수의 학습모델을 생성할 수 있다.Meanwhile, the learning unit 122 may include a plurality of convolutional neural networks and may generate a plurality of learning models.

데이터베이스모듈(120)은 하나 이상의 메모리(123)를 포함할 수 있으며, 메모리(123)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Onlyory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The database module 120 may include one or more memories 123 , and the memory 123 may be a flash memory type, a hard disk type, or a multimedia card micro type. ), card type memory (such as SD or XD memory), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read) -Only memory), a programmable read-only (PROM), a magnetic memory, a magnetic disk, and may include at least one type of storage medium among optical disks.

입력모듈(130)은, 사용자 단말기(10)로부터 사용자의 전신을 촬영한 사용자이미지와, 사용자의 개인정보가 입력될 수 있다. 이때, 사용자 단말기(10)는 스마트폰, 태블릿 컴퓨터, 노트북, 데스크탑 등을 포함할 수 있다.The input module 130 may input a user image obtained by photographing the user's whole body and personal information of the user from the user terminal 10 . In this case, the user terminal 10 may include a smart phone, a tablet computer, a notebook computer, a desktop, and the like.

사용자는 카메라, 캠코더 등과 같은 이미지획득 장치를 이용하여 전신을 촬영할 수 있으며 여기서 촬영된 이미지는 단일의 이미지뿐만 아니라, 복수의 이미지 또는 영상(Video)을 포함할 수 있다.A user may photograph the whole body using an image acquisition device such as a camera or a camcorder, and the captured image may include a plurality of images or videos as well as a single image.

사용자의 개인정보는, 사용자 이름 정보, 사용자 위치 정보, 사용자 성별 정보, 사용자 나이 정보, 사용자 키 정보, 사용자 몸무게 정보, 사용자 연락처 정보를 포함할 수 있다. The user's personal information may include user name information, user location information, user gender information, user age information, user height information, user weight information, and user contact information.

사용자 단말기(10)에는 사용자의 개인정보에 대한 각 항목이 화면으로 출력될 수 있다. 그리고 사용자는 화면에 출력된 항목에 대한 개인정보를 사용자 단말기(10)를 사용하여 입력할 수 있다. Each item of the user's personal information may be output to the screen of the user terminal 10 . In addition, the user may input personal information about the item output on the screen using the user terminal 10 .

사용자의 개인정보에 대한 항목은 상술한 항목에 제한되지 않고, 관리자에 의해 다양한 항목으로 설정될 수 있다.The items for the user's personal information are not limited to the above items, and various items may be set by the administrator.

입력된 사용자의 개인정보는 하나의 코드로 변환되고, 복수의 사용자를 구분하는데 사용될 수 있다.The input user's personal information is converted into one code and can be used to distinguish a plurality of users.

가공모듈(140)은 입력모듈(130)에 입력된 사용자이미지를 수신받고, 사용자이미지를 개선처리하는 전처리 작업을 실시할 수 있다.The processing module 140 may receive the user image input to the input module 130 and perform a pre-processing operation for improving the user image.

예를 들어, 수신된 이미지의 개선은 Denoise 연산 처리, Deblur 연산 처리, High Dynamic Range 연산 처리, Color Tone Mapping 연산 처리, Defog 연산 처리, Brightness 연산 처리, Contrast 연산 처리, Auto White Balance 연산 처리, Back Light Compensation 연산 처리, Decompression 연산 처리 중 적어도 하나의 연산 처리를 포함할 수 있다.For example, the improvement of the received image includes Denoise operation processing, Deblur operation processing, High Dynamic Range operation processing, Color Tone Mapping operation processing, Defog operation processing, Brightness operation processing, Contrast operation processing, Auto White Balance operation processing, Back Light. It may include at least one arithmetic process of a compression arithmetic process and a decompression arithmetic process.

이때, 가공모듈(140)의 전처리 조건은, 후술하는 예측모듈(150)이 사용자이미지에서 사용자의 전신 즉, 객체를 보다 정확하게 인식하여 분석할 수 있도록 예측모듈(150)의 객체 인식률을 향상시킬 수 있는 조건으로 만들어지는 것이 바람직하다.At this time, the pre-processing condition of the processing module 140 may improve the object recognition rate of the prediction module 150 so that the prediction module 150 to be described later can more accurately recognize and analyze the user's whole body, that is, the object in the user image. It is desirable to make it under the conditions that exist.

예컨대 사용자이미지의 선명도가 높을수록 예측모듈(150)의 객체 인식률이 향상된다면, 가공모듈(140)은 사용자이미지의 선명도를 높이는 조건으로 사용자이미지를 가공할 수 있다.For example, if the object recognition rate of the prediction module 150 is improved as the sharpness of the user image is higher, the processing module 140 may process the user image on the condition that the sharpness of the user image is increased.

한편, 가공모듈(140)은 Open CV 라이브러리를 이용하여 노이즈 제거 및 명암, 밝기 등을 조절함으로써 사용자이미지를 전처리 할 수도 있다.On the other hand, the processing module 140 may pre-process the user image by removing noise and adjusting the contrast, brightness, etc. using the Open CV library.

예측모듈(150)은 가공모듈(140)에서 전처리된 사용자이미지를 분석하여 사용자의 얼굴형, 피부톤, 체형, 신장길이, 성별, 인종, 나이를 예측하여 제2신체정보를 생성할 수 있다.The prediction module 150 may generate the second body information by analyzing the user image preprocessed by the processing module 140 to predict the user's face shape, skin tone, body type, height length, gender, race, and age.

예측모듈(150)은 복수의 컨볼루션 신경망(CNN, Convolution Neural Network)의 알고리즘을 기반으로하여, 사용자이미지를 분석함으로써 사용자의 얼굴형, 인종, 피부톤, 나이, 체형, 성별, 신장을 예측할 수 있다.The prediction module 150 can predict a user's face type, race, skin tone, age, body type, gender, and height by analyzing a user image based on an algorithm of a plurality of convolutional neural networks (CNN). .

예측모듈(150)은 더 상세하게 얼굴형예측모듈(151), 피부톤예측모듈(152), 체형예측모듈(153), 신장예측모듈(154), 성별예측모듈(155), 인종예측모듈(156), 나이예측모듈(157)을 포함할 수 있다.In more detail, the prediction module 150 includes a face shape prediction module 151, a skin tone prediction module 152, a body shape prediction module 153, a height prediction module 154, a gender prediction module 155, and a race prediction module 156. ), an age prediction module 157 may be included.

얼굴형예측모듈(151)은 입력모듈(130)에 입력된 사용자이미지를 수신받고 사용자이미지에서 사용자의 얼굴윤곽선을 감지하여 사용자의 얼굴형을 예측할 수 있다. The face shape prediction module 151 may receive the user image input to the input module 130 and detect the user's face contour from the user image to predict the user's face shape.

사용자이미지에서 얼굴윤곽선과 특징점들을 검출하는 것은 에이다부스트(Adaboost), SVM(Support Vector, Machine), AAM(Active Appearance Model) 등과 같은 얼굴인식 알고리즘을 통해 이루어지게 되는데, 이와 같은 얼굴인식 알고리즘은 당해 기술분야에서 주지된 기술이므로 자세한 설명은 생략하기로 한다.Detecting facial contours and feature points in user images is accomplished through face recognition algorithms such as Adaboost, SVM (Support Vector, Machine), and AAM (Active Appearance Model). Since it is a well-known technique in the field, a detailed description thereof will be omitted.

예컨대, 얼굴형예측모듈(151)은 감지된 사용자의 얼굴윤곽선을 추출하여 학습부(122)에서 생성된 학습모델에 입력함으로써, 사용자의 얼굴형을 예측할 수 있다.For example, the face shape prediction module 151 may predict the user's face shape by extracting the detected user's face contour and inputting it to the learning model generated by the learning unit 122 .

더 상세히 설명하면, 추출된 사용자의 얼굴윤곽선은 컨볼루션 신경망 알고리즘 즉, 학습부(122)에서 생성된 학습모델에 입력되어 데이터화 될 수 있고 이후, 필터를 통해 얼굴윤곽선 정보가 추출되어 분류될 수 있다. In more detail, the extracted user's facial contour line may be input to the learning model generated by the convolutional neural network algorithm, that is, the learning unit 122 and converted into data, and then, the facial contour information may be extracted and classified through a filter. .

분류된 얼굴윤곽선 정보는 벡터값으로 변환되어 제2벡터 정보를 생성할 수 있다.The classified face contour information may be converted into a vector value to generate second vector information.

얼굴형예측모듈(151)은 제2벡터 정보를 제1벡터 정보와 비교하여, 제2벡터 정보와 가장 유사한 제1벡터 정보를 매칭함으로써 사용자의 얼굴형을 예측할 수 있다.The face shape prediction module 151 may predict the user's face shape by comparing the second vector information with the first vector information and matching the first vector information most similar to the second vector information.

이때, 얼굴형은 사각형, 삼각형, 역삼각형, 타원형, 긴타원형, 둥근형, 마름모형 중 어느 하나로 예측될 수 있다. 그러나, 얼굴형의 분류는 상술한 얼굴형의 종류에 제한되지 않고 관리자에 의해 다양하게 설정될 수 있다.In this case, the face shape may be predicted as any one of a quadrangle, a triangle, an inverted triangle, an oval, a long oval, a round, and a rhombus. However, the classification of the face type is not limited to the above-described type of the face type and may be variously set by an administrator.

한편, 얼굴형예측모듈(151)은 얼굴영역과 특징점들을 검출하여 얼굴형을 예측할 수도 있다.Meanwhile, the face shape prediction module 151 may predict the face shape by detecting the face region and feature points.

더 상세히 설명하면, 얼굴형예측모듈(151)은 사용자이미지에서 얼굴영역을 감지하고, 감지된 얼굴영역에서 복수의 특징점을 검출할 수 있다. 다만, 이에 한정되는 것은 아니고 필요에 따라 더 적은 개수의 특징점 또는 더 많은 개수의 특징점을 검출할 수 있다.In more detail, the face shape prediction module 151 may detect a face region in the user image and detect a plurality of feature points in the detected face region. However, the present invention is not limited thereto, and a smaller number of feature points or a larger number of feature points may be detected as needed.

도 7을 참조하면, 제1 특징점 내지 제13 특징점은 각각 촬영 대상자의 얼굴형태를 나타낼 수 있는 특징점(이하, '얼굴형태점')일 수 있고, A 특징점은 콧망울의 중심, B 특징점은 눈과 눈 사이의 중심, C 특징점은 이마면의 중심을 나타내는 (이하, '얼굴중심점') 일 수 있다.Referring to FIG. 7 , the first to thirteenth feature points may be feature points (hereinafter, 'face shape points') capable of representing the face shape of the subject, respectively, feature point A is the center of the nose, and feature point B is the eyes. The center between the eye and the C feature point may be a center of the forehead (hereinafter, 'face center point').

얼굴형예측모듈(151)은 얼굴형태점인 제1 특징점 내지 제13 특징점을 각각 A 특징점과 연결한 후, 각 거리를 연산한다. 또한, 얼굴형태점 각각과 B 특징점 및 C 특징점과 연결하여 거리를 연산한다. 얼굴형예측모듈(151)은 연산된 각 거리값의 비교를 통해 사용자의 얼굴형태를 분석할 수 있다. 또한, 제1 특징점 내지 제7 특징점을 연결한 후, 연결된 선의 곡률 및 길이를 연산한 값과, 제7 특징점 내지 제13 특징점을 연결한 후, 연결된 선의 곡률 및 길이를 연산한 값을 통해 사용자의 얼굴윤곽선 분석이 가능하다.The face shape prediction module 151 connects the first to thirteenth feature points, which are the face shape points, with the feature points A, respectively, and then calculates each distance. In addition, the distance is calculated by connecting each of the face shape points with the B feature point and the C feature point. The face shape prediction module 151 may analyze the user's face shape by comparing each calculated distance value. In addition, the value calculated by calculating the curvature and length of the connected line after connecting the first to seventh feature points, and the value calculated by calculating the curvature and length of the connected line after connecting the seventh to thirteen feature points. Facial contour analysis is possible.

얼굴형예측모듈(151)은 연산 결과값을 기 설정된 값과 비교하여 사용자의 얼굴형을 예측할 수 있다.The face shape prediction module 151 may predict the user's face shape by comparing the calculation result with a preset value.

한편, 얼굴형예측모듈(151)은 학습모델에 입력하여 사용자의 얼굴형을 예측한 결과와, 사용자의 얼굴영역과 특징점들을 검출하여 사용자의 얼굴형을 예측한 결과가 서로 상이한 경우에는 사용자 단말기(10)에 새로운 사용자 이미지를 요청하는 텍스트 또는 이미지를 출력할 수 있다.On the other hand, the face shape prediction module 151 inputs to the learning model and predicts the user's face shape and the user's terminal ( 10) can output text or images requesting a new user image.

피부톤예측모듈(152)은 입력모듈(130)에 입력된 사용자이미지를 수신받고 사용자이미지에서 사용자의 피부를 감지하여 사용자의 피부톤을 예측할 수 있다.The skin tone prediction module 152 may receive the user image input to the input module 130 , detect the user's skin from the user image, and predict the user's skin tone.

예컨대, 피부톤예측모듈(152)은 감지된 사용자의 피부영역을 감지하여 학습부(122)의 학습모델에 입력함으로써, 사용자 피부톤을 예측할 수 있다.For example, the skin tone prediction module 152 may predict the user's skin tone by detecting the sensed user's skin region and inputting it to the learning model of the learning unit 122 .

더 상세히 설명하면, 피부톤예측모듈(152)은 사용자이미지에서 사용자의 피부영역을 감지하여 사용자의 피부영역에 대한 색상 정보를 추출한다.In more detail, the skin tone prediction module 152 detects the user's skin area in the user image and extracts color information about the user's skin area.

이후, 추출된 사용자 피부 색상 정보는 벡터값으로 변환되어 제3벡터 정보를 생성할 수 있다.Thereafter, the extracted user skin color information may be converted into a vector value to generate third vector information.

피부톤예측모듈(152)은 제3벡터 정보를 제1벡터 정보와 비교하여, 제3벡터 정보와 가장 유사한 제1벡터 정보를 매칭함으로써 사용자의 피부톤을 예측할 수 있다.The skin tone prediction module 152 may predict the skin tone of the user by comparing the third vector information with the first vector information and matching the first vector information most similar to the third vector information.

데이터베이스모듈(120)의 학습부(122)는 사용자의 피부색을 RGB 값으로 구분하여 피부톤을 예측할 수 있는데 예를들면, 학습부(122)는 추출된 사용자 피부색의 RGB 값이 #FFE4C4, #FAEBD7, #F5F5DC, #FFF8DC, #FFFAF0인 경우, 사용자 피부톤이 여름쿨톤이라고 구분할 수 있고, 추출된 사용자 피부색이 RGB 값이 #FFDEAD, #FFEFD5, #FFDAB9, #FFE4B5, #FFC19E인 경우, 사용자 피부톤이 가을웜톤이라고 구분할 수 있다.The learning unit 122 of the database module 120 can predict the skin tone by dividing the user's skin color into RGB values. For example, the learning unit 122 determines that the extracted RGB values of the user's skin color are In the case of #F5F5DC, #FFF8DC, #FFFAF0, the user's skin tone can be distinguished as a summer cool tone, and if the extracted user skin color has RGB values of #FFDEAD, #FFEFD5, #FFDAB9, #FFE4B5, #FFC19E, the user's skin tone is autumn. It can be classified as a warm tone.

그러나, 피부톤의 구분은 상술한 RGB 값에 제한되지 않고, 관리자에 의해 유동적으로 변경될 수 있다.However, the classification of skin tones is not limited to the above-described RGB values, and may be flexibly changed by an administrator.

체형예측모듈(153)은, 입력모듈(130)에 입력된 사용자이미지를 수신받고 사용자이미지에서 사용자의 몸체를 감지하여 사용자의 체형을 예측할 수 있다.The body shape prediction module 153 may receive the user image input to the input module 130 and detect the user's body from the user image to predict the user's body shape.

여기서 몸체영역은, 사용자의 머리부분을 제외한 목부터 발끝까지를 의미하며 사용자의 전체적인 외측형상을 의미한다.Here, the body region means from the neck to the toes excluding the user's head, and means the user's overall outer shape.

예컨대, 체형예측모듈(153)은 감지된 사용자의 몸체를 학습부(122)의 학습모델에 입력함으로써, 사용자의 체형을 예측할 수 있다.For example, the body shape prediction module 153 may predict the body shape of the user by inputting the sensed user's body into the learning model of the learning unit 122 .

더 상세히 설명하면, 체형예측모듈(153)은 사용자이미지에서 사용자 몸체의 전체적인 외측형상을 추출한다.In more detail, the body shape prediction module 153 extracts the overall outer shape of the user's body from the user image.

추출된 사용자 몸체의 외측형상은 학습부(122)의 학습모델에 입력되어 데이터화 될 수 있고 이후, 필터를 통해 체형정보가 추출되어 분류될 수 있다.The extracted outer shape of the user's body may be input to the learning model of the learning unit 122 and converted into data, and then, body shape information may be extracted and classified through a filter.

분류된 체형정보는 벡터값으로 변환되어 제4벡터 정보를 생성할 수 있다.The classified body shape information may be converted into a vector value to generate fourth vector information.

체형예측모듈(153)은 제4벡터 정보를 제1벡터 정보와 비교하여, 제4벡터 정보와 가장 유사한 제1벡터 정보를 매칭함으로써 사용자의 체형을 예측할 수 있다.The body shape prediction module 153 may predict the user's body shape by comparing the fourth vector information with the first vector information and matching the first vector information most similar to the fourth vector information.

신장예측모듈(154)은 입력모듈(130)에 입력된 사용자이미지를 수신받고 사용자이미지에서 사용자의 얼굴영역과 사용자의 체형을 감지하여 사용자의 신장을 예측할 수 있다.The height prediction module 154 may receive the user image input to the input module 130 and predict the height of the user by detecting the user's face region and the user's body type from the user image.

더 상세히 설명하면 신장예측모듈(154)은 입력모듈(130)에 입력된 사용자이미지에서 사용자의 얼굴영역과 사용자의 몸체영역을 감지한다.In more detail, the height prediction module 154 detects the user's face area and the user's body area from the user image input to the input module 130 .

신장예측모듈(154)은 사용자의 얼굴영역 즉, 머리의 최상측 부분부터 턱 부분까지를 감지하여 머리로 인식한다. 그리고 신장예측모듈(154)은 사용자의 몸체영역, 즉 목에서부터 발끝까지를 감지하여 몸체로 인식한다. The height prediction module 154 detects the user's face region, that is, from the uppermost part of the head to the chin, and recognizes it as the head. And the height prediction module 154 detects the user's body region, that is, from the neck to the toes, and recognizes it as the body.

측정된 각 얼굴영역 및 몸체영역은 학습부(122)의 학습모델에 입력될 수 있다.Each measured face region and body region may be input to the learning model of the learning unit 122 .

입력된 각 얼굴영역 및 몸체영역은 데이터화 되어 필터를 통해 사용자의 신장정보가 추출되어 분류될 수 있다. 분류된 신장정보는 벡터값으로 변환되어 제5벡터 정보를 생성할 수 있다.Each input face region and body region are converted into data, and height information of the user can be extracted and classified through a filter. The classified height information may be converted into a vector value to generate fifth vector information.

신장예측모듈(154)은, 제5벡터 정보를 제1벡터 정보와 비교하여, 제5벡터 정보와 가장 유사한 제1벡터 정보를 매칭함으로써 사용자의 신장을 예측할 수 있다.The height prediction module 154 may predict the height of the user by comparing the fifth vector information with the first vector information and matching the first vector information most similar to the fifth vector information.

한편, 신장예측모듈(154)은 사용자이미지를 분석하여 사용자의 얼굴영역, 몸체영역 및 어깨영역의 비율을 기초로 사용자의 신장을 예측할 수도 있다.Meanwhile, the height prediction module 154 may analyze the user image and predict the height of the user based on the ratio of the user's face region, body region, and shoulder region.

상세히 설명하면, 먼저 신장예측모듈(154)에는 나라별 남녀의 평균 얼굴 크기 수치, 나라별 남녀의 평균 키 수치, 나라별 남녀의 평균 어깨너비 수치가 데이터화 되어 저장될 수 있다.In detail, first, the height prediction module 154 may store the average face size of men and women by country, the average height of men and women by country, and the average shoulder width of men and women by country as data.

그리고, 신장예측모듈(154)은 사용자이미지를 수신받아 사용자이미지에서 사용자의 얼굴영역, 몸체영역 및 어깨영역을 감지할 수 있다.In addition, the height prediction module 154 may receive the user image and detect the user's face region, body region, and shoulder region from the user image.

이후, 신장예측모듈(154)은 감지된 머리의 최상측부터 턱 부분까지의 직선거리를 측정하고, 목에서부터 발끝까지의 직선 거리와, 왼쪽 어깨에서부터 오른쪽 어깨까지의 직선거리를 측정할 수 있다.Thereafter, the height prediction module 154 may measure the sensed linear distance from the top of the head to the chin, and measure the linear distance from the neck to the toes, and the linear distance from the left shoulder to the right shoulder.

신장예측모듈(154)은 측정된 각 수치를 나라별 남녀의 평균 얼굴 길이, 키, 어깨너비 수치와 비교하여 사용자의 신장을 예측할 수 있다.The height prediction module 154 may predict the height of the user by comparing each measured value with the average face length, height, and shoulder width values of men and women by country.

성별예측모듈(155)은, 입력모듈(130)에 입력된 사용자이미지를 수신받고 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형, 피부색을 감지하여 사용자의 성별을 예측할 수 있다.The gender prediction module 155 receives the user image input to the input module 130 and detects the user's face contour, eye shape, nose shape, mouth shape, hair length, body shape, and skin color from the user image to determine the user's gender. can be predicted.

성별예측모듈(155)은, 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형, 피부색을 감지하여 학습부(122)의 학습모델에 입력할 수 있다.The gender prediction module 155 may detect the user's face contour, eye shape, nose shape, mouth shape, hair length, body shape, and skin color from the user image and input it to the learning model of the learning unit 122 .

입력된 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형, 피부색은 학습모델에 입력되어 데이터화 될 수 있고 이후, 필터를 통해 성별정보가 추출되어 분류될 수 있다.The input user's face contour, eye shape, nose shape, mouth shape, hair length, body shape, and skin color can be input to the learning model and converted into data, and then, gender information can be extracted and classified through a filter.

분류된 성별정보는 벡터값으로 변환되어 제6벡터 정보를 생성할 수 있다.The classified gender information may be converted into a vector value to generate sixth vector information.

성별예측모듈(155)은 제6벡터 정보를 제1벡터 정보와 비교하여, 제6벡터 정보와 가장 유사한 제1벡터 정보를 매칭함으로써 사용자의 체형을 예측할 수 있다.The gender prediction module 155 may predict the user's body type by comparing the sixth vector information with the first vector information and matching the first vector information most similar to the sixth vector information.

한편, 성별예측모듈(155)은 사용자의 얼굴영역, 체형영역과 특징점들을 검출하여 성별을 예측할 수도 있다.Meanwhile, the gender prediction module 155 may predict the gender by detecting the user's face area, body type area, and feature points.

예컨대, 성별예측모듈(155)은 도 7에 도시된 바와 같이, 사용자이미지에서 A 특징점, B 특징점, C 특징점과 제14 특징점 내지 제72 특징점을 검출할 수 있다. 다만, 이에 한정되는 것은 아니고 필요에 따라 더 적은 개수의 특징점 또는 더 많은 개수의 특징점을 검출할 수 있다.For example, as shown in FIG. 7 , the gender prediction module 155 may detect a feature point A, a feature point B, a feature point C, and a 14th to 72nd feature point in the user image. However, the present invention is not limited thereto, and a smaller number of feature points or a larger number of feature points may be detected as needed.

A 특징점, B 특징점, C 특징점은 얼굴형예측모듈(151)에서와 같은 얼굴중심점이고, 제14 특징점 내지 제72 특징점은 사용자의 안면 구성 즉 눈, 코, 입을 구분할 수 있는 특징점(이하, '구성특징점')이다.A feature point, B feature point, and feature point C are the same face center points as in the face shape prediction module 151, and the 14th to 72nd feature points are feature points that can distinguish the user's facial configuration, that is, eyes, nose, and mouth (hereinafter, 'configuration'). characteristic point').

성별예측모듈(155)은, 구성특징점과, 얼굴중심점간의 거리에 대한 비율 및 각 구성특징점들의 거리로서 사용자의 얼굴을 분석할 수 있다.The gender prediction module 155 may analyze the user's face as a ratio to a distance between a feature point and a face center point and a distance between each feature point.

더 상세히 설명하면 성별예측모듈(155)은 구성특징점과, 얼굴중심점간의 거리를 연산하여 사용자의 두 눈 사이의 거리, 코 길이와 너비, 입술의 두께 등을 연산할 수 있다. 이후, 성별예측모듈(155)은 연산된 결과를 기 설정된 성별에 따른 평균 두 눈 사이의 거리, 평균 코 길이와 너비, 평균 입술의 두께와 비교하여 사용자의 성별을 예측할 수 있다. In more detail, the gender prediction module 155 may calculate the distance between the user's two eyes, the length and width of the nose, the thickness of the lips, and the like by calculating the distance between the constituent feature points and the face center point. Thereafter, the gender prediction module 155 may predict the gender of the user by comparing the calculated result with an average distance between two eyes, an average nose length and width, and an average lip thickness according to a preset gender.

예컨대, 기 설정된 남성 평균 코 길이가 4.9 내지 5.5mm 이고, 남성 평균 코 너비가 4.0 내지 4.5mm 이고, 사용자의 코 길이가 52mm이고, 코 너비가 4.3mm인 경우 성별예측모듈(155)은 사용자가 남성이라고 예측할 수 있다.For example, when the preset male average nose length is 4.9 to 5.5 mm, the male average nose width is 4.0 to 4.5 mm, the user's nose length is 52 mm, and the nose width is 4.3 mm, the gender prediction module 155 is It can be predicted to be male.

인종예측모듈(156)은 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형, 피부색을 감지하여 사용자의 인종을 예측할 수 있다. The race prediction module 156 may predict the user's race by detecting the user's face contour, eye shape, nose shape, mouth shape, hair length, body shape, and skin color from the user image.

인종예측모듈(156)은 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형, 피부색을 감지하여 학습부(122)의 학습모델에 입력할 수 있다.The race prediction module 156 may detect the user's face contour, eye shape, nose shape, mouth shape, hair length, body shape, and skin color from the user image and input it to the learning model of the learning unit 122 .

입력된 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형, 피부색은 학습모델에 입력되어 데이터화 될 수 있고 이후, 필터를 통해 인종정보가 추출되어 분류될 수 있다.The inputted user's face contour, eye shape, nose shape, mouth shape, hair length, body shape, and skin color can be input to the learning model and converted into data, and then, race information can be extracted and classified through a filter.

분류된 인종정보는 벡터값으로 변환되어 제7벡터 정보를 생성할 수 있다.The classified race information may be converted into a vector value to generate seventh vector information.

인종예측모듈(156)은 제7벡터 정보를 제1벡터 정보와 비교하여, 제7벡터 정보와 가장 유사한 제1벡터 정보를 매칭함으로써 사용자의 인종을 예측할 수 있다.The race prediction module 156 may predict the user's race by comparing the seventh vector information with the first vector information and matching the first vector information most similar to the seventh vector information.

여기서 인종은 백인종, 흑인종, 황인종으로 구분될 수 있다.Here, races can be divided into whites, blacks, and yellows.

나이예측모듈(157)은 얼굴형예측모듈(151), 피부톤예측모듈(152), 체형예측모듈(153), 신장예측모듈(154), 성별예측모듈(155), 인종예측모듈(156)의 예측결과를 바탕으로 사용자의 나이를 예측할 수 있다.The age prediction module 157 includes a face shape prediction module 151, a skin tone prediction module 152, a body shape prediction module 153, a height prediction module 154, a gender prediction module 155, and a race prediction module 156. Based on the prediction result, the age of the user can be predicted.

예컨대, 나이예측모듈(157)은 각 모듈의 예측결과를 데이터베이스모듈(120)의 나이정보 즉, 나이에 따른 피부톤, 얼굴형, 체형, 신장, 성별, 인종 정보와 비교함으로써 사용자의 나이를 예측할 수 있다. For example, the age prediction module 157 may predict the user's age by comparing the prediction result of each module with the age information of the database module 120, that is, skin tone, face shape, body type, height, gender, and race information according to age. have.

한편, 나이예측모듈(157)은 사용자이미지에서 사용자의 얼굴윤곽선, 피부영역, 체형, 눈 형상, 코 형상, 입 형상, 머리길이를 감지하고, 학습모델에 입력함으로써 사용자의 나이를 예측할 수도 있다. On the other hand, the age prediction module 157 may predict the age of the user by detecting the user's face contour, skin region, body type, eye shape, nose shape, mouth shape, and hair length from the user image, and inputting it to the learning model.

예컨대, 나이예측모듈(157)은 사용자이미지에서 사용자의 사용자의 얼굴윤곽선, 피부영역, 체형, 눈 형상, 코 형상, 입 형상, 머리길이를 감지하여 학습모델에 입력할 수 있다. 이후 학습모델은 입력된 사용자의 얼굴윤곽선, 피부영역, 체형, 눈 형상, 코 형상, 입 형상, 머리길이를 데이터화하고, 필터를 통해 나이정보가 추출되어 분류될 수 있다.For example, the age prediction module 157 may detect the user's face contour, skin area, body type, eye shape, nose shape, mouth shape, and hair length from the user image and input it to the learning model. Thereafter, the learning model can be classified by converting the input user's face contour, skin region, body type, eye shape, nose shape, mouth shape, and hair length into data, and extracting age information through a filter.

분류된 나이정보는 벡터값으로 변환되어 제8벡터 정보를 생성할 수 있다.The classified age information may be converted into a vector value to generate eighth vector information.

나이예측모듈(157)은 제8벡터 정보를 제1벡터 정보와 비교하여, 제8벡터 정보와 가장 유사한 제1벡터 정보를 매칭함으로써 사용자의 나이를 예측할 수 있다.The age prediction module 157 may predict the age of the user by comparing the eighth vector information with the first vector information and matching the first vector information most similar to the eighth vector information.

상술한 예측모듈(150)은 사용자이미지를 분석하여 사용자의 얼굴형, 피부톤, 체형, 신장, 성별, 인종, 나이를 예측하여 그 결과를 제2신체정보로 생성할 수 있다.The above-described prediction module 150 may analyze the user image to predict the user's face shape, skin tone, body type, height, gender, race, and age, and generate the result as second body information.

이때, 제2신체정보는 텍스트, 이미지 등의 다양한 형태로 저장될 수 있다. In this case, the second body information may be stored in various forms such as text and images.

한편, 예측모듈(150)은 복수의 컨볼루션 신경망(CNN, Convolution Neural Network)의 알고리즘을 기반으로 하여, 사용자이미지를 분석하여 사용자의 얼굴형, 피부톤, 체형, 신장, 성별, 인종, 나이를 예측할 수 있지만, 이에 한정되지 않고, 사진을 분석하여 사용자의 얼굴형, 피부톤, 체형, 신장, 성별, 인종, 나이를 예측할 수 있는 방법이라면 어떠한 방법으로 실시되더라도 무방하다.On the other hand, the prediction module 150 is based on the algorithm of a plurality of convolutional neural networks (CNN), analyzes the user image to predict the user's face shape, skin tone, body type, height, gender, race, age However, the present invention is not limited thereto, and any method may be used as long as it is a method capable of predicting a user's face shape, skin tone, body type, height, gender, race, and age by analyzing a photo.

또한, 예측모듈(150)은 상술한 사용자의 얼굴형, 피부톤, 체형, 신장, 성별, 인종, 나이를 예측하는 것에 제한되지 않고, 사용자이미지를 분석하여 사용자에 대한 다양한 특징을 추출하며 분류할 수 있다.In addition, the prediction module 150 is not limited to predicting the user's face type, skin tone, body type, height, gender, race, age, and can extract and classify various features of the user by analyzing the user image. have.

추천모듈(160)은 예측모듈(150)에서 생성된 제2신체정보에 대응되는 패션정보를 매칭할 수 있다.The recommendation module 160 may match the fashion information corresponding to the second body information generated by the prediction module 150 .

이후, 추천모듈(160)은 매칭된 패션정보를 바탕으로 사용자에게 적합한 즉, 어울리는 제2미용정보와 제2코디정보를 생성할 수 있다.Thereafter, the recommendation module 160 may generate second beauty information and second coordination information suitable for the user based on the matched fashion information.

예컨대, 제2신체정보의 내용이 사각형 얼굴형, RGB 값이 #FFC19E인 가을 웜톤, 모래시계 체형, 150cm 내지 155cm의 신장, 여성, 황인종, 30대인 경우 추천모듈(160)은 상술한 제2신체정보와 대응되는 패션정보를 패션정보 수집모듈(110)에서 찾아 매칭할 수 있다.For example, if the content of the second body information is a rectangular face shape, an autumn warm tone with an RGB value of #FFC19E, an hourglass body shape, a height of 150 cm to 155 cm, a female, a yellow race, and a 30s, the recommendation module 160 provides the above-described second body Fashion information corresponding to the information may be found and matched in the fashion information collection module 110 .

더 상세히 설명하면, 추천모듈(160)은 상술한 사용자의 제2신체정보 내용에 따라 사각형 얼굴형을 보완할 수 있는 헤어스타일정보, 헤어 길이 정보 등을 추출하고, 가을 웜톤의 황인종에 어울리는 피부 화장품 정보, 립 화장품 정보, 치크 화장품 정보, 헤어컬러 정보, 컬러 렌즈 정보 등을 추출하여 제2미용정보를 생성할 수 있다. In more detail, the recommendation module 160 extracts hair style information, hair length information, etc. that can supplement a square face shape according to the user's second body information content, and skin cosmetics suitable for a warm-toned yellow race in autumn. Information, lip cosmetics information, cheek cosmetics information, hair color information, color lens information, etc. may be extracted to generate the second beauty information.

또한, 모래시계 체형을 보완하며, 150cm 내지 155cm의 신장에 적합하며, 30대 여성에게 적합한 의상 정보를 추출하고, 추출된 의상 정보와 어울리는 가방 정보, 신발 정보, 양말 정보, 모자 정보, 악세사리 정보 등을 함께 추출하여 제2코디정보를 생성할 수 있다.In addition, it complements the hourglass body shape, is suitable for a height of 150 cm to 155 cm, and extracts clothing information suitable for women in their 30s, bag information, shoe information, socks information, hat information, accessory information, etc. can be extracted together to generate the second coordination information.

예컨대, 추천모듈(160)은 예측모듈(150)에서 예측된 제2신체정보와, 패션정보 수집모듈(110)에 저장된 패션정보를 텍스트화 한 후 토큰(Token) 단위로 나누고, 의미없는 단어를 제거하는 불용어 제거 작업을 수행할 수 있다.For example, the recommendation module 160 converts the second body information predicted by the prediction module 150 and the fashion information stored in the fashion information collection module 110 into text, then divides them into token units, and selects meaningless words. You can perform a stopword removal operation to remove.

이후, 추천모듈(160)은 토큰화된 신체정보와, 패션정보의 각 단어의 품사를 구분할 수 있다. 이에 따르면, 불필요한 노이즈 단어가 제거되므로 키워드 추출의 정확도를 향상 시킬 수 있다. 이후 토큰화된 제2신체정보와, 패션정보의 단어는 TF-IDF 방법에 의하여 각각 가장 값이 높은 복수개의 키워드를 추출할 수 있다.Thereafter, the recommendation module 160 may distinguish the tokenized body information and the part-of-speech of each word of the fashion information. Accordingly, since unnecessary noise words are removed, the accuracy of keyword extraction can be improved. Thereafter, the tokenized second body information and the words of fashion information may extract a plurality of keywords having the highest values by the TF-IDF method.

추출된 각 키워드는 Text-CNN 알고리즘을 이용하여 키워드 추출 성능을 높일 수 있다.Each extracted keyword can improve keyword extraction performance by using the Text-CNN algorithm.

예컨대, 예측모듈(150)이 제2체형정보를 사각 얼굴형의 가을 웜톤 피부톤을 가지고 모래시계 체형을 가진 신장 150 내지 155cm인 30대 황인종 여성이라고 예측한 경우, 추천모듈(160)은 상술한 텍스트에서 '사각 얼굴형', '가을 웜톤', '모래시계 체형', '150 내지 155cm', '30대', '황인종', '여성' 이라는 키워드를 인식할 수 있다.For example, if the prediction module 150 predicts that the second body information is a woman of a yellow race in her 30s, 150 to 155 cm tall, with an hourglass body shape, with a square face shape, autumn warm skin tone, and an hourglass body shape, the recommendation module 160 will display the above-mentioned text. can recognize keywords such as 'square face shape', 'autumn warm tone', 'hourglass body type', '150 to 155 cm', '30s', 'yellow race', and 'woman'.

이후, 추천모듈(160)은 패션정보 수집모듈(110)에서 사각 얼굴형에 어울리는 여성의 헤어스타일정보를 매칭하고, 가을 웜톤과 어울리는 여성용 의상정보, 여성용 악세사리정보, 여성용 화장품정보, 여성의 헤어스타일정보를 매칭하고, 모래시계 체형에 어울리는 여성 의상정보를 매칭하되 신장 150 내지 150cm인 사람에게 맞는 의상정보를 매칭하는 등 제2체형정보와 대응되는 패션정보를 각각 매칭할 수 있다.After that, the recommendation module 160 matches women's hairstyle information suitable for a square face shape in the fashion information collection module 110, and women's clothing information suitable for autumn warm tones, women's accessories information, women's cosmetics information, and women's hairstyles It is possible to match the fashion information corresponding to the second body information, such as matching information, matching women's clothing information suitable for the hourglass body shape, but matching clothing information suitable for a person with a height of 150 to 150 cm.

이때, 추천모듈(160)은 제2체형정보와 대응되는 패션정보 중, 미용에 관련된 정보를 구분하여 제2미용정보를 생성하고, 코디에 관련된 정보를 구분하여 제2코디정보로 생성할 수 있다.In this case, the recommendation module 160 may generate second beauty information by dividing information related to beauty among fashion information corresponding to the second body type information, and may generate second coordination information by classifying information related to coordination. .

여기서 미용정보는 미용과 관련된 정보로서 피부 화장품 정보, 립 화장품 정보, 치크 화장품 정보, 헤어스타일정보, 네일아트 정보, 컬러 렌즈 정보를 포함할 수 있고, 코디정보는 의류 및 잡화와 관련된 정보로서 의상 정보, 가방 정보, 신발 정보, 양말 정보, 모자 정보, 악세사리 정보를 포함할 수 있다.Here, the beauty information is information related to beauty and may include skin cosmetics information, lip cosmetics information, cheek cosmetics information, hair style information, nail art information, and color lens information, and the coordination information is information related to clothing and miscellaneous goods, including clothing information. , bag information, shoe information, socks information, hat information, and accessory information.

한편, 추천모듈(160)은 제2체형정보를 기초로, 제2체형정보와 어울리지 않는 즉, 피해야하는 패션정보를 매칭하여 제3미용정보와 제3코디정보를 생성할 수 있다.On the other hand, the recommendation module 160 may generate the third beauty information and the third coordination information by matching fashion information that does not match the second body type information, that is, should be avoided, based on the second body type information.

예컨대, 사용자의 피부톤이 가을 웜톤이고 사용자의 체형이 다이아몬드 체형인 경우, 추천모듈(160)은 패션정보 수집모듈(110)에서 가을 웜톤과 어울리지 않는 핑크 계열의 립 화장품 정보, 치크 화장품 정보, 헤어 컬러 정보 등을 매칭하여 제3미용정보를 생성할 수 있고, 다이아몬드 체형과 어울리지 않는 짧은 상의 정보, 타이트한 상의 정보, 윗단 길이가 짧은 하의 정보 등을 매칭하여 제3코디정보를 생성할 수 있다.For example, when the user's skin tone is a warm autumn tone and the user's body type is a diamond body type, the recommendation module 160 provides information on pink lip cosmetics, cheek cosmetics information, and hair color that do not match the autumn warm tone in the fashion information collection module 110 . The third beauty information may be generated by matching the information, and the third coordination information may be generated by matching information on a short top that does not match the diamond body shape, information on a tight top, and information on a short bottom length at the top.

즉, 추천모듈(160)은 사용자의 제2체형정보를 기초로, 사용자에게 어울리지 않는 패션정보를 매칭하여 제공함으로써, 사용자가 추후 쇼핑이나 코디네이션을 스스로 실시하는 경우 사용자에게 어울리지 않는 제품을 구입하거나 코디네이션하는 것을 방지할 수 있다.That is, the recommendation module 160 matches and provides fashion information that does not suit the user on the basis of the user's second body information, so that when the user performs shopping or coordination by himself in the future, he or she purchases or coordinates a product that does not suit the user. can be prevented from doing

한편, 추천모듈(160)은 지정된 계절, 장소, 상황에 따라 사용자에게 계절, 장소, 상황에 맞는 제2미용정보와 제2코디정보를 생성할 수 있다.On the other hand, the recommendation module 160 may generate second beauty information and second coordination information suitable for the season, place, and situation to the user according to the specified season, place, and situation.

사용자는 사용자 단말기(10)를 통해 추천모듈(160)에 계절, 장소, 상황을 설정할 수 있다. 이때 계절은 봄, 여름, 가을, 겨울 중 하나로 지정될 수 있고, 장소는 결혼식장, 장례식장, 회사, 집, 공항, 호텔, 식당, 법원, 병원 등 다양한 장소 중 하나로 지정될 수 있고, 상황은 상견례, 파티, 소개팅, 회의, 면접, 체육대회, 여행, 병문안, 장례식 등 다양한 상황 중 하나로 지정될 수 있다.A user may set a season, a place, and a situation in the recommendation module 160 through the user terminal 10 . At this time, the season can be designated as one of spring, summer, autumn, and winter, and the location can be designated as one of various places such as a wedding hall, a funeral hall, a company, a house, an airport, a hotel, a restaurant, a court, a hospital, etc. , party, blind date, meeting, interview, athletic meet, travel, visit, funeral, etc. can be designated as one of various situations.

사용자가 사용자 단말기(10)를 통해 여름, 식당, 상견례를 설정한 경우, 추천모듈(160)은 제2체형정보에 대응되는 제2미용정보와 제2코디정보를 생성할 수 있다.When the user sets summer, restaurant, and banquet through the user terminal 10 , the recommendation module 160 may generate second beauty information and second coordination information corresponding to the second body type information.

예컨대, 추천모듈(160)은 상견례 및 여름에 어울리는 수수한 화장법 정보, 피부톤과 유사한 색상의 색조 화장품 정보 등을 포함하는 제2미용정보와, 여름에 착용할 수 있는 단정한 느낌의 의상 정보를 포함하는 제2코디정보를 생성할 수 있다.For example, the recommendation module 160 includes second beauty information including information on a simple makeup method suitable for a meeting and summer, information on color cosmetics having a color similar to the skin tone, etc., and information on clothes that can be worn in summer. Second coordination information may be generated.

이러한 추천모듈(160)에 의하면 계절, 장소 및 상황과 일치하는 제2미용정보 및 제2코디정보가 적절하게 사용자에게 제공될 수 있으므로 사용자가 상황에 따라 손쉽게 코디네이션을 할 수 있다.According to the recommendation module 160, the second beauty information and the second coordination information matching the season, place and situation can be appropriately provided to the user, so that the user can easily coordinate according to the situation.

한편, 추천모듈(160)은 사용자가 소지하고 있는 사용자 단말기(10)를 통하여 사용자의 위치를 파악하고, 사용자의 위치 특성에 따른 제2미용정보와 제2코디정보를 생성할 수 있다.Meanwhile, the recommendation module 160 may determine the location of the user through the user terminal 10 possessed by the user, and may generate second beauty information and second coordination information according to the location characteristics of the user.

여기서 사용자 단말기(10)는 GPS 신호를 수신할 수 있는 것으로 구비되어, 복수의 인공위성으로부터 GPS 신호를 수신할 수 있다. Here, the user terminal 10 is provided to receive a GPS signal, and may receive a GPS signal from a plurality of satellites.

사용자 단말기(10)는 3개 이상의 인공위성으로부터 GPS 신호를 수신받고, 수신받은 GPS 신호를 분석하여 각각의 인공위성과의 의사거리를 측정한다. 그리고 사용자 단말기(10)는 측정된 의사거리를 기초로 현재 위치에 대한 위치정보를 생성할 수 있다.The user terminal 10 receives GPS signals from three or more artificial satellites, analyzes the received GPS signals, and measures a pseudorange with each artificial satellite. In addition, the user terminal 10 may generate location information on the current location based on the measured pseudorange.

생성된 위치정보는 추천모듈(160)로 송신되고, 추천모듈(160)은 사용자의 위치정보를 바탕으로 외부 서버(2000)로부터 사용자가 위치하는 곳의 날씨에 대한 정보를 수신할 수 있다.The generated location information is transmitted to the recommendation module 160 , and the recommendation module 160 may receive information about the weather in the location where the user is located from the external server 2000 based on the location information of the user.

이후, 추천모듈(160)은 사용자 위치의 날씨에 대응되는 제2미용정보 및 제2코디정보를 생성할 수 있다.Thereafter, the recommendation module 160 may generate second beauty information and second coordination information corresponding to the weather of the user's location.

예컨대, 사용자가 위치하는 곳에 비가 내리는 경우, 추천모듈(160)은 비와 관련된 장화 정보, 우비 정보, 우산 정보를 매칭하여 제2코디정보를 생성할 수 있다. 또한, 수분에 강한 워터프루프 화장품 정보, 헤어스프레이 정보를 매칭하여 제2미용정보를 생성할 수 있다.For example, when it rains where the user is located, the recommendation module 160 may generate the second coordination information by matching rain-related boots information, rain gear information, and umbrella information. In addition, the second beauty information may be generated by matching the waterproof cosmetic information and hairspray information that is strong against moisture.

이러한 추천모듈(160)에 따르면, 사용자가 위치한 곳의 날씨에 대응되는 제2코디정보, 제2미용정보가 사용자에게 제공될 수 있다.According to the recommendation module 160 , the second coordination information and the second beauty information corresponding to the weather of the location where the user is located may be provided to the user.

한편, 추천모듈(160)은 생성된 제2미용정보와 제2코디정보를 기초로 제2코디정보에 어울리는 차량정보를 사용자에게 제공할 수 있다.Meanwhile, the recommendation module 160 may provide the user with vehicle information suitable for the second coordination information based on the generated second beauty information and the second coordination information.

예컨대, 제2체형정보가 '사각 얼굴형의 가을 웜톤 피부톤을 가지고 모래시계 체형을 가진 신장 170 내지 175cm인 30대 황인종 남성'이고, 사용자가 사용자 단말기(10)를 통해 현재 계절, 장소, 상황을 겨울, 호텔, 소개팅이라고 지정한 경우, 추천모듈(160)은 제2체형정보에 대응되는 패션정보를 매칭하여 제2미용정보와 제2코디정보를 생성할 수 있다. 이후, 추천모듈(160)은 제2코디정보와 사용자가 지정한 계절, 장소, 상황을 바탕으로 30대 남성들이 선호하고 호텔, 소개팅에 어울리는 중형급 이상의 고급 승용차에 대한 차량에 대한 정보를 추출하여 차량정보를 생성할 수 있다.For example, the second body type information is 'a yellow male in his thirties with a height of 170 to 175 cm with an hourglass body shape with an autumn warm skin tone of a square face shape', and the user reports the current season, place, and situation through the user terminal 10 . When winter, hotel, and blind date are designated, the recommendation module 160 may generate second beauty information and second coordination information by matching fashion information corresponding to the second body type information. After that, the recommendation module 160 extracts information on vehicles for mid-size or higher luxury cars preferred by men in their 30s and suitable for hotels and blind dates based on the second coordination information and the season, place, and situation specified by the user to extract vehicle information. can create

생성된 제2미용정보, 제2코디정보 및 차량정보는 사용자 단말기(10)를 통해 화면으로 사용자에게 제공될 수 있고, 사용자는 사용자 단말기(10)를 통해 원하는 차량정보를 선택할 수 있다.The generated second beauty information, second coordination information, and vehicle information may be provided to the user on a screen through the user terminal 10 , and the user may select desired vehicle information through the user terminal 10 .

사용자가 사용자 단말기(10)를 통해 어느 하나의 차량정보를 선택하는 경우, 사용자 단말기(10)는 차량 셰어링을 실시하는 업체의 차량 셰어링 예약 서버에 접속할 수 있다.When the user selects any one vehicle information through the user terminal 10 , the user terminal 10 may access a vehicle sharing reservation server of a vehicle sharing company.

이에 의하면, 사용자는 본인의 상황 및 체형에 적합한 차량을 추천받아 손쉽게 차량을 셰어할 수 있다.According to this, the user can easily share the vehicle by receiving a recommendation for a vehicle suitable for the user's situation and body type.

한편, 추천모듈(160)은 생성된 제2미용정보와 제2코디정보를 기초로 제2코디정보에 어울리는 식당정보를 사용자에게 제공할 수 있다.Meanwhile, the recommendation module 160 may provide the user with restaurant information suitable for the second coordination information based on the generated second beauty information and the second coordination information.

예컨대, 제2체형정보가 '사각 얼굴형의 가을 웜톤 피부톤을 가지고 모래시계 체형을 가진 신장 150 내지 155cm인 20대 황인종 여성'이고 사용자가 사용자 단말기(10)를 통해 현재 계절, 장소, 상황을 여름, 식당, 상견례라고 지정한 경우 추천모듈(160)은 제2체형정보에 대응되는 패션정보를 매칭하여 제2미용정보와 제2코디정보를 생성함과 동시에, 제2코디정보에 어울리는 식당정보를 생성할 수 있다.For example, if the second body type information is 'a woman in her twenties who is 150 to 155 cm tall and has a warm skin tone in autumn with a square face shape and an hourglass body shape,' and the user selects the current season, place, and situation through the user terminal 10 in summer , restaurant, and when designated as Sanggyunrye, the recommendation module 160 generates second beauty information and second coordination information by matching fashion information corresponding to the second body information, and at the same time generates restaurant information suitable for the second coordination information. can do.

이때, 식당정보는 식당의 위치, 식당의 메뉴, 식당의 인테리어, 식당의 메뉴 가격, 식당의 주요 연령층, 식당의 크기, 식당의 종업원 수 등이 포함될 수 있다.In this case, the restaurant information may include the location of the restaurant, the menu of the restaurant, the interior of the restaurant, the menu price of the restaurant, the main age group of the restaurant, the size of the restaurant, the number of employees of the restaurant, and the like.

그리고 추천모듈(160)은, 제2코디정보와 식당정보를 기초로하여 제2코디정보에 어울리는 식당정보를 매칭하여 사용자에게 제공할 수 있다.In addition, the recommendation module 160 may match and provide restaurant information suitable for the second coordination information to the user based on the second coordination information and the restaurant information.

인터페이스모듈(170)은 생성된 각 정보(제2미용정보, 제3미용정보, 제2미용정보, 제3미용정보)들을 사용자 인터페이스로 구성하여 사용자 단말기(10)를 통해 사용자에게 제공할 수 있다.The interface module 170 may configure each generated information (second beauty information, third beauty information, second beauty information, and third beauty information) as a user interface and provide it to the user through the user terminal 10 . .

인공지능을 이용한 맞춤형 코디 시스템(100)은, 전자거래 서버(180)를 더 포함할 수 있다.The customized coordination system 100 using artificial intelligence may further include an electronic transaction server 180 .

전자거래 서버(180)는 사용자와, 사용자에게 추천된 제2코디정보 및 제2미용정보에 포함되는 상품 및 업체간의 거래를 중개할 수 있다.The electronic transaction server 180 may mediate a transaction between a user and a product and a company included in the second coordination information and the second beauty information recommended to the user.

더 상세히 설명하면, 사용자가 사용자 단말기(10)를 통해 사용자에게 제공된 제2코디정보 및 제2미용정보 중 어느 하나를 선택한 경우, 사용자 단말기(10)에는 사용자가 선택한 정보와 관련된 서버가 제공될 수 있다. More specifically, when the user selects any one of the second coordination information and the second beauty information provided to the user through the user terminal 10, the user terminal 10 may be provided with a server related to the information selected by the user. have.

예컨대, 사용자가 사용자 단말기(10) 화면으로 표시된 제2미용정보 중 피부 화장품 정보를 선택하면, 사용자는 피부 화장품을 판매하는 서버에 접속할 수 있다. 또한, 사용자가 사용자 단말기(10) 화면으로 표시된 제2미용정보 중 네일아트 정보를 선택하면, 사용자는 네일아트샵 시술 예약 서버에 접속할 수 있다.For example, when the user selects skin cosmetics information among the second beauty information displayed on the screen of the user terminal 10 , the user may access a server selling skin cosmetics. In addition, when the user selects nail art information among the second beauty information displayed on the screen of the user terminal 10 , the user may access the nail art shop treatment reservation server.

한편, 전자거래 서버(180)는 사용자가 제2코디정보 및 제2미용정보 중 어느 하나를 선택한 경우, 사용자가 선택한 정보와 관련된 상품 또는 시술을 오프라인으로 실시하는 장소에 대한 정보를 제공할 수도 있다. On the other hand, when the user selects any one of the second coordination information and the second beauty information, the electronic transaction server 180 may provide information on a place where products or procedures related to the information selected by the user are performed offline. .

이때, 상품을 판매하는 장소에 대한 정보는 사용자의 위치로부터 5km 이내에 있는 판매처일 수 있다. 또한, 상품을 판매하는 장소에 대한 정보는 사용자와의 거리가 근거리인 순으로 나열되어 사용자에게 제공될 수 있다.In this case, the information on the place where the product is sold may be a seller within 5 km from the user's location. In addition, information on a place where goods are sold may be provided to the user by being arranged in the order of the distance from the user to the nearest.

본 발명의 다른 일 실시 예에 따르면, 인공지능을 이용한 신체 맞춤형 코디 시스템(100)은 가중치모듈(미도시)을 더 포함할 수 있다.According to another embodiment of the present invention, the body-tailored coordination system 100 using artificial intelligence may further include a weight module (not shown).

가중치모듈은 사용자의 선호 물품을 파악하여 사용자의 물품 선호도별로 가중치를 부여할 수 있다.The weight module may identify the user's preferred item and assign a weight to each user's item preference.

본 실시예에 따르면, 가중치모듈은 사용자 단말기(10)로부터 사용자가 검색한 물품에 대한 리스트를 수신할 수 있다. 리스트에는 물품명 정보, 물품 가격 정보, 물품 형상 정보, 물품 색상 정보 등이 포함될 수 있다.According to the present embodiment, the weight module may receive a list of items searched by the user from the user terminal 10 . The list may include product name information, product price information, product shape information, product color information, and the like.

또한, 가중치모듈은 사용자가 가입한 복수의 쇼핑몰 서버로부터 사용자가 쇼핑몰의 장바구니에 보관하고 있는 물품의 물품 리스트를 수신할 수 있다.In addition, the weight module may receive an item list of items stored in the shopping cart of the user from a plurality of shopping mall servers to which the user has subscribed.

이때, 가중치모듈은 수신일을 기준으로 장바구니에 3개월 이내로 보관중인 물품 리스트를 수신할 수 있다.In this case, the weight module may receive a list of items stored in the shopping cart for less than 3 months from the date of receipt.

이후, 가중치모듈은 상술한 물품 리스트를 검색횟수 및/또는 보관 개수를 계산하여 각 물품에 대한 사용자 선호도를 파악할 수 있다.Thereafter, the weight module may determine the user's preference for each item by calculating the number of searches and/or storage of the above-described item list.

예컨대, 사용자가 사용자 단말기(10)를 통해 '스프라이트티'를 10번 검색하고, 쇼핑몰 장바구니에 '스프라이트티'를 3개 보관한 경우, 가중치모듈은 검색 횟수를 각 1점으로 계산하고, 쇼핑몰 장바구니 보관 개수를 각 1점으로 계산하여 사용자의 '스프라이트티'에 대한 선호도를 13점으로 계산할 수 있다. 이후, 가중치모듈은 각 물품별로 사용자 선호도를 점수화하여 저장할 수 있다.For example, if the user searches for 'sprite tea' 10 times through the user terminal 10 and stores three 'sprite tea' in the shopping mall shopping cart, the weight module counts the number of searches as 1 point each, and the shopping cart shopping cart By counting the number of storage as 1 point, the user's preference for 'Sprite Tea' can be calculated as 13 points. Thereafter, the weight module may score and store user preferences for each article.

점수화된 물품별 사용자 선호도는 추천모듈(160)에 송신되고, 추천모듈(160)은 사용자 선호도가 높은 물품을 우선적으로 검출하여 제2미용정보, 제2코디정보를 생성할 수 있다.The scored user preference for each item is transmitted to the recommendation module 160 , and the recommendation module 160 may generate second beauty information and second coordination information by preferentially detecting an item having a high user preference.

본 명세서에서 인공지능을 이용한 신체 맞춤형 코디 시스템(100)이 포함하는 패션정보 수집모듈(110), 데이터베이스모듈(120), 입력모듈(130), 가공모듈(140), 예측모듈(150), 추천모듈(160), 인터페이스모듈(170) 등은 메모리에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있다. 또는, 프로세서에 의해 구동되고 제어되는 소프트웨어 모듈들로서 동작할 수 있다. 나아가, 프로세서는 하드웨어 장치일 수 있다.In the present specification, the fashion information collection module 110, the database module 120, the input module 130, the processing module 140, the prediction module 150, and the recommendation included in the body-customized coordination system 100 using artificial intelligence in the present specification. The module 160 , the interface module 170 , etc. may be processors that execute consecutive execution processes stored in a memory. Alternatively, it may operate as software modules driven and controlled by a processor. Furthermore, the processor may be a hardware device.

이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. In the above, even though it has been described that all the components constituting the embodiment of the present invention operate by being combined or combined into one, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, terms such as "include", "comprise" or "have" described above mean that the corresponding component may be inherent, unless otherwise stated, so that other components are excluded. Rather, it should be construed as being able to further include other components. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms commonly used, such as those defined in the dictionary, should be interpreted as being consistent with the contextual meaning of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present invention.

그리고 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.And, the above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 본 발명의 일 실시 예에 따른 인공지능을 이용한 신체 맞춤형 코디 시스템
110: 패션정보 수집모듈
120: 데이터베이스모듈
130: 입력모듈
140: 가공모듈
150: 예측모듈
160: 추천모듈
170: 인터페이스모듈
100: Body-tailored coordination system using artificial intelligence according to an embodiment of the present invention
110: fashion information collection module
120: database module
130: input module
140: processing module
150: prediction module
160: recommended module
170: interface module

Claims (5)

외부 서버로부터 다양한 의상정보, 악세사리정보, 모자정보, 양말정보 및 신발정보를 포함하는 제1코디정보와, 헤어스타일정보, 네일아트정보 및 화장품정보를 포함하는 제1미용정보를 포함하는 패션정보와, 차량정보 및 식당정보를 수집하는 패션정보 수집모듈;
외부 서버로부터 복수의 사람의 얼굴형정보, 인종정보, 피부톤정보, 나이정보, 체형정보, 성별정보, 신장정보, 머리길이정보, 머리색정보, 머리모양정보 및 손톱모양정보를 포함하는 제1신체정보를 수집하고, 컨볼루션 신경망을 기초로 각 정보에 대한 학습을 실시하여 학습모델을 생성하는 데이터베이스모듈;
사용자의 전신을 촬영한 사용자이미지와 사용자의 개인정보가 입력되는 입력모듈;
상기 입력모듈로부터 상기 사용자이미지를 수신받아, 상기 사용자이미지를 전처리하는 가공모듈;
상기 데이터베이스모듈의 정보를 기초로, 상기 가공모듈에서 가공된 상기 사용자이미지를 분석하여 사용자의 얼굴형, 사용자의 피부톤, 사용자의 체형, 사용자의 신장길이, 사용자의 성별, 사용자의 인종 및 사용자의 나이를 예측하여 제2신체정보를 생성하는 예측모듈;
상기 예측모듈에서 생성된 상기 제2신체정보에 대응되는 상기 패션정보를 매칭하여 사용자를 위한 제2미용정보와 제2코디정보 및 상기 제2신체정보에 대응되지 않는 제3미용정보와 제3코디정보를 생성하는 추천모듈;
상기 추천모듈로부터 상기 제2미용정보와 상기 제2코디정보 및 상기 제3미용정보와 상기 제3코디정보를 제공받아 사용자에게 제공하는 인터페이스모듈;
상기 제2미용정보와 상기 제2코디정보에 포함된 제품의 거래를 위한 전자거래 서버; 및
사용자가 소지하고 있는 사용자 단말기로부터 사용자가 검색한 물품 리스트 및 사용자가 가입한 쇼핑몰의 장바구니 물품 리스트를 수신하고 각 물품에 대한 사용자 선호도를 점수화하여 상기 추천모듈에 송신하는 가중치모듈을 포함하고,
상기 예측모듈은,
상기 사용자이미지에서 얼굴영역을 감지하고, 감지된 얼굴영역에서 복수의 특징점을 검출하여 상기 복수의 특징점들을 연결한 후, 연결된 선의 곡률 및 길이를 연산한 값을 통해 사용자의 사용자 얼굴형을 예측하는 얼굴형예측모듈;
상기 사용자이미지에서 사용자의 피부를 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 피부톤과 가장 유사한 피부톤을 매칭함으로써 사용자 피부톤을 예측하는 피부톤예측모듈;
상기 사용자이미지에서 사용자의 몸체를 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 체형과 가장 유사한 체형을 매칭함으로써 사용자 체형을 예측하는 체형예측모듈;
상기 사용자이미지에서 사용자의 얼굴과 사용자의 몸체를 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 신장길이를 예측하는 신장예측모듈;
상기 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형 및 피부색을 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 성별을 예측하는 성별예측모듈;
상기 사용자이미지에서 사용자의 얼굴윤곽선, 눈 형상, 코 형상, 입 형상, 머리길이, 체형 및 피부색을 감지하고, 상기 데이터베이스모듈의 상기 제1신체정보와 비교하여 사용자의 인종을 예측하는 인종예측모듈; 및
상기 얼굴형예측모듈, 상기 피부톤예측모듈, 상기 체형예측모듈, 상기 신장예측모듈, 상기 성별예측모듈 및 상기 인종예측모듈의 예측결과를 바탕으로, 사용자의 나이를 예측하는 나이예측모듈을 포함하고
상기 추천모듈은,
사용자가 설정한 계절, 장소 및 상황과 일치하는 상기 제2미용정보와 상기 제2코디정보를 사용자에게 추천하고,
상기 가중치모듈로부터 각 물품에 대한 상기 사용자 선호도를 수신받아 상기 사용자 선호도가 높은 물품을 우선적으로 검출하여 상기 제2미용정보, 상기 제2코디정보를 생성하고,
상기 제2미용정보와 상기 제2코디정보를 기초로 상기 제2코디정보에 대응되는 상기 차량정보와 상기 식당정보를 사용자에게 추천하는 것을 특징으로 하고,
상기 전자거래 서버는,
사용자가 상기 사용자 단말기를 통해 상기 제2미용정보와 상기 제2코디정보 중 어느 하나 이상을 선택하면 상기 전자거래 서버에 접속되고,
사용자가 선택한 상기 제2미용정보와 상기 제2코디정보와 관련된 상품을 판매하는 장소 및 시술을 실시하는 장소에 대한 정보를 사용자와의 거리가 근거리인 순으로 나열하여 사용자에게 제공하는 것을 특징으로 하는 인공지능을 이용한 신체 맞춤형 코디 시스템.
First coordination information including various clothes information, accessories information, hat information, socks information and shoes information, and fashion information including first beauty information including hair style information, nail art information and cosmetics information from an external server; , a fashion information collection module that collects vehicle information and restaurant information;
A first body including face shape information, race information, skin tone information, age information, body type information, gender information, height information, hair length information, hair color information, hair shape information and nail shape information of a plurality of people from an external server a database module that collects information and generates a learning model by learning each information based on a convolutional neural network;
an input module into which a user image obtained by photographing the user's whole body and personal information of the user is input;
a processing module receiving the user image from the input module and pre-processing the user image;
Based on the information of the database module, by analyzing the user image processed by the processing module, the user's face shape, the user's skin tone, the user's body type, the user's height, the user's gender, the user's race, and the user's age a prediction module for predicting and generating second body information;
By matching the fashion information corresponding to the second body information generated by the prediction module, second beauty information and second coordination information for a user, and third beauty information and third coordination information that do not correspond to the second body information a recommendation module for generating information;
an interface module for receiving the second beauty information, the second coordination information, and the third beauty information and the third coordination information from the recommendation module and providing them to a user;
an electronic transaction server for the transaction of the second beauty information and the product included in the second coordination information; and
A weighting module for receiving the list of items searched by the user and the list of items in the shopping cart to which the user has subscribed from the user terminal possessed by the user, scoring the user preference for each item, and transmitting it to the recommendation module,
The prediction module,
A face that detects a face region in the user image, detects a plurality of feature points in the detected face region, connects the plurality of feature points, and predicts the user's face shape through values calculated by calculating the curvature and length of the connected line type prediction module;
a skin tone prediction module that detects the user's skin from the user image and predicts the user's skin tone by matching the skin tone most similar to the user's skin tone by comparing it with the first body information of the database module;
a body shape prediction module for detecting a user's body in the user image, and predicting the user's body shape by matching the body shape most similar to the user's body shape by comparing it with the first body information of the database module;
a height prediction module for detecting the user's face and the user's body from the user image, and predicting the height of the user by comparing it with the first body information of the database module;
a gender prediction module for detecting the user's face contour, eye shape, nose shape, mouth shape, hair length, body type, and skin color from the user image, and predicting the user's gender by comparing it with the first body information of the database module;
a race prediction module that detects the user's face contour, eye shape, nose shape, mouth shape, hair length, body shape, and skin color from the user image, and compares it with the first body information of the database module to predict the user's race; and
Based on the prediction results of the face shape prediction module, the skin tone prediction module, the body shape prediction module, the height prediction module, the gender prediction module, and the race prediction module, an age prediction module for predicting the age of the user;
The recommended module is
Recommending the second beauty information and the second coordination information matching the season, place and situation set by the user to the user,
receiving the user preference for each item from the weighting module, preferentially detecting an item having a high user preference, and generating the second beauty information and the second coordination information;
Based on the second beauty information and the second coordination information, it is characterized in that the vehicle information and the restaurant information corresponding to the second coordination information are recommended to the user,
The electronic transaction server,
When the user selects at least one of the second beauty information and the second coordination information through the user terminal, it is connected to the electronic transaction server,
Characterized in that the second beauty information selected by the user and information on a place for selling a product related to the second coordinating information and a place for performing a procedure are provided to the user by arranging them in the order of the distance from the user to the nearest. Body-tailored coordination system using artificial intelligence.
삭제delete 청구항 1에 있어서,
상기 제2미용정보는,
상기 제2신체정보에 대응되는 피부 화장품 정보, 립 화장품 정보, 치크 화장품 정보, 헤어스타일정보, 네일아트 정보 및 컬러 렌즈 정보를 포함하고,
상기 제2코디정보는,
상기 제2신체정보에 대응되는 의상 정보, 가방 정보, 신발 정보, 양말 정보, 모자 정보 및 악세사리 정보를 포함하는 것을 특징으로 하는 인공지능을 이용한 신체 맞춤형 코디 시스템.
The method according to claim 1,
The second beauty information,
including skin cosmetics information, lip cosmetics information, cheek cosmetics information, hair style information, nail art information, and color lens information corresponding to the second body information,
The second code information,
The body-tailored coordination system using artificial intelligence, characterized in that it includes clothes information, bag information, shoe information, socks information, hat information, and accessory information corresponding to the second body information.
청구항 1에 있어서,
상기 추천모듈은,
사용자가 소지하고 있는 상기 사용자 단말기를 통하여 사용자의 위치를 파악하고, 외부 서버로부터 사용자의 위치에 대한 날씨 정보를 수집하여 날씨 정보와 일치하는 상기 제2미용정보와 상기 제2코디정보를 추천하는 것을 특징으로 하는 인공지능을 이용한 신체 맞춤형 코디 시스템.
The method according to claim 1,
The recommended module is
Recommending the second beauty information and the second coordination information matching the weather information by identifying the location of the user through the user terminal possessed by the user, collecting weather information on the location of the user from an external server Body-tailored coordination system using artificial intelligence.
삭제delete
KR1020210017827A 2021-02-08 2021-02-08 Body-tailored coordinator system using artificial intelligence KR102316723B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210017827A KR102316723B1 (en) 2021-02-08 2021-02-08 Body-tailored coordinator system using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210017827A KR102316723B1 (en) 2021-02-08 2021-02-08 Body-tailored coordinator system using artificial intelligence

Publications (1)

Publication Number Publication Date
KR102316723B1 true KR102316723B1 (en) 2021-10-25

Family

ID=78258591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210017827A KR102316723B1 (en) 2021-02-08 2021-02-08 Body-tailored coordinator system using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102316723B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102398813B1 (en) * 2021-11-04 2022-05-17 (주)브랜디 A server and method for providing customized clothing by measuring the characteristics of a user's body part using a vision artificial intelligence, and a system and method therefor
KR102499853B1 (en) * 2022-08-12 2023-02-13 오소윤 A celebrity fachion item recommendation system based on big data and a automatic matching method using the same
KR102554058B1 (en) * 2022-06-10 2023-07-11 주식회사 네일클럽 A virtual experience device that recommends customized styles to users
CN117197541A (en) * 2023-08-17 2023-12-08 广州兴趣岛信息科技有限公司 User classification method and system based on convolutional neural network
CN117274504A (en) * 2023-11-17 2023-12-22 深圳市加推科技有限公司 Intelligent business card manufacturing method, intelligent sales system and storage medium
KR20240008426A (en) 2022-07-05 2024-01-19 주식회사 에이치엘클레무브 Vehicle interior product curating service system using Social Network and the method thereof
KR20240035669A (en) 2022-09-08 2024-03-18 가천대학교 산학협력단 Method for virtual hair style image synthesis and ai system using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180017597A (en) * 2016-08-10 2018-02-21 주식회사 원더풀플랫폼 System and method for fashion coordination
KR20190075988A (en) * 2016-10-26 2019-07-01 오캠 테크놀로지스 리미티드 Wearable devices and methods that analyze images and provide feedback
KR20200063300A (en) * 2018-11-19 2020-06-05 박보현 Apparatus for providing beauty solution flatform considering private pattern using ai
KR20200069796A (en) * 2018-12-07 2020-06-17 성인철 System and method for custom clothes coordination/payment
KR102185638B1 (en) * 2019-10-31 2020-12-02 김다솜 System of total coordination proposal with most famous full fashion style by using AI and operating method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180017597A (en) * 2016-08-10 2018-02-21 주식회사 원더풀플랫폼 System and method for fashion coordination
KR20190075988A (en) * 2016-10-26 2019-07-01 오캠 테크놀로지스 리미티드 Wearable devices and methods that analyze images and provide feedback
KR20200063300A (en) * 2018-11-19 2020-06-05 박보현 Apparatus for providing beauty solution flatform considering private pattern using ai
KR20200069796A (en) * 2018-12-07 2020-06-17 성인철 System and method for custom clothes coordination/payment
KR102185638B1 (en) * 2019-10-31 2020-12-02 김다솜 System of total coordination proposal with most famous full fashion style by using AI and operating method thereof

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102398813B1 (en) * 2021-11-04 2022-05-17 (주)브랜디 A server and method for providing customized clothing by measuring the characteristics of a user's body part using a vision artificial intelligence, and a system and method therefor
KR102514515B1 (en) * 2021-11-04 2023-03-27 (주)브랜디 A server and method for providing customized clothing by measuring the characteristics of a user's body part using a vision artificial intelligence, and a system and method therefor
KR102524514B1 (en) * 2021-11-04 2023-04-21 (주)브랜디 A server and method for providing customized clothing by using a vision artificial intelligence, and a system and method therefor
WO2023080711A1 (en) * 2021-11-04 2023-05-11 (주)브랜디 Server and method for providing customized clothing by using vision ai to measure body part features of user, and system and method therefor
WO2023239110A1 (en) * 2022-06-10 2023-12-14 주식회사 네일클럽 Virtual experience device for recommending customized style to user
KR102554058B1 (en) * 2022-06-10 2023-07-11 주식회사 네일클럽 A virtual experience device that recommends customized styles to users
KR20240008426A (en) 2022-07-05 2024-01-19 주식회사 에이치엘클레무브 Vehicle interior product curating service system using Social Network and the method thereof
KR102499853B1 (en) * 2022-08-12 2023-02-13 오소윤 A celebrity fachion item recommendation system based on big data and a automatic matching method using the same
KR20240035669A (en) 2022-09-08 2024-03-18 가천대학교 산학협력단 Method for virtual hair style image synthesis and ai system using the same
CN117197541A (en) * 2023-08-17 2023-12-08 广州兴趣岛信息科技有限公司 User classification method and system based on convolutional neural network
CN117197541B (en) * 2023-08-17 2024-04-30 广州兴趣岛信息科技有限公司 User classification method and system based on convolutional neural network
CN117274504A (en) * 2023-11-17 2023-12-22 深圳市加推科技有限公司 Intelligent business card manufacturing method, intelligent sales system and storage medium
CN117274504B (en) * 2023-11-17 2024-03-01 深圳市加推科技有限公司 Intelligent business card manufacturing method, intelligent sales system and storage medium

Similar Documents

Publication Publication Date Title
KR102316723B1 (en) Body-tailored coordinator system using artificial intelligence
CN105426850B (en) Associated information pushing device and method based on face recognition
CN109310196B (en) Makeup assisting device and makeup assisting method
CN106294489B (en) Content recommendation method, device and system
US20030120534A1 (en) Cosmetic affinity indexing
US11978242B2 (en) Systems and methods for improved facial attribute classification and use thereof
KR20190049555A (en) Apparatus, system, and method for providing service for advertising and merchandise purchasing using artificial intelligence technology
KR101835333B1 (en) Method for providing face recognition service in order to find out aging point
KR101905501B1 (en) Method and apparatus of recommending contents
CN106951448A (en) A kind of personalization, which is worn, takes recommendation method and system
CN107729380A (en) Clothing matching method, terminal, terminal
US11544768B2 (en) System and method for fashion recommendations
CN111815407A (en) Method and device for constructing user portrait
KR102323861B1 (en) System for selling clothing online
JP2017167759A (en) Coordination recommendation device and program
US11526925B2 (en) System and method for fashion recommendations
US20180349978A1 (en) Method for providing a customized product recommendation
KR102465453B1 (en) A virtual makeup composition A.I. processing apparatus and a method using it
Garude et al. Skin-tone and occasion oriented outfit recommendation system
KR20220022433A (en) System for buying service of cosmetic object and applying selective makeup effect
KR20220126909A (en) Cosmetic recommendation system based on artificial intelligence-based customized personal color checkup
Abdullah et al. Hybrid Based Model Face Shape Classification Using Ensemble Method for Hairstyle Recommender System
Young et al. Eyeglasses frame selection based on oval face shape using convolutional neural network
KR20200107486A (en) Virtual makeup composition processing apparatus
Jabeen et al. Feed forward neural network training based interactive shopping for blind

Legal Events

Date Code Title Description
GRNT Written decision to grant