KR102167185B1 - Skin test method and cosmetic composition manufacturing method using the same - Google Patents

Skin test method and cosmetic composition manufacturing method using the same Download PDF

Info

Publication number
KR102167185B1
KR102167185B1 KR1020200033159A KR20200033159A KR102167185B1 KR 102167185 B1 KR102167185 B1 KR 102167185B1 KR 1020200033159 A KR1020200033159 A KR 1020200033159A KR 20200033159 A KR20200033159 A KR 20200033159A KR 102167185 B1 KR102167185 B1 KR 102167185B1
Authority
KR
South Korea
Prior art keywords
skin
training
information
image
neural network
Prior art date
Application number
KR1020200033159A
Other languages
Korean (ko)
Inventor
이승락
Original Assignee
이승락
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이승락 filed Critical 이승락
Priority to KR1020200033159A priority Critical patent/KR102167185B1/en
Application granted granted Critical
Publication of KR102167185B1 publication Critical patent/KR102167185B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K8/00Cosmetics or similar toiletry preparations
    • A61K8/02Cosmetics or similar toiletry preparations characterised by special physical form
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61QSPECIFIC USE OF COSMETICS OR SIMILAR TOILETRY PREPARATIONS
    • A61Q19/00Preparations for care of the skin
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K2800/00Properties of cosmetic compositions or active ingredients thereof or formulation aids used therein and process related aspects
    • A61K2800/80Process related aspects concerning the preparation of the cosmetic composition or the storage or application thereof
    • A61K2800/805Corresponding aspects not provided for by any of codes A61K2800/81 - A61K2800/95
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manufacturing & Machinery (AREA)
  • Development Economics (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Primary Health Care (AREA)
  • Dermatology (AREA)
  • Operations Research (AREA)

Abstract

Disclosed are a skin test method and a cosmetic composition manufacturing method using the same. According to one embodiment of the present invention, the cosmetic composition manufacturing method based on artificial intelligence comprises: separately obtaining a first facial image and a second facial image by controlling a camera in a skin analyzer under a first light source and a second light source of the skin analyzer; generating a first image vector on the basis of the first facial image and the second facial image; obtaining a first image output by applying the first image vector to a pre-learned first convolutional neural network; obtaining a skin range on the basis of the first image output, and obtaining color information and gloss information within the skin range on the basis of the skin range; generating a second image vector on the basis of the skin range, and applying the second image vector to pre-learned second and third convolutional neural networks so as to obtain second and third image outputs, respectively; and obtaining first skin quality information on the basis of the second image output, and obtaining second skin quality information on the basis of the third image output. According to the present invention, the skin range for a skin test is determined.

Description

피부 테스트 방법 및 이를 이용한 화장료 조성물 제조방법{SKIN TEST METHOD AND COSMETIC COMPOSITION MANUFACTURING METHOD USING THE SAME}Skin test method and cosmetic composition manufacturing method using the same {SKIN TEST METHOD AND COSMETIC COMPOSITION MANUFACTURING METHOD USING THE SAME}

아래 실시예들은 피부 테스트 방법 및 이를 이용한 화장료 조성물 제조방법에 관한 것이다.The following examples relate to a skin test method and a method for preparing a cosmetic composition using the same.

피부 미용을 위한 화장료 조성물은 그 원료 성분에 따라 서로 다른 기능을 가질 수 있다. 특히 피부에 맞지 않는 화장료 조성물의 사용은 오히려 피부에 과도한 자극을 유발할 수 있다. 따라서 맞춤형 화장료 조성물의 사용은 매우 중요한데, 이를 위해 피부 테스트 방법의 체계화가 필요하고, 최적화된 원료의 종류 및 함량비가 필요하다. 그러나 다양한 피부 테스트 방법의 존재에도 불구하고, 이를 통합하는 시스템의 설계가 미진한 경우가 많으며 원료의 종류 및 함량을 체계화하는 시스템이 부재한 실정이다. 따라서 인공지능을 이용한 피부 테스트 방법 및 이를 바탕으로 원료를 선택하고 그 함량비를 조절하며, 이를 가상으로 테스트할 수 있는 방법의 연구가 요구된다.Cosmetic compositions for skin beauty may have different functions depending on their raw material ingredients. In particular, use of a cosmetic composition that is not suitable for the skin may cause excessive irritation to the skin. Therefore, the use of a customized cosmetic composition is very important, and for this, it is necessary to systematize a skin test method, and to optimize the type and content ratio of raw materials. However, despite the existence of various skin testing methods, the design of a system integrating them is often insufficient, and there is no system to systematize the types and contents of raw materials. Therefore, there is a need for a study on a skin test method using artificial intelligence and a method for selecting a raw material and adjusting its content ratio based on it, and testing it virtually.

KR101792541KR101792541 KR101444726KR101444726 KR102018446KR102018446 KR101329146KR101329146

실시예들은 딥러닝 기술을 적용해 피부의 테스트를 위한 피부 범위를 판단하고자 한다.Examples are to determine the skin range for skin testing by applying deep learning technology.

실시예들은 딥러닝 기술을 적용해 피부질의 상태를 평가하고자 한다.Examples intend to evaluate the condition of skin quality by applying deep learning technology.

실시예들은 딥러닝 기술을 적용해 개별 피부에 적합한 최적화된 원료의 종류 및 함량비를 판단하고자 한다.Examples are intended to determine the type and content ratio of optimized ingredients suitable for individual skin by applying deep learning technology.

실시예들은 딥러닝 기술을 적용해 피부의 상태 및 화장료 조성물의 조성으로부터 피부 적용의 결과를 예측하고자 한다.Examples are to predict the result of skin application from the condition of the skin and the composition of the cosmetic composition by applying deep learning technology.

실시예들은 블록체인 네트워크를 통해 정보를 빅데이터화 하고, 강화된 보안을 사용하고자 한다.The embodiments aim to convert information into big data through a blockchain network and use enhanced security.

일실시예에 따른 인공지능을 기반으로 화장료 조성물을 제조하는 방법에 있어서, 피부 분석기의 제1 광원 및 제2 광원 하에서 상기 피부 분석기 내의 카메라를 제어해 제1 얼굴 이미지 및 제2 얼굴 이미지를 각각 획득하는 단계; 상기 제1 얼굴 이미지 및 상기 제2 얼굴 이미지에 기초하여 제1 이미지 벡터를 생성하는 단계; 상기 제1 이미지 벡터를 미리 학습된 제1 컨볼루션 신경망에 적용하여 제1 이미지 출력을 획득하는 단계; 상기 제1 이미지 출력에 기초하여 피부 범위-상기 피부 범위는 상기 제1 얼굴 이미지 및 제2 얼굴 이미지를 포함하고, 상기 제1 얼굴 이미지 및 상기 제2 얼굴 이미지에서 피부로 인식하는 이마 및 볼의 범위를 의미함-를 획득하는 단계; 상기 피부 범위에 기초하여, 상기 피부 범위 내의 색상 정보 및 광택도 정보를 획득하는 단계; 상기 피부 범위에 기초하여, 제2 이미지 벡터를 생성하는 단계; 상기 제2 이미지 벡터를 미리 학습된 제2 컨볼루션 신경망 및 제3 컨볼루션 신경망에 적용하여 제2 이미지 출력 및 제3 이미지 출력을 각각 획득하는 단계; 상기 제2 이미지 출력에 기초하여 제1 피부질 정보-상기 제1 피부질 정보는 얼굴에서 1차적으로 구분 가능한 피부 범위 내 개선 대상 구조물들을 포함하고, 상기 개선 대상 구조물들은 여드름, 주름, 곰보, 아토피 피부염, 홍반, 두드러기 및 습진성 피부질환을 의미함-를 획득하는 단계; 및 상기 제3 이미지 출력에 기초하여 제2 피부질 정보-상기 제2 피부질 정보는 얼굴의 전반적인 관리 상태를 표현할 수 있는 표피의 입자 정보를 의미함-를 획득하는 단계를 포함하고, 상기 제1 광원은 파장 576~580nm 범위의 옐로광이고, 상기 제2 광원은 파장 490~520nm 범위의 시안광이고, 상기 색상 정보는 상기 피부 범위의 픽셀 별 8비트 256색의 RGB 색상으로 표현된 그래픽 정보를 의미하고, 상기 광택도 정보는 상기 피부 범위의 표면에 대해 반사광을 입사광과 동일한 각도로 수광할 때의 빛의 강도를 표현한 수치를 의미하고, 상기 제1 컨볼루션 신경망은 레이블드 트레이닝 제1 얼굴 이미지들 및 레이블드 트레이닝 제2 얼굴 이미지들을 획득하는 단계; 상기 레이블드 트레이닝 제1 얼굴 이미지들 및 상기 레이블드 트레이닝 제2 얼굴 이미지들에 기초하여, 제1 트레이닝 이미지 벡터들을 생성하는 단계; 상기 제1 트레이닝 이미지 벡터들을 상기 제1 컨볼루션 신경망에 적용하여 제1 트레이닝 이미지 출력들을 획득하는 단계; 및 상기 제1 트레이닝 이미지 출력들 및 제1 이미지 레이블들에 기초하여 상기 제1 컨볼루션 신경망을 학습시키는 단계를 더 포함하고, 상기 제2 컨볼루션 신경망 및 제3 컨볼루션 신경망은 레이블드 트레이닝 피부 범위들을 획득하는 단계; 상기 레이블드 트레이닝 피부 범위들에 기초하여, 제2 트레이닝 이미지 벡터들을 생성하는 단계; 상기 제2 트레이닝 이미지 벡터들을 상기 제2 컨볼루션 신경망 및 상기 제3 컨볼루션 신경망에 적용하여 제2 트레이닝 이미지 출력들 및 제3 트레이닝 이미지 출력들을 획득하는 단계; 및 상기 제2 트레이닝 이미지 출력들, 상기 제3 트레이닝 이미지 출력들, 제2 이미지 레이블들 및 제3 이미지 레이블들에 기초하여 상기 제2 컨볼루션 신경망 및 제3 컨볼루션 신경망을 학습시키는 단계를 더 포함할 수 있다.In the method of manufacturing a cosmetic composition based on artificial intelligence according to an embodiment, the first and second face images are obtained by controlling a camera in the skin analyzer under a first light source and a second light source of the skin analyzer. Step to do; Generating a first image vector based on the first face image and the second face image; Applying the first image vector to a pre-trained first convolutional neural network to obtain a first image output; Skin range based on the output of the first image-the skin range includes the first face image and the second face image, and the range of the forehead and cheek recognized as skin in the first and second face images Means-obtaining; Obtaining color information and gloss information within the skin range, based on the skin range; Generating a second image vector based on the skin range; Applying the second image vector to a pre-trained second convolutional neural network and a third convolutional neural network to obtain a second image output and a third image output, respectively; Based on the output of the second image, the first skin quality information-the first skin quality information includes structures to be improved within a range of skin that can be primarily distinguished from the face, and the structures to be improved include acne, wrinkles, gombo, and atopy. Dermatitis, erythema, urticaria and eczematous skin disease means-obtaining; And acquiring second skin quality information based on the output of the third image, wherein the second skin quality information means information on particles of an epidermis capable of expressing an overall management state of the face, and the first The light source is yellow light in a wavelength range of 576 to 580 nm, the second light source is cyan light in a wavelength range of 490 to 520 nm, and the color information is graphic information expressed in RGB colors of 8-bit 256 colors for each pixel in the skin range. The glossiness information refers to a numerical value representing the intensity of light when the reflected light is received at the same angle as the incident light on the surface of the skin area, and the first convolutional neural network is a labeled training first face image Obtaining second face images and labeled training; Generating first training image vectors based on the labeled training first face images and the labeled training second face images; Applying the first training image vectors to the first convolutional neural network to obtain first training image outputs; And training the first convolutional neural network based on the first training image outputs and the first image labels, wherein the second convolutional neural network and the third convolutional neural network have a labeled training skin range. Obtaining them; Based on the labeled training skin ranges, generating second training image vectors; Applying the second training image vectors to the second convolutional neural network and the third convolutional neural network to obtain second training image outputs and third training image outputs; And training the second convolutional neural network and the third convolutional neural network based on the second training image outputs, the third training image outputs, second image labels, and third image labels. can do.

일실시예에 따르면, 상기 피부 범위를 세분한 제1 피부 영역, 제2 피부 영역 및 제3 피부 영역에 해당하는 얼굴 영역에 각각 30초 간 문지른 검사용 코튼을 시험용 키트에 적용하여 제1 내지 제3 표피 함유 정보-상기 표피 함유 정보는 표피로부터 획득할 수 있는 유분, 수분 및 오염물의 함량 및 함량비를 포함함-를 획득하는 단계; 상기 제1 내지 제3 표피 함유 정보에 기초하여, 제1 센싱 벡터를 생성하는 단계; 상기 제1 센싱 벡터를 제1 뉴럴 네트워크에 적용하여 제1 센싱 출력을 획득하는 단계; 및 상기 제1 센싱 출력에 기초하여, 통합 표피 함유 정보를 획득하는 단계를 더 포함하고, 상기 제1 뉴럴 네트워크는 피부 범위들의 제1 내지 제3 피부 영역들에 해당하는 얼굴 영역들에 기초하여, 레이블드 트레이닝 제1 내지 제3 표피 함유 정보들을 획득하는 단계; 상기 레이블드 트레이닝 제1 내지 제3 표피 함유 정보들에 기초하여, 제1 트레이닝 센싱 벡터들을 생성하는 단계; 상기 제1 트레이닝 센싱 벡터들을 상기 제1 뉴럴 네트워크에 적용하여 제1 트레이닝 센싱 출력들을 획득하는 단계; 및 상기 제1 트레이닝 센싱 출력들 및 제1 센싱 레이블들에 기초하여 상기 제1 뉴럴 네트워크를 학습시키는 단계를 더 포함할 수 있다.According to an embodiment, the first to the first skin regions, each of which is rubbed for 30 seconds, on the face regions corresponding to the first skin region, the second skin region, and the third skin region, each of which is subdivided into the skin region, is applied to the test kit. 3 obtaining epidermal content information-the epidermal content information includes the content and content ratio of oil, moisture, and contaminants that can be obtained from the epidermis; Generating a first sensing vector based on the first to third epidermal content information; Obtaining a first sensing output by applying the first sensing vector to a first neural network; And obtaining integrated epidermal containing information based on the first sensing output, wherein the first neural network is based on facial regions corresponding to first to third skin regions of the skin ranges, Acquiring labeled training first to third epidermal content information; Generating first training sensing vectors based on the labeled training first to third epidermal containing information; Applying the first training sensing vectors to the first neural network to obtain first training sensing outputs; And training the first neural network based on the first training sensing outputs and first sensing labels.

일실시예에 따르면, 제1 항 내지 제 2항의 피부 테스트 방법을 통해 얻은 데이터를 기초로 원료를 준비하는 단계; 상기 준비된 원료를 혼합하여 화장료 조성물을 제조하는 단계; 및 제조된 화장료 조성물을 패키징하는 단계를 포함할 수 있다.According to an embodiment, the step of preparing a raw material based on data obtained through the skin test method of claim 1 to claim 2; Mixing the prepared raw materials to prepare a cosmetic composition; And it may include the step of packaging the prepared cosmetic composition.

일실시예에 따르면, 상기 원료를 준비하는 단계는 상기 색상 정보, 상기 광택도 정보, 상기 제1 피부질 정보, 상기 제2 피부질 정보 및 상기 통합 표피 함유 정보에 기초하여, 제1 통합 벡터를 생성하는 단계; 상기 제1 통합 벡터를 제2 뉴럴 네트워크에 적용하여 제1 통합 출력을 획득하는 단계; 상기 제1 통합 출력에 기초하여, 원료 조성비를 획득하는 단계; 상기 제1 통합 벡터 및 상기 원료 조성비에 기초하여, 제2 통합 벡터를 생성하는 단계; 상기 제2 통합 벡터를 제3 뉴럴 네트워크에 적용하여 제2 통합 출력을 획득하는 단계; 상기 제2 통합 출력에 기초하여, 단계별 예상 데이터-상기 단계별 예상 데이터는 상기 원료 조성비를 기준으로 생성한 화장료 조성물의 적용 시 화장료 조성물의 1회 적용량, 적용 횟수 및 적용 기간에 따른 피부의 변화를 예측 분석한 데이터임-를 획득하는 단계; 상기 단계별 예상 데이터에 기초하여 피드백 정보를 획득하는 단계; 상기 피드백 정보에 기초하여, 상기 원료 조성비를 수정하는 단계; 수정된 상기 원료 조성비에 기초하여, 상기 원료를 준비하는 단계; 및 상기 제2 통합 벡터 및 상기 피드백 정보를 저장하는 단계를 포함하고, 상기 제2 뉴럴 네트워크는 레이블드 트레이닝 색상 정보들, 레이블드 트레이닝 광택도 정보들, 레이블드 트레이닝 제1 피부질 정보들, 레이블드 트레이닝 제2 피부질 정보들 및 레이블드 트레이닝 통합 표피 함유 정보들을 획득하는 단계; 상기 레이블드 트레이닝 색상 정보들, 상기 레이블드 트레이닝 광택도 정보들, 상기 레이블드 트레이닝 제1 피부질 정보들, 상기 레이블드 트레이닝 제2 피부질 정보들 및 상기 레이블드 트레이닝 통합 표피 함유 정보들에 기초하여 제1 트레이닝 통합 벡터들을 생성하는 단계; 상기 제1 트레이닝 통합 벡터들을 상기 제2 뉴럴 네트워크에 적용하여 제1 트레이닝 통합 출력들을 획득하는 단계; 및 상기 제1 트레이닝 통합 출력들 및 제1 통합 레이블들에 기초하여 상기 제2 뉴럴 네트워크를 학습시키는 단계를 더 포함하고, 상기 제3 뉴럴 네트워크는 상기 제1 트레이닝 통합 출력들에 기초하여, 원료 조성비들을 획득하는 단계; 상기 제1 트레이닝 통합 벡터들 및 상기 원료 조성비들에 기초하여 제2 트레이닝 통합 벡터들을 생성하는 단계; 상기 제2 트레이닝 통합 벡터들을 상기 제3 뉴럴 네트워크에 적용하여 제2 트레이닝 통합 출력들을 획득하는 단계; 및 상기 제2 트레이닝 통합 출력들 및 제2 통합 레이블들에 기초하여 상기 제3 뉴럴 네트워크를 학습시키는 단계를 더 포함할 수 있다.According to an embodiment, in the preparing of the raw material, based on the color information, the gloss information, the first skin quality information, the second skin quality information, and the integrated epidermal content information, the first integrated vector is Generating; Applying the first integrated vector to a second neural network to obtain a first integrated output; Obtaining a raw material composition ratio based on the first integrated output; Generating a second integrated vector based on the first integrated vector and the raw material composition ratio; Applying the second unified vector to a third neural network to obtain a second unified output; Based on the second integrated output, step-by-step predicted data-the step-by-step predicted data predicts the change in skin according to the amount of one application of the cosmetic composition, the number of applications, and the application period when applying the cosmetic composition generated based on the raw material composition ratio Obtaining the analyzed data; Obtaining feedback information based on the step-by-step predicted data; Correcting the raw material composition ratio based on the feedback information; Preparing the raw material based on the modified raw material composition ratio; And storing the second integrated vector and the feedback information, wherein the second neural network includes labeled training color information, labeled training gloss information, labeled training first skin quality information, and a label Obtaining de-training second skin quality information and labeled training integrated epidermal content information; Based on the labeled training color information, the labeled training gloss information, the labeled training first skin quality information, the labeled training second skin quality information, and the labeled training integrated epidermal content information Generating first training integration vectors; Applying the first training integration vectors to the second neural network to obtain first training integration outputs; And training the second neural network based on the first unified training outputs and the first unified labels, wherein the third neural network includes a raw material composition ratio based on the first unified training outputs. Obtaining them; Generating second training integration vectors based on the first training integration vectors and the raw material composition ratios; Applying the second training integration vectors to the third neural network to obtain second training integration outputs; And training the third neural network based on the second training unified outputs and second unified labels.

일실시예에 따르면, 상기 제2 통합 벡터 및 상기 피드백 정보를 저장하는 단계는 상기 제2 통합 벡터 및 상기 피드백 정보를 블록체인 네트워크에 저장하는 단계를 포함하고, 상기 블록체인 네트워크는 상기 제2 통합 벡터 및 상기 피드백 정보를 포함하는 블록들; 상기 블록들을 시간 순으로 연결하는 체인들; 및 상기 블록들 및 상기 체인들을 저장하는 상기 네트워크 저장장치들을 포함하는 프라이빗 블록체인 네트워크이고, 상기 네트워크 저장장치들은 상기 화장료 조성물의 원료 제조사를 포함한 제1 네트워크 저장장치; 상기 화장료 조성물을 제조하는 제조사를 포함하는 제2 네트워크 저장장치; 상기 화장료 조성물의 유통사를 포함하는 제3 네트워크 저장장치; 및 각 네트워크 저장장치들을 연결하는 인터넷 연결망을 포함할 수 있다.According to an embodiment, the storing of the second integration vector and the feedback information includes storing the second integration vector and the feedback information in a blockchain network, and the blockchain network includes the second integration Blocks including a vector and the feedback information; Chains connecting the blocks in chronological order; And a private blockchain network including the network storage devices for storing the blocks and the chains, wherein the network storage devices include: a first network storage device including a raw material manufacturer of the cosmetic composition; A second network storage device including a manufacturer that manufactures the cosmetic composition; A third network storage device including a distributor of the cosmetic composition; And an Internet connection network connecting each of the network storage devices.

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.The apparatus according to the embodiment may be controlled by a computer program stored in a medium in order to execute the method of any one of the above-described methods in combination with hardware.

실시예들은 딥러닝 기술을 적용해 피부의 테스트를 위한 피부 범위를 판단할 수 있다.The embodiments may determine a skin range for testing the skin by applying deep learning technology.

실시예들은 딥러닝 기술을 적용해 피부질의 상태를 평가할 수 있다.Examples can evaluate the condition of skin quality by applying deep learning technology.

실시예들은 딥러닝 기술을 적용해 개별 피부에 적합한 최적화된 원료의 종류 및 함량비를 판단할 수 있다.Examples may determine the type and content ratio of optimized ingredients suitable for individual skin by applying deep learning technology.

실시예들은 딥러닝 기술을 적용해 피부의 상태 및 화장료 조성물의 조성으로부터 피부 적용의 결과를 예측할 수 있다.Examples may predict the result of skin application from the condition of the skin and the composition of the cosmetic composition by applying deep learning technology.

실시예들은 블록체인 네트워크를 통해 정보를 빅데이터화 하고, 강화된 보안을 사용할 수 있다.The embodiments can convert information into big data and use enhanced security through a blockchain network.

도 1은 일실시예에 따른 얼굴 이미지들을 바탕으로 피부를 테스트하는 방법을 설명하기 위한 순서도이다.
도 2는 일실시예에 따른 얼굴 이미지들을 처리하는데 채용하는 컨볼루션 신경망들을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 얼굴 이미지들을 처리하는데 채용하는 제1 컨볼루션 신경망의 학습 방법을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 피부 범위를 처리하는데 채용하는 제2 내지 제3 컨볼루션 신경망의 학습 방법을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 표피 함유 정보들을 처리하는데 채용하는 뉴럴 네트워크를 설명하기 위한 도면이다.
도 6은 일실시예에 따른 표피 함유 정보들을 처리하는데 채용하는 학습 방법을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 원료 조성비를 획득하기 위해 채용하는 뉴럴 네트워크들을 설명하기 위한 도면이다.
도 8는 일실시예에 따른 원료 조성비를 획득하기 위해 채용하는 학습 방법을 설명하기 위한 도면이다.
도 9는 일실시예에 따른 블록체인 네트워크를 설명하기 위한 도면이다.
도 10은 일실시예에 따른 일실시예에 따른 장치의 구성의 예시도이다.
1 is a flowchart illustrating a method of testing skin based on facial images according to an exemplary embodiment.
2 is a diagram for explaining convolutional neural networks used to process face images according to an embodiment.
FIG. 3 is a diagram for describing a learning method of a first convolutional neural network used to process face images according to an exemplary embodiment.
FIG. 4 is a diagram for describing a learning method of second to third convolutional neural networks used to process a skin range according to an exemplary embodiment.
5 is a diagram illustrating a neural network employed to process epidermal-containing information according to an embodiment.
6 is a diagram for explaining a learning method employed to process epidermal-containing information according to an exemplary embodiment.
7 is a diagram for explaining neural networks employed to obtain a raw material composition ratio according to an exemplary embodiment.
8 is a diagram for explaining a learning method employed to obtain a raw material composition ratio according to an embodiment.
9 is a diagram illustrating a block chain network according to an embodiment.
10 is an exemplary diagram of a configuration of an apparatus according to an embodiment according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the rights of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed in various forms and implemented. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be interpreted as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. The embodiments may be implemented in various types of products such as a personal computer, a laptop computer, a tablet computer, a smart phone, a television, a smart home appliance, an intelligent vehicle, a kiosk, and a wearable device.

도 1 및 도 2는 일실시예에 따른 얼굴 이미지들을 바탕으로 피부를 테스트하는 방법을 설명하기 위한 순서도 및 도면이다.1 and 2 are flow charts and diagrams for explaining a method of testing skin based on facial images according to an exemplary embodiment.

일실시예에 따르면, 인공지능을 기반으로 화장료 조성물을 제조하는데 사용되는 제어 장치(이하, 제어 장치)는 피부 분석기의 제1 광원(201) 및 제2 광원(202) 하에서 피부 분석기 내의 카메라를 제어해 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)를 각각 획득할 수 있다(101).According to an embodiment, a control device (hereinafter, a control device) used to manufacture a cosmetic composition based on artificial intelligence controls the camera in the skin analyzer under the first light source 201 and the second light source 202 of the skin analyzer. In addition, the first face image 203 and the second face image 204 may be obtained (101).

일실시예에 따른 제어 장치는 피부 테스트 및 화장료 조성물의 제조를 수행하는 장치로서, 예를 들어 하드웨어 모듈, 소프트웨어 모듈 또는 이들의 조합으로 구현될 수 있다.The control device according to an embodiment is a device that performs skin testing and manufacture of a cosmetic composition, and may be implemented as, for example, a hardware module, a software module, or a combination thereof.

일실시예에 따르면, 제어 장치는 서버로 구현될 수 있다. 서버는 단말과 통신할 수 있고, 필요한 정보를 데이터베이스로부터 열람하여 판단 동작에 채용하고, 판단의 결과물을 기반으로 데이터베이스를 갱신할 수 있다. 예를 들어, 제어 장치는 사용자의 카메라를 제어해 실시간으로 또는 메모리 저장을 통해 영상 및 사진을 획득하고, 획득된 영상 및 사진을 바탕으로 얼굴 이미지와 관련된 정보를 갱신하고, 갱신된 정보를 기반으로 획득하는 자동 보정 필터의 종류 및 카테고리를 갱신할 수 있다.According to an embodiment, the control device may be implemented as a server. The server may communicate with the terminal, retrieve necessary information from the database, employ it for a determination operation, and update the database based on the result of the determination. For example, the control device controls the user's camera to acquire images and photos in real time or through memory storage, updates face image-related information based on the acquired images and photos, and based on the updated information. The type and category of the automatic correction filter to be acquired can be updated.

일실시예에 따르면, 제어 장치는 GPS(Global Positioning System) 기반 측위 기술, 와이파이(Wi-Fi) 기반 측위 기술, WCDMA, WiBro, 3G, LTE, 5G, WiMAX 등 이동통신 또는 셀룰러 기반 측위 기술, 근거리 통신(RFID, ZigBee, NFC, Bluetooth) 및 기타 다중 인프라들과 같이 다양한 방식을 통해 사용자의 위치를 획득할 수 있으며, 위치 획득 방식에는 다양한 기법들이 적용 및 응용될 수 있다. 제어 장치는 서버 및 단말 중 적어도 하나로 구현될 수 있다. 제어 장치에 의해 수행되는 동작은 서버 및 단말 중 어느 하나 단독으로 구현될 수도 있지만, 서버 및 단말의 상호작용에 의해 구현될 수도 있다. 서버 및 단말은 전자 장치를 포함할 수 있다.According to an embodiment, the control device is a GPS (Global Positioning System) based positioning technology, a Wi-Fi based positioning technology, a mobile communication or cellular based positioning technology such as WCDMA, WiBro, 3G, LTE, 5G, WiMAX, etc. The user's location can be acquired through various methods such as communication (RFID, ZigBee, NFC, Bluetooth) and other multiple infrastructures, and various techniques can be applied and applied to the location acquisition method. The control device may be implemented with at least one of a server and a terminal. The operation performed by the control device may be implemented by either the server or the terminal alone, but may be implemented by the interaction of the server and the terminal. The server and terminal may include electronic devices.

일실시예에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.According to an embodiment, the electronic device may be a smart home appliance having a communication function. Smart home appliances, for example, include televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, and TVs. It may include at least one of a box (eg, Samsung HomeSyncTM, Apple TVTM, or Google TVTM), game consoles, electronic dictionary, electronic key, camcorder, or electronic frame.

일실시예에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.According to an embodiment, the electronic device includes various medical devices (e.g., magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT)), an imager, an ultrasonic device, etc.), a navigation device, a GPS receiver ( global positioning system receiver), EDR (event data recorder), FDR (flight data recorder), automobile infotainment device, marine electronic equipment (e.g., marine navigation equipment and gyro compass, etc.), avionics, security It may include at least one of a device, a vehicle head unit, an industrial or domestic robot, an automatic teller's machine (ATM) of a financial institution, or a point of sales (POS) of a store.

일실시예에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 일실시예에에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 일실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 일실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.According to one embodiment, the electronic device is a piece of furniture or building/structure including a communication function, an electronic board, an electronic signature receiving device, a projector, or various measurement devices. It may include at least one of devices (eg, water, electricity, gas, or radio wave measurement devices). The electronic device according to an embodiment may be a combination of one or more of the aforementioned various devices. In addition, the electronic device according to an embodiment may be a flexible device. In addition, it is obvious to those skilled in the art that the electronic device according to the embodiment is not limited to the above-described devices. The term user used in various embodiments may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using an electronic device.

일실시예에 따른 전자 장치는 프로세서, 메모리, 사용자 인터페이스 및 통신 인터페이스를 포함하고, 다른 전자 장치와 네트워크를 통해 연결될 수 있다. 통신 인터페이스는 유, 무선 네트워크 또는 유선 직렬 통신 등을 통하여 소정 거리 이내의 다른 전자 장치와 데이터를 송수신할 수 있다. 네트워크는 일실시예에 따른 전자 장치와 다양한 개체들(entities) 간의 유, 무선 통신을 가능하게 한다. 전자 장치는 네트워크를 통해 다양한 개체들과 통신할 수 있고, 네트워크는 표준 통신 기술 및/또는 프로토콜들을 사용할 수 있다. 이때, 네트워크(network)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나 이에 한정되지 않으며, 정보를 송, 수신할 수 있는 다른 종류의 네트워크가 될 수도 있음을 통신 기술 분야의 통상의 지식을 가진 자라면 알 수 있다.An electronic device according to an embodiment includes a processor, a memory, a user interface, and a communication interface, and may be connected to other electronic devices through a network. The communication interface may transmit and receive data to and from other electronic devices within a predetermined distance through wired, wireless network, or wired serial communication. The network enables wired and wireless communication between an electronic device and various entities according to an embodiment. The electronic device can communicate with various entities through the network, and the network can use standard communication technologies and/or protocols. In this case, the network includes, but is not limited to, the Internet, a local area network (LAN), a wireless local area network (LAN), a wide area network (WAN), a personal area network (PAN), and the like, It can be understood by those of ordinary skill in the communication technology field that it may be another type of network capable of transmitting and receiving information.

일실시예에 따른 휴대용 단말은 통신 기능이 포함된 전자 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크톱 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트카(smart car) 또는 스마트 와치(smartwatch)중 적어도 하나를 포함할 수 있다.The portable terminal according to an embodiment may be an electronic device including a communication function. For example, electronic devices include smart phones, tablet personal computers (PCs), mobile phones, video phones, e-book readers, desktop personal computers (desktop personal computers), and laptops. Laptop personal computer (PC), netbook computer, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical device, camera, or wearable device (e.g.: Including at least one of a head-mounted-device (HMD) such as an electronic glasses, an electronic clothing, an electronic bracelet, an electronic necklace, an electronic appcessory, an electronic tattoo, a smart car, or a smartwatch. I can.

일실시예에 따른 제1 광원(201)은 파장 576~580nm 범위의 옐로광이고, 제2 광원(202)은 파장 490~520nm 범위의 시안광일 수 있다. 파장이 서로 다른 광원의 사용은 피부의 깊이에 따른 정보들을 보다 정확히 측정할 수 있으며, 반사, 굴절 및 투과되는 파장들로부터 피부의 상태를 보다 면밀히 확인할 수 있다.The first light source 201 according to an embodiment may be yellow light having a wavelength of 576 to 580 nm, and the second light source 202 may be cyan light having a wavelength of 490 to 520 nm. The use of light sources with different wavelengths can more accurately measure information according to the depth of the skin, and the condition of the skin can be more closely checked from the wavelengths reflected, refracted, and transmitted.

일실시예에 따른 카메라의 종류는 피부 분석기의 종류 및 사양에 따라 상이할 수 있다. 일반적으로 카메라는 FHD(Full High Definition) 화질의 카메라일 수 있으며, 영상 및 사진 촬영을 위한 장비일 수 있다. 카메라는 ISO(International Organization for Standardization), 노출, 초점, 셔터스피드 및 줌을 자동으로 조절할 수 있으나, 이에 국한하지 않는다. 카메라로 영상을 촬영할 때에는 60프레임을 주로 사용하며, 경우에 따라 그 이상 또는 이하로 촬영할 수 있다.The type of camera according to an embodiment may be different according to the type and specification of the skin analyzer. In general, the camera may be a camera of FHD (Full High Definition) image quality, and may be equipment for capturing images and photos. The camera can automatically adjust ISO (International Organization for Standardization), exposure, focus, shutter speed, and zoom, but is not limited thereto. When shooting video with a camera, 60 frames are mainly used, and in some cases, more or less than that.

일실시예에 따르면, 제어 장치는 얼굴을 포함하는 얼굴 이미지들을 획득할 수 있는데, 제1 광원(201) 및 제2 광원(202) 하에서 촬영된 사진으로부터 각각 대응하는 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)를 획득할 수 있다. 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)는 이마가 보이도록 머리를 넘긴 상태에서 촬영되며, 안경, 밴드, 패치 및 귀걸이를 비롯한 방해 이물질이 제거된 상태에서 촬영될 수 있으나, 이에 국한하지 않는다.According to an embodiment, the control device may acquire face images including a face, and a corresponding first face image 203 and a corresponding first face image 203 from a photograph taken under the first light source 201 and the second light source 202, respectively. A second face image 204 may be obtained. The first face image 203 and the second face image 204 are photographed while the head is turned over so that the forehead is visible, and may be photographed while the obstructive foreign substances including glasses, bands, patches, and earrings are removed. Not limited.

일실시예에 따르면, 제어 장치는 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)에 기초하여 제1 이미지 벡터(210)를 생성할 수 있다(102).According to an embodiment, the control device may generate the first image vector 210 based on the first face image 203 and the second face image 204 (102).

일실시예에 따르면, 제어 장치는 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)로부터 제1 이미지 벡터(210)를 생성할 수 있는데, 제1 이미지 벡터(210)는 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)의 픽셀 별 RGB 색상, 채도 및 명도들의 가중 합이 적용된 다차원의 벡터일 수 있는데, 가중 합에 적용되는 가중치들은 각 특징들이 평균에서 멀어질수록 커지도록 조정될 수 있다. 여기서, 벡터는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 특징 벡터 생성 시 접속 요청 패킷 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 가중치들은 컨볼루션 신경망의 학습 시 최적화될 수 있다.According to an embodiment, the control device may generate the first image vector 210 from the first face image 203 and the second face image 204, wherein the first image vector 210 is a first face image. 203 and the second face image 204 may be a multidimensional vector to which a weighted sum of RGB colors, saturation and brightness for each pixel is applied, and the weights applied to the weighted sum will be adjusted so that each feature increases as the distance from the average increases. I can. Here, the vector may be defined in various forms according to design intention, such as a one-hot vector and a real vector. When generating a feature vector, weights may be applied to various variables in the access request packet. Weights can be optimized during training of the convolutional neural network.

일실시예에 따르면, 제어 장치는 제1 이미지 벡터(210)를 미리 학습된 제1 컨볼루션 신경망(211)에 적용하여 제1 이미지 출력(212)을 획득할 수 있다(103).According to an embodiment, the control device may obtain the first image output 212 by applying the first image vector 210 to the pre-trained first convolutional neural network 211 (103).

일실시예에 따르면, 제1 이미지 벡터(210)는 제1 컨볼루션 신경망(211)의 입력 레이어에 대응할 수 있다. 일실시예에 따르면, 제어 장치는 제1 이미지 벡터(210)가 인가된 제1 컨볼루션 신경망(211)으로부터 생성된 제1 이미지 출력(212)을 획득할 수 있다. 제1 이미지 출력(212)은 제1 컨볼루션 신경망(211)의 출력 레이어에 대응할 수 있다.According to an embodiment, the first image vector 210 may correspond to an input layer of the first convolutional neural network 211. According to an embodiment, the control device may obtain the first image output 212 generated from the first convolutional neural network 211 to which the first image vector 210 is applied. The first image output 212 may correspond to an output layer of the first convolutional neural network 211.

일실시예에 따르면, 제어 장치는 제1 이미지 출력(212)에 기초하여 피부 범위(205)를 획득할 수 있다(104). 피부 범위(205)는 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)를 포함하고, 제1 얼굴 이미지(203) 및 제2 얼굴 이미지(204)에서 피부로 인식되는 이마 및 볼의 범위를 의미할 수 있다. 화장료 조성물 제조방법에서 피부 범위(205)는 제1 피부 영역, 제2 영역 및 제3 피부 영역으로 세분화될 수 있는데, 제1 피부 영역은 이마에서부터 미간 사이로 내려오는 T자 영역을 포함할 수 있고, 제2 피부 영역 및 제3 피부 영역은 각기 좌우 볼을 포함하는 영역일 수 있다.According to an embodiment, the control device may acquire the skin range 205 based on the first image output 212 (104 ). The skin range 205 includes a first face image 203 and a second face image 204, and a range of the forehead and cheeks recognized as skin in the first face image 203 and the second face image 204 Can mean In the cosmetic composition manufacturing method, the skin range 205 may be subdivided into a first skin area, a second area, and a third skin area, and the first skin area may include a T-shaped area descending from the forehead to the brow, The second skin region and the third skin region may be regions including left and right cheeks, respectively.

일실시예에 따르면, 제어 장치는 딥러닝 기술을 적용해 피부의 테스트를 위한 피부 범위(205)를 판단할 수 있다According to an embodiment, the control device may determine the skin range 205 for testing the skin by applying the deep learning technology.

일실시예에 따르면, 제어 장치는 피부 범위(205)에 기초하여, 피부 범위(205) 내의 색상 정보(206) 및 광택도 정보(207)를 획득할 수 있다(105).According to an embodiment, the control device may acquire color information 206 and gloss information 207 within the skin range 205 based on the skin range 205 (105).

일실시예에 따른 색상 정보(206)는 피부 범위(205)의 픽셀 별 8비트 256색의 RGB 색상으로 표현된 그래픽 정보를 의미할 수 있다. RGB 색상의 표현은 RGB 가산혼합을 통해 이뤄질 수 있으며, 8비트를 해당하는 빨강, 초록, 파랑의 색상에 할당함으로써, 각 색상마다 256가지의 명도, 채도를 결정하도록 할 수 있다. 이 시스템을 통해 2563인 16,777,216가지의 색상, 채도, 명도를 표현할 수 있다. 예를 들어, 검정 색은 빨강, 초록, 파랑 색을 각각 수치화한 삼원색의 삼차원 직교 좌표계에서 (0,0,0)으로 표현 가능하며, 하얀 색은 (255,255,255)로 표현될 수 있다. 빨강은 (255,0,0), 초록은 (0,255,0), 파랑은 (0,0,255)일 수 있다. 경우에 따라 색상 정보(206)는 CMYK 감산혼합 방법을 사용할 수 있다.The color information 206 according to an embodiment may refer to graphic information expressed in RGB colors of 8-bit 256 colors for each pixel of the skin range 205. The expression of RGB colors can be achieved by adding and mixing RGB, and by allocating 8 bits to the corresponding red, green, and blue colors, 256 types of brightness and saturation can be determined for each color. Through this system, 16,777,216 colors, saturation, and brightness of 256 3 can be expressed. For example, black color can be expressed as (0,0,0) in a three-dimensional Cartesian coordinate system of three primary colors in which red, green, and blue colors are numerically respectively, and white color can be expressed as (255,255,255). Red may be (255,0,0), green may be (0,255,0), and blue may be (0,0,255). In some cases, the color information 206 may use a CMYK subtraction and mixing method.

일실시예에 따른 광택도는 반사광을 입사광과 동일한 각도로 수광할 때 빛의 강도를, 굴절률 1.567의 유리 표면 광택을 100으로 한 비율로 나타내는 것으로서, 일반적인 각도는 60˚일 수 있다. 광택도는 ISO 2813 및 ASTM D523을 기준으로 할 수 있으며, 일반적으로 GU 단위로 측정할 수 있다. 표준광택은 60˚로 측정할 수 있는데, 경우에 따라 20˚(저광택) 내지 85˚(고광택)의 각도를 사용할 수 있다.The glossiness according to an embodiment represents the intensity of light when the reflected light is received at the same angle as the incident light, and the glass surface gloss having a refractive index of 1.567 is 100, and the general angle may be 60°. Glossiness can be based on ISO 2813 and ASTM D523, and can generally be measured in GU units. Standard gloss can be measured at 60°, and in some cases, an angle of 20° (low gloss) to 85° (high gloss) can be used.

일실시예에 따르면, 제어 장치는 피부 범위(205)에 기초하여, 제2 이미지 벡터(220)를 생성할 수 있다(106).According to an embodiment, the control device may generate the second image vector 220 based on the skin range 205 (106 ).

일실시예에 따르면, 제어 장치는 피부 범위(205)로부터 제2 이미지 벡터(220)를 생성할 수 있는데, 제2 이미지 벡터(220)는 피부 범위(205)에 해당하는 픽셀 별 RGB 색상, 채도 및 명도들의 가중 합이 적용된 다차원의 벡터일 수 있는데, 가중 합에 적용되는 가중치들은 각 특징들이 평균에서 멀어질수록 커지도록 조정될 수 있다. 여기서, 벡터는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 특징 벡터 생성 시 접속 요청 패킷 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 가중치들은 컨볼루션 신경망의 학습 시 최적화될 수 있다.According to an embodiment, the control device may generate the second image vector 220 from the skin range 205, wherein the second image vector 220 is RGB color and saturation for each pixel corresponding to the skin range 205 And a multidimensional vector to which the weighted sum of the luminances is applied, and weights applied to the weighted sum may be adjusted to increase as the features move away from the average. Here, the vector may be defined in various forms according to design intention, such as a one-hot vector and a real vector. When generating a feature vector, weights may be applied to various variables in the access request packet. Weights can be optimized during training of the convolutional neural network.

일실시예에 따르면, 제어 장치는 제2 이미지 벡터(220)를 미리 학습된 제2 컨볼루션 신경망(221) 및 제3 컨볼루션 신경망(231)에 적용하여 제2 이미지 출력(222) 및 제3 이미지 출력(232)을 각각 획득할 수 있다(107).According to an embodiment, the control device applies the second image vector 220 to the pre-trained second convolutional neural network 221 and the third convolutional neural network 231 to output the second image 222 and the third Each of the image outputs 232 may be obtained (107).

일실시예에 따르면, 제2 이미지 벡터(220)는 제2 컨볼루션 신경망(221) 및 제3 컨볼루션 신경망(231)의 입력 레이어에 대응할 수 있다. 일실시예에 따르면, 제어 장치는 제2 이미지 벡터(220)가 인가된 제2 컨볼루션 신경망(221) 및 제3 컨볼루션 신경망(231)으로부터 생성된 제2 이미지 출력(222) 및 제3 이미지 출력(232)을 획득할 수 있다. 제2 이미지 출력(222) 및 제3 이미지 출력(232)은 제2 컨볼루션 신경망(221) 및 제3 컨볼루션 신경망(231)의 출력 레이어에 각각 대응할 수 있다.According to an embodiment, the second image vector 220 may correspond to an input layer of the second convolutional neural network 221 and the third convolutional neural network 231. According to an embodiment, the control device includes a second image output 222 and a third image generated from the second convolutional neural network 221 and the third convolutional neural network 231 to which the second image vector 220 is applied. Output 232 can be obtained. The second image output 222 and the third image output 232 may respectively correspond to output layers of the second convolutional neural network 221 and the third convolutional neural network 231.

일실시예에 따르면, 제어 장치는 제2 이미지 출력(222)에 기초하여 제1 피부질 정보(208)를 획득할 수 있다(108). 제1 피부질 정보(208)는 얼굴에서 1차적으로 구분 가능한 피부 범위(205) 내 개선 대상 구조물들을 포함할 수 있다. 개선 대상 구조물들은 여드름, 주름, 곰보, 아토피 피부염, 홍반, 두드러기 및 습진성 피부질환을 포함할 수 있으나, 이에 국한하지 않는다. 여드름은 막힌 모공, 뾰루지, 깊은 종기 등을 말하는 것으로 면포, 구진, 고름물집, 결절, 거짓낭 등의 염증성 피부질환으로 나타날 수 있다. 주름은 여러 요인에 의해 콜라겐 섬유, 탄력 섬유 등의 변성으로 피부 수분이 감소하여 피부 탄력이 떨어져 피부가 접히는 현상을 의미할 수 있다. 곰보는 천연두를 비롯한 전염병이나 여드름과 같은 피부병을 앓은 후 얼굴에 발생된 흉터가 남아있는 피부 상태를 의미할 수 있다. 아토피 피부염은 가려움 및 피부건조증을 동반하는 만성 재발성 염증성 피부질환으로 붉은 반점이나 거친 피부를 특징으로 할 수 있다. 홍반은 외적 및 내적 자극에 의해 발생하는 피부가 붉고 혈관이 확장돼 피가 고인 형태의 질환일 수 있다. 두드러기는 피부 상층의 부분적인 부종으로 인해 생긴 다양한 크기의 팽진일 수 있다. 습진성 피부질환은 가려움증을 동반하는 질환으로 급성기에 물집, 홍반 및 부종이 나타나다 만성기에 피부가 두꺼워지고 비늘 같은 것이 나타나는 특징을 보일 수 있다.According to an embodiment, the control device may obtain the first skin quality information 208 based on the second image output 222 (108). The first skin quality information 208 may include structures to be improved within the skin range 205 that is primarily distinguishable from the face. Structures to be improved may include, but are not limited to, acne, wrinkles, gombo, atopic dermatitis, erythema, urticaria and eczematous skin diseases. Acne refers to clogged pores, pimples, and deep boils, and can appear as inflammatory skin diseases such as comedones, papules, pus blisters, nodules, and false sacs. Wrinkles may refer to a phenomenon in which skin moisture decreases due to degeneration of collagen fibers, elastic fibers, etc. due to various factors, resulting in decreased skin elasticity and skin folds. Gombo may refer to a skin condition in which scars on the face remain after suffering from infectious diseases such as smallpox or skin diseases such as acne. Atopic dermatitis is a chronic recurrent inflammatory skin disease accompanied by itchiness and dry skin, and may be characterized by red spots or rough skin. Erythema can be a form of reddening of the skin and dilated blood vessels caused by external and internal stimuli, resulting in blood accumulation. Hives can be swelling of various sizes caused by partial swelling of the upper layers of the skin. Eczema skin disease is a disease accompanied by itching. In the acute phase, blisters, erythema, and swelling appear, and in the chronic phase, the skin thickens and scales appear.

일실시예에 따르면, 제어 장치는 제3 이미지 출력(232)에 기초하여 제2 피부질 정보(209)를 획득할 수 있다(109). 제2 피부질 정보(209)는 제2 피부질 정보(209)는 얼굴의 전반적인 관리 상태를 표현할 수 있는 표피의 입자 정보를 의미할 수 있다. 입자 정보는 피부의 거칠기를 나타내는 지표로서, 그 거칠기에 따라 총 4단계의 입자 정보를 포함할 수 있다. 1단계 입자는 가장 작은 입자로서, 피부의 관리 상태가 우수하고 매끄러운 상태를 의미하는 것일 수 있다. 2단계 입자는 작은 입자로서, 피부의 관리 상태가 적절하고 모공의 크기도 적절한 상태를 의미할 수 있다. 3단계 입자는 큰 입자로서, 피부의 관리 상태가 불량하고, 모공의 크기가 큰 상태를 의미할 수 있다. 4단계 입자는 매우 큰 입자로서, 피부의 관리 상태가 매우 불량하고, 모공의 크기 및 수가 불규칙적이며 큰 상태를 의미할 수 있다.According to an embodiment, the control device may obtain the second skin quality information 209 based on the third image output 232 (109 ). The second skin quality information 209 may mean information on particles of an epidermis capable of expressing the overall management status of the face. The particle information is an index indicating the roughness of the skin, and may include a total of 4 steps of particle information according to the roughness. The first-stage particles are the smallest particles, and may mean that the skin has an excellent and smooth condition. The second-stage particles are small particles, and may mean a condition in which the skin is well maintained and the pore size is also appropriate. The third-stage particles are large particles, and may mean a condition in which skin care is poor and pores are large. The fourth-stage particles are very large particles, and may mean a condition in which skin care is very poor, and the size and number of pores are irregular and large.

일실시예에 따르면, 제어 장치는 딥러닝 기술을 적용해 피부질의 상태를 평가할 수 있다.According to an embodiment, the control device may evaluate the condition of skin quality by applying deep learning technology.

도 3은 일실시예에 따른 얼굴 이미지들을 처리하는데 채용하는 제1 컨볼루션 신경망(304)의 학습 방법을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a learning method of a first convolutional neural network 304 used to process face images according to an exemplary embodiment.

일실시예에 따르면, 학습 장치는 얼굴 이미지들의 처리를 위한 컨볼루션 신경망을 학습시킬 수 있다. 학습 장치는 제어 장치와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning device may train a convolutional neural network for processing face images. The learning device may be a separate subject different from the control device, but is not limited thereto.

일실시예에 따르면, 인공 신경망은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 레이블들은 얼굴 이미지들 및 얼굴 이미지들에 대응되는 식별 정보들에 기초하여 정의될 수 있다. 인공 신경망은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial neural network includes an input layer to which training samples are input and an output layer to output training outputs, and may be trained based on a difference between the training outputs and labels. Here, the labels may be defined based on face images and identification information corresponding to the face images. The artificial neural network is connected by a group of a plurality of nodes, and is defined by weights between the connected nodes and an activation function that activates the nodes.

학습 장치는 GD(Gradient Descent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망을 학습시킬 수 있다. 학습 장치는 인공 신경망의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning device may train an artificial neural network using a gradient descent (GD) technique or a stochastic gradient descent (SGD) technique. The learning device can use the loss function designed by the outputs and labels of the artificial neural network.

학습 장치는 미리 정의된 손실 함수(loss function)를 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning device may calculate a training error using a predefined loss function. The loss function can be predefined with a label, an output and a parameter as input variables, where the parameter can be set by weights in the artificial neural network. For example, the loss function may be designed in a mean square error (MSE) form, an entropy form, or the like, and various techniques or methods may be employed in an embodiment in which the loss function is designed.

학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning apparatus may find weights that influence the training error using a backpropagation technique. Here, the weights are relations between nodes in the artificial neural network. The learning apparatus can use the SGD technique using labels and outputs to optimize the weights found through the backpropagation technique. For example, the learning apparatus may update weights of the loss function defined based on labels, outputs, and weights using the SGD technique.

일실시예에 따르면, 학습 장치는 레이블드 트레이닝 제1 얼굴 이미지들(301) 및 레이블드 트레이닝 제2 얼굴 이미지들(302)을 획득을 획득할 수 있다. 학습 장치는 트레이닝 제1 얼굴 이미지들, 트레이닝 제2 얼굴 이미지들 및 각각 미리 레이블링된 정보를 획득할 수 있는데, 제1 얼굴 이미지들 및 제2 얼굴 이미지들은 미리 분류된 피부 범위들 위치에 따라 레이블링될 수 있다. 이 때 사용되는 학습용 데이터들은 10,000 쌍의 레이블드 트레이닝 제1 얼굴 이미지들(301) 및 레이블드 트레이닝 제2 얼굴 이미지들(302)과 이에 대한 피부 전문가들에 의해 생성된 피부 범위들에 따라 결정될 수 있다.According to an embodiment, the learning apparatus may acquire labeled training first face images 301 and labeled training second face images 302. The training device may acquire training first face images, training second face images, and pre-labeled information, respectively, wherein the first face images and second face images are to be labeled according to positions of pre-classified skin regions. I can. The training data used at this time may be determined according to 10,000 pairs of labeled training first face images 301 and labeled training second face images 302 and skin ranges generated by skin experts. have.

일실시예에 따르면, 학습 장치는 레이블드 트레이닝 제1 얼굴 이미지들(301) 및 레이블드 트레이닝 제2 얼굴 이미지들(302)에 기초하여, 제1 트레이닝 이미지 벡터들(303)을 생성할 수 있다.According to an embodiment, the learning apparatus may generate first training image vectors 303 based on the labeled training first face images 301 and the labeled training second face images 302. .

일실시예에 따르면, 학습 장치는 제1 트레이닝 이미지 벡터들(303)을 제1 컨볼루션 신경망(304)에 적용하여 제1 트레이닝 이미지 출력들(305)을 획득할 수 있다. 학습 장치는 제1 트레이닝 이미지 출력들(305) 및 제1 이미지 레이블들(306)에 기초하여 제1 컨볼루션 신경망(304)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 설계 출력들에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제1 컨볼루션 신경망(304) 내 노드들의 연결 관계를 최적화하여 제1 컨볼루션 신경망(304)을 학습시킬 수 있다. 제어 장치는 학습이 완료된 제1 컨볼루션 신경망(304)을 이용하여 제1 얼굴 이미지 및 제2 얼굴 이미지로부터 피부 범위를 획득할 수 있다.According to an embodiment, the learning apparatus may obtain first training image outputs 305 by applying the first training image vectors 303 to the first convolutional neural network 304. The training device may train the first convolutional neural network 304 based on the first training image outputs 305 and the first image labels 306. The learning apparatus calculates training errors corresponding to the first training design outputs, and optimizes the connection relationship of nodes in the first convolutional neural network 304 to minimize the training errors, thereby constructing the first convolutional neural network 304. You can learn. The control device may acquire a skin range from the first face image and the second face image by using the learned first convolutional neural network 304.

도 4는 일실시예에 따른 피부 범위를 처리하는데 채용하는 제2 내지 제3 컨볼루션 신경망(420)의 학습 방법을 설명하기 위한 도면이다.4 is a diagram for describing a learning method of the second to third convolutional neural networks 420 used to process a skin range according to an exemplary embodiment.

일실시예에 따르면, 학습 장치는 피부 범위로부터 제1 피부질 정보 및 제2 피부질 정보를 획득하는데 필요한 컨볼루션 신경망을 학습시킬 수 있다. 학습 장치는 제어 장치와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니고, 상술한 학습 방법과 중복되는 내용은 생략된다.According to an embodiment, the learning device may train a convolutional neural network required to acquire first skin quality information and second skin quality information from a skin range. The learning device may be a separate subject different from the control device, but is not limited thereto, and contents overlapping with the above-described learning method are omitted.

일실시예에 따르면, 학습 장치는 레이블드 트레이닝 피부 범위들(401)을 획득할 수 있다. 학습 장치는 트레이닝 피부 범위들(401)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 트레이닝 피부 범위들(401)은 미리 분류된 제1 피부질 정보들 및 제2 피부질 정보들에 따라 레이블링될 수 있다. 이 때 사용되는 학습용 데이터들은 10,000 개의 피부 범위들과 이에 대한 피부 전문가들에 의해 생성된 제1 피부질 정보들 및 제2 피부질 정보들에 따라 결정될 수 있다.According to an embodiment, the learning device may acquire the labeled training skin ranges 401. The learning device may obtain pre-labeled information on each of the training skin ranges 401, and the training skin ranges 401 may be labeled according to pre-classified first skin quality information and second skin quality information. I can. The learning data used at this time may be determined according to 10,000 skin ranges and first skin quality information and second skin quality information generated by skin experts.

일실시예에 따르면, 학습 장치는 레이블드 트레이닝 피부 범위들(401)에 기초하여 제2 트레이닝 이미지 벡터들(402)을 생성할 수 있다.According to an embodiment, the learning device may generate second training image vectors 402 based on the labeled training skin ranges 401.

일실시예에 따르면, 학습 장치는 제2 트레이닝 이미지 벡터들(402)을 제2 컨볼루션 신경망(410) 및 제3 컨볼루션 신경망(420)에 적용하여 제2 트레이닝 이미지 출력들(411) 및 제3 트레이닝 이미지 출력들(421)을 획득할 수 있다. 학습 장치는 제2 트레이닝 이미지 출력들(411), 제3 트레이닝 이미지 출력들(421), 제2 이미지 레이블들(412) 및 제3 이미지 레이블들(422)에 기초하여 제2 컨볼루션 신경망(410) 및 제3 컨볼루션 신경망(420)을 학습시킬 수 있다. 학습 장치는 제2 트레이닝 이미지 출력들(411) 및 제3 트레이닝 이미지 출력들(421)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제2 컨볼루션 신경망(410) 및 제3 컨볼루션 신경망(420) 내 노드들의 연결 관계를 최적화하여 제2 컨볼루션 신경망(410) 및 제3 컨볼루션 신경망(420)을 학습시킬 수 있다. 제어 장치는 학습이 완료된 제2 컨볼루션 신경망(410) 및 제3 컨볼루션 신경망(420)을 이용하여 피부 범위로부터 제1 피부질 정보 및 제2 피부질 정보를 획득할 수 있다.According to an embodiment, the learning apparatus applies the second training image vectors 402 to the second convolutional neural network 410 and the third convolutional neural network 420 to provide the second training image outputs 411 and the second training image vectors 402. 3 training image outputs 421 may be obtained. The training device is based on the second training image outputs 411, the third training image outputs 421, the second image labels 412, and the third image labels 422, based on the second convolutional neural network 410 ) And the third convolutional neural network 420 may be trained. The training apparatus calculates training errors corresponding to the second training image outputs 411 and the third training image outputs 421, and uses a second convolutional neural network 410 and a third convoluted network to minimize the training errors. The second convolutional neural network 410 and the third convolutional neural network 420 may be trained by optimizing a connection relationship between nodes in the lusion neural network 420. The control device may acquire the first skin quality information and the second skin quality information from the skin range using the second convolutional neural network 410 and the third convolutional neural network 420 on which the learning has been completed.

도 5는 일실시예에 따른 표피 함유 정보들을 처리하는데 채용하는 뉴럴 네트워크를 설명하기 위한 도면이다.5 is a diagram illustrating a neural network employed to process epidermal-containing information according to an embodiment.

도 5를 참조하면, 제어 장치는 피부 범위를 세분한 제1 피부 영역(510), 제2 피부 영역(520) 및 제3 피부 영역(530)에 해당하는 얼굴 영역에 각각 30초 간 문지른 검사용 코튼을 시험용 키트에 적용하여 제1 내지 제3 표피 함유 정보(511, 521, 531)를 획득할 수 있다. 표피 함유 정보는 표피로부터 획득할 수 있는 유분, 수분 및 오염물의 함량 및 함량비를 포함할 수 있다.Referring to FIG. 5, the control device is for examination by rubbing each of the face regions corresponding to the first skin region 510, the second skin region 520, and the third skin region 530 into a subdivided skin region for 30 seconds. The first to third epidermal content information 511, 521, 531 may be obtained by applying the cotton to the test kit. The epidermal content information may include the content and content ratio of oil, moisture, and contaminants that can be obtained from the epidermis.

일실시예에 따른 피부 범위의 세분화한 영역들은 상술한 바와 같다. 검사용 코튼은 일반적인 화장솜과 동일한 재질로 생성될 수 있으나, 오염을 최소화하기 위해 멸균 표장된 상태일 수 있다. 검사용 코튼을 사용할 때에는 강하게 문지르기 보단 가볍게 두드리듯 문질러 주는 것이 좋을 수 있다. 시험용 키트는 검사용 코튼을 통해 획득한 표피의 물질들의 함량을 확인하기 위한 장비로서, 분극, 밀도, 전기 전도도 및 크로마토그래피 등의 측정을 통해 이를 확인할 수 있으나, 이에 국한하지 않는다.The subdivided areas of the skin range according to an embodiment are as described above. Cotton for examination may be made of the same material as a general cotton pad, but may be in a sterile mark to minimize contamination. When using inspection cotton, it may be better to rub it lightly than to rub it hard. The test kit is an equipment for checking the content of substances in the epidermis obtained through the test cotton, and can be confirmed through measurements such as polarization, density, electrical conductivity, and chromatography, but is not limited thereto.

일실시예에 따르면, 제어 장치는 제1 내지 제3 표피 함유 정보(511, 521, 531)에 기초하여, 제1 센싱 벡터(501)를 생성할 수 있다. 제1 센싱 벡터(501)는 제1 내지 제3 피부 영역(530)으로부터 획득한 제1 내지 제3 표피 함유 정보(511, 521, 531) 값들의 가중 합이 적용된 다차원의 벡터일 수 있는데, 가중 합에 적용되는 가중치들은 각 특징들이 평균에서 멀어질수록 커지도록 조정될 수 있다. 여기서, 벡터는 one-hot 벡터, 실수 벡터 등 설계 의도에 따라 다양한 형태로 정의될 수 있다. 특징 벡터 생성 시 접속 요청 패킷 내 다양한 변수들에 각각 가중치들이 적용될 수 있다. 가중치들은 인공 신경망의 학습 시 최적화될 수 있다. According to an embodiment, the control device may generate the first sensing vector 501 based on the first to third skin-containing information 511, 521, and 531. The first sensing vector 501 may be a multidimensional vector to which a weighted sum of values of the first to third epidermal containing information 511, 521, 531 obtained from the first to third skin regions 530 is applied. The weights applied to the sum can be adjusted so that each feature increases as it moves away from the average. Here, the vector may be defined in various forms according to design intention, such as a one-hot vector and a real vector. When generating a feature vector, weights may be applied to various variables in the access request packet. Weights can be optimized during training of artificial neural networks.

일실시예에 따르면, 제어 장치는 제1 센싱 벡터(501)를 기 학습된 제1 뉴럴 네트워크(502)로 인가할 수 있다. 제1 센싱 벡터(501)는 제1 뉴럴 네트워크(502)의 입력 레이어에 대응할 수 있다.According to an embodiment, the control device may apply the first sensing vector 501 to the pre-learned first neural network 502. The first sensing vector 501 may correspond to an input layer of the first neural network 502.

일실시예에 따르면, 제어 장치는 제1 센싱 벡터(501)가 인가된 제1 뉴럴 네트워크(502)로부터 생성된 제1 센싱 출력(503)을 획득할 수 있다. 제1 센싱 출력(503)은 제1 뉴럴 네트워크(502)의 출력 레이어에 대응할 수 있다. 제어 장치는 제1 센싱 출력(503)에 기초하여 통합 표피 함유 정보(504)를 획득할 수 있다. 통합 표피 함유 정보(504)는 단순히 제1 내지 제3 표피 함유 정보(511, 521, 531)를 평균한 값이 아니라, 얼굴의 영역 별로 등급화되어 표현되는 이산적이거나 연속된 값으로 표현될 수 있다. According to an embodiment, the control device may obtain the first sensing output 503 generated from the first neural network 502 to which the first sensing vector 501 is applied. The first sensing output 503 may correspond to an output layer of the first neural network 502. The control device may obtain the integrated skin content information 504 based on the first sensing output 503. The integrated epidermal content information 504 is not simply an average of the first to third epidermal content information 511, 521, 531, but can be expressed as a discrete or continuous value that is graded and expressed for each face area. have.

일실시예에 따르면, 제어 장치는 식별 정보로부터 데이터베이스를 조회하여 성별, 연령 및 인종에 따라 다른 피부의 특성을 적용할 수 있다. 제어 장치는 제1 내지 제3 표피 함유 정보(511, 521, 531)로부터 통합 표피 함유 정보(504)를 획득하기 위해 뉴럴 네트워크를 학습시킬 수 있다. 표피 함유 정보의 처리를 위한 학습과 관련된 내용은 도 6을 참조하여 후술된다.According to an embodiment, the control device may apply different skin characteristics according to gender, age, and race by querying the database from the identification information. The control device may train the neural network to obtain the integrated skin-containing information 504 from the first to third skin-containing information 511, 521, and 531. Contents related to learning for processing epidermal-containing information will be described later with reference to FIG. 6.

도 6은 일실시예에 따른 표피 함유 정보들을 처리하는데 채용하는 학습 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a learning method employed to process epidermal-containing information according to an exemplary embodiment.

일실시예에 따르면, 학습 장치는 제1 내지 제3 표피 함유 정보로부터 통합 표피 함유 정보를 획득하는데 필요한 뉴럴 네트워크를 학습시킬 수 있다. 학습 장치는 제어 장치와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니고, 상술한 학습 방법과 중복되는 내용은 생략된다.According to an embodiment, the learning device may learn a neural network required to acquire integrated epidermal content information from the first to third epidermal content information. The learning device may be a separate subject different from the control device, but is not limited thereto, and contents overlapping with the above-described learning method are omitted.

일실시예에 따르면, 학습 장치는 피부 범위들의 제1 내지 제3 피부 영역들(610, 620, 630)에 해당하는 얼굴 영역들에 기초하여, 레이블드 트레이닝 제1 내지 제3 표피 함유 정보들(611, 621, 631)을 획득할 수 있다. 학습 장치는 트레이닝 제1 내지 제3 표피 함유 정보들(611, 621, 631)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 트레이닝 제1 내지 제3 표피 함유 정보들(611, 621, 631)은 미리 분류된 통합 표피 함유 정보들에 따라 레이블링될 수 있다. 이 때 사용되는 학습용 데이터들은 10,000쌍의 제1 내지 제3 표피 함유 정보들과 이에 대한 피부 전문가들에 의해 생성된 통합 표피 함유 정보들에 따라 결정될 수 있다.According to an embodiment, the learning device includes the first to third epidermal containing information of the labeled training based on the facial regions corresponding to the first to third skin regions 610, 620, and 630 of the skin ranges. 611, 621, 631) can be obtained. The learning device may acquire pre-labeled information on the training first to third epidermal-containing information 611, 621, and 631, respectively, and the training first to third epidermal-containing information 611, 621, and 631 It can be labeled according to pre-classified integrated epidermal content information. The learning data used at this time may be determined according to 10,000 pairs of first to third epidermal content information and integrated epidermal content information generated by skin experts.

일실시예에 따르면, 학습 장치는 레이블드 트레이닝 제1 내지 제3 표피 함유 정보들(611, 621, 631)에 기초하여, 제1 트레이닝 센싱 벡터들(601)을 생성할 수 있다.According to an embodiment, the learning device may generate first training sensing vectors 601 based on the labeled training first to third epidermal-containing information 611, 621, and 631.

일실시예에 따르면, 학습 장치는 제1 트레이닝 센싱 벡터들(601)을 제1 뉴럴 네트워크(602)에 적용하여 제1 트레이닝 센싱 출력들(603)을 획득할 수 있다. 학습 장치는 제1 트레이닝 센싱 출력들(603) 및 제1 센싱 레이블들(604)에 기초하여 제1 뉴럴 네트워크(602)를 학습시킬 수 있다. 학습 장치는 제1 트레이닝 센싱 출력들(603)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제1 뉴럴 네트워크(602) 내 노드들의 연결 관계를 최적화하여 제1 뉴럴 네트워크(602)를 학습시킬 수 있다. 제어 장치는 학습이 완료된 제1 뉴럴 네트워크(602)를 이용하여 제1 내지 제3 표피 함유 정보로부터 통합 표피 함유 정보를 획득할 수 있다.According to an embodiment, the learning apparatus may obtain first training sensing outputs 603 by applying the first training sensing vectors 601 to the first neural network 602. The learning apparatus may train the first neural network 602 based on the first training sensing outputs 603 and the first sensing labels 604. The learning apparatus calculates training errors corresponding to the first training sensing outputs 603, and optimizes the connection relationship of nodes in the first neural network 602 to minimize the training errors, and the first neural network 602 Can be learned. The control device may obtain the integrated epidermal content information from the first to third epidermal content information using the learned first neural network 602.

도 7은 일실시예에 따른 원료 조성비(713)를 획득하기 위해 채용하는 뉴럴 네트워크들을 설명하기 위한 도면이다.7 is a diagram illustrating neural networks employed to obtain a raw material composition ratio 713 according to an exemplary embodiment.

일실시예에 따르면, 제어 장치는 색상 정보(701), 광택도 정보(702), 제1 피부질 정보(703), 제2 피부질 정보(704) 및 통합 표피 함유 정보(705)에 기초하여, 원료 조성비(713)를 획득할 수 있다. 여기서, 색상 정보(701), 광택도 정보(702), 제1 피부질 정보(703), 제2 피부질 정보(704) 및 통합 표피 함유 정보(705)는 각각 도 1, 도 2 및 도 5를 참조하여 상술된 기법에 의해 생성될 수 있다.According to one embodiment, the control device is based on color information 701, gloss information 702, first skin quality information 703, second skin quality information 704, and integrated epidermal content information 705. , It is possible to obtain the raw material composition ratio 713. Here, the color information 701, the glossiness information 702, the first skin quality information 703, the second skin quality information 704, and the integrated epidermal content information 705 are respectively shown in FIGS. 1, 2 and 5 It can be generated by the technique described above with reference to.

일실시예에 따르면, 제어 장치는 색상 정보(701), 광택도 정보(702), 제1 피부질 정보(703), 제2 피부질 정보(704) 및 통합 표피 함유 정보(705)에 기초하여, 제1 통합 벡터(710)를 생성할 수 있다. 제1 통합 벡터(710)는 제2 뉴럴 네트워크(711)의 입력 레이어에 대응될 수 있다. 제어 장치는 제1 통합 벡터(710)를 미리 학습된 제2 뉴럴 네트워크(711)에 적용하여 제1 통합 출력(712)을 획득할 수 있다. 제1 통합 출력(712)은 제2 뉴럴 네트워크(711)의 출력 레이어에 대응될 수 있다.According to one embodiment, the control device is based on color information 701, gloss information 702, first skin quality information 703, second skin quality information 704, and integrated epidermal content information 705. , A first integrated vector 710 may be generated. The first integration vector 710 may correspond to an input layer of the second neural network 711. The control device may obtain the first integrated output 712 by applying the first integrated vector 710 to the pre-learned second neural network 711. The first integrated output 712 may correspond to an output layer of the second neural network 711.

일실시예에 따르면, 제어 장치는 제1 통합 출력(712)에 기초하여 데이터베이스로부터 원료 조성비(713)를 검색 및 획득할 수 있다. 원료 조성비(713)는 원료의 종류 및 그 함량비를 포함할 수 있으며, 원료의 정보에 해당하는 내용들은 미리 데이터베이스에 저장돼있을 수 있다.According to an embodiment, the control device may search and obtain the raw material composition ratio 713 from the database based on the first integrated output 712. The raw material composition ratio 713 may include the type of raw material and the content ratio thereof, and contents corresponding to the raw material information may be stored in a database in advance.

일실시예에 따르면, 제어 장치는 딥러닝 기술을 적용해 개별 피부에 적합한 최적화된 원료의 종류 및 함량비를 판단할 수 있다.According to an embodiment, the control device may determine the type and content ratio of an optimized raw material suitable for individual skin by applying a deep learning technology.

일실시예에 따르면, 제어 장치는 제1 통합 벡터(710) 및 원료 조성비(713)에 기초하여, 단계별 예상 데이터(723)를 획득할 수 있다. 여기서, 제1 통합 벡터(710) 및 원료 조성비(713)는 상술된 기법에 의해 생성될 수 있다.According to an embodiment, the control device may obtain the predicted data 723 for each step based on the first integrated vector 710 and the raw material composition ratio 713. Here, the first integrated vector 710 and the raw material composition ratio 713 may be generated by the above-described technique.

일실시예에 따르면, 제어 장치는 제1 통합 벡터(710) 및 원료 조성비(713)에 기초하여, 제2 통합 벡터(720)를 생성할 수 있다. 제2 통합 벡터(720)는 제3 뉴럴 네트워크의 입력 레이어에 대응될 수 있다. 제어 장치는 제2 통합 벡터(720)를 미리 학습된 제3 뉴럴 네트워크에 적용하여 제2 통합 출력(722)을 획득할 수 있다. 제2 통합 출력(722)은 제3 뉴럴 네트워크의 출력 레이어에 대응될 수 있다.According to an embodiment, the control device may generate the second integrated vector 720 based on the first integrated vector 710 and the raw material composition ratio 713. The second integration vector 720 may correspond to the input layer of the third neural network. The control device may obtain a second unified output 722 by applying the second unified vector 720 to a pre-learned third neural network. The second integrated output 722 may correspond to an output layer of the third neural network.

일실시예에 따르면, 제어 장치는 제2 통합 출력(722)에 기초하여, 단계별 예상 데이터(723)를 획득할 수 있다. 단계별 예상 데이터(723)는 원료 조성비(713)를 기준으로 생성한 화장료 조성물을 가상으로 적용할 때 화장료 조성물의 1회 적용량, 적용 횟수 및 적용 기간에 따른 피부의 변화를 예측 분석한 데이터일 수 있다. 이하 도 8을 참조하여 제2 뉴럴 네트워크(711) 및 제3 뉴럴 네트워크의 학습 내용이 후술된다.According to an embodiment, the control device may obtain the predicted data 723 for each step based on the second integrated output 722. When the cosmetic composition generated based on the raw material composition ratio 713 is virtually applied, the predicted data 723 for each step may be data obtained by predicting and analyzing changes in skin depending on the amount of application of the cosmetic composition once, the number of applications, and the application period. . Hereinafter, learning contents of the second neural network 711 and the third neural network will be described with reference to FIG. 8.

일실시예에 따르면, 제어 장치는 단계별 예상 데이터(723)에 기초하여, 피드백 정보(724)를 획득할 수 있다. 피드백 정보(724)는 기존의 원료 조성비(713)를 수정하기 위한 데이터로서, 단계별 예상 데이터(723)를 분석해 자동으로 생성될 수 있으며, 경우에 따라 사람에 의해 수동으로 조절될 수 있다.According to an embodiment, the control device may obtain the feedback information 724 based on the predicted data 723 for each step. The feedback information 724 is data for correcting the existing raw material composition ratio 713, and may be automatically generated by analyzing the step-by-step predicted data 723, and may be manually adjusted by a person in some cases.

일실시예에 따르면, 제어 장치는 딥러닝 기술을 적용해 피부의 상태 및 화장료 조성물의 조성으로부터 피부 적용의 결과를 예측할 수 있다.According to an embodiment, the control device may predict the result of skin application from the condition of the skin and the composition of the cosmetic composition by applying the deep learning technology.

일실시예에 따르면, 제어 장치는 피드백 정보(724)에 기초하여, 원료 조성비(713)를 수정할 수 있다. 제어 장치는 수정된 원료 조성비(713)에 기초하여, 원료를 준비할 수 있다. 제어 장치는 준비된 원료를 혼합할 수 있으며, 이렇게 혼합된 화장료 조성물을 미리 제조된 용기에 패키징할 수 있다.According to an embodiment, the control device may correct the raw material composition ratio 713 based on the feedback information 724. The control device can prepare a raw material based on the corrected raw material composition ratio 713. The control device may mix the prepared raw materials, and package the cosmetic composition thus mixed in a container prepared in advance.

일실시예에 따르면, 제어 장치는 제2 통합 벡터(720) 및 피드백 정보(724)를 저장할 수 있는데, 자신의 데이터베이스를 비롯해 블록체인 네트워크에 저장하는 단계를 포함할 수 있다. 제2 통합 벡터(720) 및 피드백 정보(724)의 저장에 관한 자세한 설명은 도 9를 참조하여 후술한다.According to an embodiment, the control device may store the second integrated vector 720 and the feedback information 724, which may include storing it in its own database and a blockchain network. A detailed description of the storage of the second unified vector 720 and the feedback information 724 will be described later with reference to FIG. 9.

도 8은 일실시예에 따른 원료 조성비를 획득하기 위해 채용하는 학습 방법을 설명하기 위한 도면이다.8 is a diagram for explaining a learning method employed to obtain a raw material composition ratio according to an embodiment.

일실시예에 따르면, 학습 장치는 색상 정보, 광택도 정보, 제1 피부질 정보, 제2 피부질 정보 및 통합 표피 함유 정보로부터 원료 조성비를 결정하고, 이를 수정하기 위한 단계별 예상 데이터를 생성하는 뉴럴 네트워크들을 학습시킬 수 있다. 학습 장치는 제어 장치와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니고, 상술한 학습 방법과 중복되는 내용은 생략된다.According to an embodiment, the learning device determines the raw material composition ratio from color information, gloss information, first skin quality information, second skin quality information, and integrated epidermal content information, and generates predicted data for each step to correct the neural Networks can be trained. The learning device may be a separate subject different from the control device, but is not limited thereto, and contents overlapping with the above-described learning method are omitted.

일실시예에 따르면, 학습 장치는 레이블드 트레이닝 색상 정보들(801), 레이블드 트레이닝 광택도 정보들(802), 레이블드 트레이닝 제1 피부질 정보들(803), 레이블드 트레이닝 제2 피부질 정보들(804) 및 레이블드 트레이닝 통합 표피 함유 정보들(805)을 획득할 수 있다. 학습 장치는 트레이닝 색상 정보들, 트레이닝 광택도 정보들, 트레이닝 제1 피부질 정보들, 트레이닝 제2 피부질 정보들 및 트레이닝 통합 표피 함유 정보들을 획득에 각각 미리 레이블링된 정보를 획득할 수 있는데, 트레이닝 색상 정보들, 트레이닝 광택도 정보들, 트레이닝 제1 피부질 정보들, 트레이닝 제2 피부질 정보들 및 트레이닝 통합 표피 함유 정보들은 미리 분류된 원료 조성비들(813)에 따라 레이블링될 수 있다. 이 때 사용되는 학습용 데이터들은 10,000쌍의 색상 정보들, 광택도 정보들, 제1 피부질 정보들, 제2 피부질 정보들 및 통합 표피 함유 정보들과 이에 대한 피부 전문가들에 의해 생성된 원료 조성비들(813)에 따라 결정될 수 있다.According to an embodiment, the learning device includes labeled training color information 801, labeled training gloss information 802, labeled training first skin quality information 803, and labeled training second skin quality. Information 804 and labeled training integrated epidermal containing information 805 may be obtained. The learning device may acquire training color information, training gloss information, training first skin quality information, training second skin quality information, and training integrated epidermal containing information, respectively, pre-labeled information for acquisition. Color information, training gloss information, training first skin quality information, training second skin quality information, and training integrated skin content information may be labeled according to pre-classified raw material composition ratios 813. The learning data used at this time are 10,000 pairs of color information, gloss information, first skin quality information, second skin quality information, and integrated epidermal content information, and the composition ratio of raw materials generated by skin experts. It may be determined according to the 813.

일실시예에 따르면, 학습 장치는 레이블드 트레이닝 색상 정보들(801), 레이블드 트레이닝 광택도 정보들(802), 레이블드 트레이닝 제1 피부질 정보들(803), 레이블드 트레이닝 제2 피부질 정보들(804) 및 레이블드 트레이닝 통합 표피 함유 정보들(805)에 기초하여 제1 트레이닝 통합 벡터들(810)을 생성할 수 있다.According to an embodiment, the learning device includes labeled training color information 801, labeled training gloss information 802, labeled training first skin quality information 803, and labeled training second skin quality. The first training integration vectors 810 may be generated based on the information 804 and the labeled training integrated skin-containing information 805.

일실시예에 따르면, 학습 장치는 제1 트레이닝 통합 벡터들(810)을 제2 뉴럴 네트워크(811)에 적용하여 제1 트레이닝 통합 출력들(812)을 획득할 수 있다. 학습 장치는 제1 트레이닝 통합 출력들(812) 및 제1 통합 레이블들(813)에 기초하여 제2 뉴럴 네트워크(811)를 학습시킬 수 있다. 학습 장치는 제1 트레이닝 통합 출력들(812)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제2 뉴럴 네트워크(811) 내 노드들의 연결 관계를 최적화하여 제2 뉴럴 네트워크(811)를 학습시킬 수 있다. 제어 장치는 학습이 완료된 제2 뉴럴 네트워크(811)를 이용하여 색상 정보, 광택도 정보, 제1 피부질 정보, 제2 피부질 정보 및 통합 표피 함유 정보로부터 원료 조성비를 위한 정보들을 획득할 수 있다.According to an embodiment, the learning device may obtain the first training integration outputs 812 by applying the first training integration vectors 810 to the second neural network 811. The learning apparatus may train the second neural network 811 based on the first integrated training outputs 812 and the first integrated labels 813. The learning apparatus calculates training errors corresponding to the first training integration outputs 812 and optimizes the connection relationship between nodes in the second neural network 811 to minimize the training errors, and the second neural network 811 Can be learned. The control device may acquire information for the composition ratio of raw materials from color information, gloss information, first skin quality information, second skin quality information, and integrated epidermal content information using the second neural network 811 that has been learned. .

일실시예에 따르면, 학습 장치는 제1 트레이닝 통합 벡터들(810) 및 원료 조성비들(813)에 기초하여 단계별 예상 데이터들을 획득할 수 있다. 학습 장치는 제1 트레이닝 통합 벡터들(810) 및 원료 조성비들(813)에 미리 레이블링된 정보를 획득할 수 있는데, 레이블링은 트레이닝 색상 정보들, 트레이닝 광택도 정보들, 트레이닝 제1 피부질 정보들, 트레이닝 제2 피부질 정보들 및 트레이닝 통합 표피 함유 정보들에 각각 미리 레이블링 돼있을 수 있다. 트레이닝 색상 정보들, 트레이닝 광택도 정보들, 트레이닝 제1 피부질 정보들, 트레이닝 제2 피부질 정보들 및 트레이닝 통합 표피 함유 정보들은 미리 분류된 원료 조성비들(813)뿐만 아니라 이를 적용한 결과의 예측도 함께 레이블링될 수 있다. 이 때 사용되는 학습용 데이터들은 10,000쌍의 색상 정보들, 광택도 정보들, 제1 피부질 정보들, 제2 피부질 정보들 및 통합 표피 함유 정보들과 이에 대한 피부 전문가들에 의해 생성된 원료 조성비들(813) 및 이를 해당 피부에 적용했을 때 예상되는 효과들에 따라 결정될 수 있다.According to an embodiment, the learning apparatus may acquire predicted data for each step based on the first training integration vectors 810 and the raw material composition ratios 813. The learning device may obtain pre-labeled information on the first training integration vectors 810 and raw material composition ratios 813, and the labeling includes training color information, training gloss information, and training first skin quality information. , Training second skin quality information and training integrated epidermal containing information may be pre-labeled, respectively. Training color information, training gloss information, training first skin quality information, training second skin quality information, and training integrated epidermal content information are not only pre-classified raw material composition ratios 813 but also predicted results of applying the same Can be labeled together. The learning data used at this time are 10,000 pairs of color information, gloss information, first skin quality information, second skin quality information, and integrated epidermal content information, and the composition ratio of raw materials generated by skin experts. It may be determined according to the s 813 and expected effects when applied to the corresponding skin.

일실시예에 따르면, 학습 장치는 제1 트레이닝 통합 벡터들(810) 및 원료 조성비들(813)에 기초하여 제2 트레이닝 통합 벡터들(820)을 생성할 수 있다.According to an embodiment, the learning apparatus may generate the second training integration vectors 820 based on the first training integration vectors 810 and the raw material composition ratios 813.

일실시예에 따르면, 학습 장치는 제2 트레이닝 통합 벡터들(820)을 제3 뉴럴 네트워크(821)에 적용하여 제2 트레이닝 통합 출력들(822)을 획득할 수 있다. 학습 장치는 제2 트레이닝 통합 출력들(822) 및 제2 통합 레이블들(823)에 기초하여 제3 뉴럴 네트워크(821)를 학습시킬 수 있다. 학습 장치는 제2 트레이닝 통합 출력들(822)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제3 뉴럴 네트워크(821) 내 노드들의 연결 관계를 최적화하여 제3 뉴럴 네트워크(821)를 학습시킬 수 있다. 제어 장치는 학습이 완료된 제3 뉴럴 네트워크(821)를 이용하여 제1 통합 벡터 및 원료 조성비로부터 단계별 예상 데이터들을 획득할 수 있다.According to an embodiment, the learning apparatus may obtain the second training integration outputs 822 by applying the second training integration vectors 820 to the third neural network 821. The learning apparatus may train the third neural network 821 based on the second training unified outputs 822 and the second unified labels 823. The learning apparatus calculates training errors corresponding to the second training integration outputs 822 and optimizes the connection relationship between nodes in the third neural network 821 to minimize the training errors, and the third neural network 821 Can be learned. The control device may obtain step-by-step predicted data from the first integrated vector and the raw material composition ratio by using the learned third neural network 821.

도 9은 일실시예에 따른 블록체인 네트워크를 설명하기 위한 도면이다.9 is a diagram illustrating a block chain network according to an embodiment.

도 9를 참조하면, 제어 장치가 신호들을 저장하는 방법에 있어서, 제어 장치는 제2 통합 벡터 및 피드백 정보를 블록체인 네트워크에 저장할 수 있다. 블록체인 네트워크는 제2 통합 벡터 및 피드백 정보를 포함하는 블록(901)들; 각 블록(901)을 시간 순으로 연결하는 체인(902)들; 및 각 블록체인을 저장하는 제1 내지 제3 네트워크 저장장치(910, 920, 930)를 포함하는 프라이빗 블록체인 네트워크일 수 있다.Referring to FIG. 9, in a method for the control device to store signals, the control device may store a second integrated vector and feedback information in a blockchain network. The blockchain network includes blocks 901 including a second integrated vector and feedback information; Chains 902 connecting each block 901 in chronological order; And it may be a private blockchain network including first to third network storage devices 910, 920, and 930 that store each block chain.

일실시예에 따르면, 블록체인 네트워크의 블록(901)은 제2 통합 벡터 및 피드백 정보를 포함하는 데이터베이스를 포함할 수 있다. 각 블록(901)들은 일반적으로 시간 순으로 연결이 되며, 이에 따라 10분 간격으로 새로운 블록(901)들이 생산될 수 있다. 이미 생성된 블록(901)의 내용들은 모든 네트워크 저장장치들에 저장되며, 시간 내에 과반수의 내용이 변경되지 않는 한 변경될 수 없는 구조로 되어있다. 예를 들어, 총 3개의 네트워크 저장장치를 가진 블록체인 네트워크에서 각 네트워크 저장장치 당 1개씩의 블록(901)을 가지고 있다고 했을 때, 제한된 시간 내에 2개 이상의 블록(901)의 내용을 바꾸지 못하면, 각 블록(901)은 검증을 통해 과반수와 다른 내용의 블록(901)을 과반수와 같도록 값을 재변경 시킬 수 있다. 이에 따라 높은 보안을 유지할 수 있는데, 실제로 블록체인 네트워크에 참여하는 네트워크 저장장치의 수는 수십에서 수십만에 달할 수 있기 때문에 더욱 높은 보안성을 나타낼 수 있다.According to an embodiment, the block 901 of the blockchain network may include a database including the second integrated vector and feedback information. Each block 901 is generally connected in chronological order, and accordingly, new blocks 901 may be produced at 10 minute intervals. The contents of the already generated block 901 are stored in all network storage devices, and have a structure that cannot be changed unless a majority of the contents are changed within time. For example, if a block chain network having a total of 3 network storage devices has one block 901 for each network storage device, if the contents of two or more blocks 901 cannot be changed within a limited time, Each block 901 may change the value of the block 901 having contents different from the majority through verification to be equal to the majority. Accordingly, high security can be maintained, and since the number of network storage devices actually participating in the blockchain network can reach tens to hundreds of thousands of devices, higher security can be exhibited.

일실시예에 따른 체인(902)들은 해시값으로 구성될 수 있다. 체인(902)들은 블록(901)을 시간 순으로 연속되도록 하는데, 이 때 해시값을 이용해 각 블록(901)들이 연결되게 할 수 있다. 블록(901)에는 제2 통합 벡터, 피드백 정보, 제2 통합 벡터의 해시값 및 피드백 정보의 해시값, 이전 헤더 및 현 블록의 헤더를 보관할 수 있다. 여기서 현 블록의 헤더는 다음 블록에서 이전 헤더의 기능을 하게 되어 각 블록(901)들은 유기적으로 연결될 수 있다. 더불어 해시값은 블록의 내용이 조금이라도 바뀌면 완전히 다른 형태로 변형이 되는데, 이 때문에 블록(901)의 내용을 변경하려는 시도를 효과적으로 막을 수 있다. 현 블록의 헤더는 제2 통합 벡터, 피드백 정보, 제2 통합 벡터의 해시값 및 피드백 정보의 해시값 및 이전 헤더를 포함한 총 합의 해시값이 되기 때문에, 블록(901)의 내용과 해시값을 효과적으로 수정해 보안을 해치려는 시도도 성공하기 어렵게 된다. 왜냐하면 블록(901)의 내용과 해시값을 수정하는 순간, 헤더의 내용도 바뀌게 되고 이에 따라 다음 블록에 들어가는 이전 헤더도 바뀌게 되며, 이에 따라 그 블록의 헤더도 바뀌어 다음 블록의 이전 헤더를 다시 바꾸게 될 수 있다. 즉, 이후의 모든 블록(901)을 해킹해야만 하게 된다. 따라서, 해시값을 통한 체인(902)으로 블록체인의 보안을 높일 수 있다.Chains 902 according to an embodiment may be configured with a hash value. The chains 902 allow the blocks 901 to be consecutive in time order, and in this case, each block 901 may be connected using a hash value. The block 901 may store a second unified vector, feedback information, a hash value of the second unified vector, a hash value of the feedback information, a previous header, and a header of the current block. Here, since the header of the current block functions as the previous header in the next block, the blocks 901 can be organically connected. In addition, if the content of the block changes even a little, the hash value is transformed into a completely different form, so that attempts to change the content of the block 901 can be effectively prevented. Since the header of the current block becomes the hash value of the second unified vector, the feedback information, the hash value of the second unified vector, the hash value of the feedback information, and the hash value of the total sum including the previous header, the content and the hash value of the block 901 are effectively Any attempt to compromise security by modifying it becomes difficult to succeed. This is because the moment the content and the hash value of the block 901 are modified, the content of the header also changes, and accordingly, the previous header that enters the next block also changes, and accordingly, the header of the block also changes and the previous header of the next block is changed again. I can. That is, all subsequent blocks 901 must be hacked. Therefore, it is possible to increase the security of the blockchain by using the chain 902 through the hash value.

일실시예에 따르면, 네트워크 저장장치들은 화장료 조성물의 원료 제조사를 포함하는 제1 네트워크 저장장치(910); 화장료 조성물을 제조하는 제조사를 포함하는 제2 네트워크 저장장치(920); 화장료 조성물의 유통사를 포함하는 제3 네트워크 저장장치(930); 및 각 네트워크 저장장치들을 연결하는 인터넷 연결망(903)을 포함할 수 있다. 제1, 제2 및 제3으로 분류된 네트워크 저장장치들은 포함된 실무자의 수, 사용자의 수 및 그 저장 장치의 수에 따라 그 수가 결정될 수 있다.According to an embodiment, the network storage devices include a first network storage device 910 including a raw material manufacturer of a cosmetic composition; A second network storage device 920 including a manufacturer for manufacturing a cosmetic composition; A third network storage device 930 including a distributor of the cosmetic composition; And an Internet connection network 903 connecting each of the network storage devices. The number of network storage devices classified as first, second, and third may be determined according to the number of practitioners, the number of users, and the number of storage devices included.

일실시예에 따르면, 제1 네트워크 저장장치(910)는 화장료 조성물의 원료 제조사를 포함할 수 있으며, 피부 테스트 방법 및 이를 이용한 화장료 조성물 제조방법의 원료 제조사들은 1개 업체 혹은 그 이상일 수 있다. 제1 네트워크 저장장치(910)의 수는 각 업체가 사용하는 저장 장치의 수에 따라 그 수가 결정 될 수 있다. 제1 네트워크 저장장치(910)의 원료 제조사는 블록체인 네트워크를 통해 획득한 정보들을 원료 생산을 위해 사용할 수 있으며, 생산한 원료에 대한 정보를 블록체인 네트워크를 통해 제공할 수 있다.According to an embodiment, the first network storage device 910 may include a raw material manufacturer of a cosmetic composition, and the raw material manufacturers of the skin testing method and the cosmetic composition manufacturing method using the same may be one or more. The number of first network storage devices 910 may be determined according to the number of storage devices used by each company. The raw material manufacturer of the first network storage device 910 may use the information acquired through the blockchain network for raw material production, and may provide information on the produced raw material through the blockchain network.

일실시예에 따르면, 제2 네트워크 저장장치(920)는 화장료 조성물을 제조하는 제조사를 포함할 수 있다. 제2 네트워크 저장장치(920)의 제조자는 화장료 조성물 제조방법의 사용자를 포함할 수 있으며, 그 수에 따라 그 제2 네트워크 저장장치(920)의 수가 결정될 수 있다. 제2 네트워크 저장장치(920)의 제조사는 화장료 조성물 제조방법의 수행 중에 발생하는 오류들에 대한 정보를 수동으로 입력함으로써 컨볼루션 신경망 및 뉴럴 네트워크의 학습을 용이하게 할 수 있다.According to an embodiment, the second network storage device 920 may include a manufacturer that manufactures a cosmetic composition. A manufacturer of the second network storage device 920 may include a user of a method for manufacturing a cosmetic composition, and the number of the second network storage device 920 may be determined according to the number. The manufacturer of the second network storage device 920 may facilitate learning of the convolutional neural network and the neural network by manually inputting information on errors occurring during the execution of the cosmetic composition manufacturing method.

일실시예에 따르면, 제3 네트워크 저장장치(930)는 화장료 조성물의 유통사를 포함할 수 있다. 제3 네트워크 저장장치(930)는 제2 네트워크 저장장치(920) 사용자의 허가에 따라 블록체인 네트워크의 열람 및 저장을 수행할 수 있으며, 경우에 따라 블록체인 네트워크의 제3 네트워크 저장장치(930)로서의 역할을 상실할 수 있다. 제3 네트워크 저장장치(930)의 유통사는 제조가 완료된 화장료 조성물을 대상 판매업체로 유통하는 작업을 수행할 수 있으며, 블록체인 네트워크를 통해 해당 화장료 조성물의 제조 완료를 확인할 수 있다.According to an embodiment, the third network storage device 930 may include a distributor of the cosmetic composition. The third network storage device 930 can browse and store the blockchain network according to the permission of the user of the second network storage device 920, and in some cases, the third network storage device 930 of the blockchain network You may lose your role. The distributor of the third network storage device 930 can perform a task of distributing the cosmetic composition that has been manufactured to a target vendor, and can confirm the completion of manufacturing the cosmetic composition through a blockchain network.

일실시예에 따른 인터넷 연결망(903)은 통상적으로 10Mb/s 이상의 속도를 보이는 인터넷 연결망을 의미하는데, 유선, 무선, 광케이블 기술 등을 포함하는 연결망으로 LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나 이에 한정되지 않는다.The Internet connection network 903 according to an embodiment generally refers to an Internet connection network exhibiting a speed of 10 Mb/s or more, and is a connection network including wired, wireless, optical cable technology, etc., and is a local area network (LAN) or wireless local area network (LAN). Area Network), Wide Area Network (WAN), Personal Area Network (PAN), and the like, but are not limited thereto.

일실시예에 따르면, 화장료 조성물 제조방법은 블록체인 네트워크를 통해 정보를 빅데이터화 하고, 강화된 보안을 사용하고자 한다.According to an embodiment, a method for manufacturing a cosmetic composition is intended to convert information into big data through a blockchain network and use enhanced security.

도 10은 일실시예에 따른 장치의 구성의 예시도이다.10 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(1201)는 프로세서(1202) 및 메모리(1203)를 포함한다. 일실시예에 따른 장치(1201)는 상술한 서버 또는 단말일 수 있다. 프로세서는 도 1 내지 도 9를 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 9를 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(1203)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(1203)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. The device 1201 according to an embodiment includes a processor 1202 and a memory 1203. The device 1201 according to an embodiment may be the above-described server or terminal. The processor may include at least one of the devices described above with reference to FIGS. 1 to 9, or may perform at least one of the methods described above with reference to FIGS. 1 to 9. The memory 1203 may store information related to the above-described method or a program in which the above-described method is implemented. The memory 1203 may be a volatile memory or a nonvolatile memory.

일실시예에 따르면, 프로세서(1202)는 프로그램을 실행하고, 장치(1201)를 제어할 수 있다. 프로세서(1202)에 의하여 실행되는 프로그램의 코드는 메모리(1203)에 저장될 수 있다. 장치(1201)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.According to an embodiment, the processor 1202 may execute a program and control the device 1201. The code of a program executed by the processor 1202 may be stored in the memory 1203. The device 1201 is connected to an external device (for example, a personal computer or a network) through an input/output device (not shown), and may exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.

Claims (5)

인공지능을 기반으로 화장료 조성물을 제조하는 방법에 있어서,
피부 분석기의 제1 광원 및 제2 광원 하에서 상기 피부 분석기 내의 카메라를 제어해 제1 얼굴 이미지 및 제2 얼굴 이미지를 각각 획득하는 단계;
상기 제1 얼굴 이미지 및 상기 제2 얼굴 이미지에 기초하여 제1 이미지 벡터를 생성하는 단계;
상기 제1 이미지 벡터를 미리 학습된 제1 컨볼루션 신경망에 적용하여 제1 이미지 출력을 획득하는 단계;
상기 제1 이미지 출력에 기초하여 피부 범위-상기 피부 범위는 상기 제1 얼굴 이미지 및 상기 제2 얼굴 이미지를 포함하고, 상기 제1 얼굴 이미지 및 상기 제2 얼굴 이미지에서 피부로 인식하는 이마 및 볼의 범위를 의미함-를 획득하는 단계;
상기 피부 범위에 기초하여, 상기 피부 범위 내의 색상 정보 및 광택도 정보를 획득하는 단계;
상기 피부 범위에 기초하여, 제2 이미지 벡터를 생성하는 단계;
상기 제2 이미지 벡터를 미리 학습된 제2 컨볼루션 신경망 및 제3 컨볼루션 신경망에 적용하여 제2 이미지 출력 및 제3 이미지 출력을 각각 획득하는 단계;
상기 제2 이미지 출력에 기초하여 제1 피부질 정보-상기 제1 피부질 정보는 얼굴에서 1차적으로 구분 가능한 피부 범위 내 개선 대상 구조물들을 포함하고, 상기 개선 대상 구조물들은 여드름, 주름, 곰보, 아토피 피부염, 홍반, 두드러기 및 습진성 피부질환을 의미함-를 획득하는 단계; 및
상기 제3 이미지 출력에 기초하여 제2 피부질 정보-상기 제2 피부질 정보는 얼굴의 전반적인 관리 상태를 표현할 수 있는 표피의 입자 정보를 의미함-를 획득하는 단계
를 포함하고,
상기 제1 광원은
파장 576~580nm 범위의 옐로광이고,
상기 제2 광원은
파장 490~520nm 범위의 시안광이고,
상기 색상 정보는
상기 피부 범위의 픽셀 별 8비트 256색의 RGB 색상으로 표현된 그래픽 정보를 의미하고,
상기 광택도 정보는
상기 피부 범위의 표면에 대해 반사광을 입사광과 동일한 각도로 수광할 때의 빛의 강도를 표현한 수치를 의미하고,
상기 제1 컨볼루션 신경망은
레이블드 트레이닝 제1 얼굴 이미지들 및 레이블드 트레이닝 제2 얼굴 이미지들을 획득하는 단계;
상기 레이블드 트레이닝 제1 얼굴 이미지들 및 상기 레이블드 트레이닝 제2 얼굴 이미지들에 기초하여, 제1 트레이닝 이미지 벡터들을 생성하는 단계;
상기 제1 트레이닝 이미지 벡터들을 상기 제1 컨볼루션 신경망에 적용하여 제1 트레이닝 이미지 출력들을 획득하는 단계; 및
상기 제1 트레이닝 이미지 출력들 및 제1 이미지 레이블들에 기초하여 상기 제1 컨볼루션 신경망을 학습시키는 단계
를 더 포함하고,
상기 제2 컨볼루션 신경망 및 제3 컨볼루션 신경망은
레이블드 트레이닝 피부 범위들을 획득하는 단계;
상기 레이블드 트레이닝 피부 범위들에 기초하여, 제2 트레이닝 이미지 벡터들을 생성하는 단계;
상기 제2 트레이닝 이미지 벡터들을 상기 제2 컨볼루션 신경망 및 상기 제3 컨볼루션 신경망에 적용하여 제2 트레이닝 이미지 출력들 및 제3 트레이닝 이미지 출력들을 획득하는 단계; 및
상기 제2 트레이닝 이미지 출력들, 상기 제3 트레이닝 이미지 출력들, 제2 이미지 레이블들 및 제3 이미지 레이블들에 기초하여 상기 제2 컨볼루션 신경망 및 제3 컨볼루션 신경망을 학습시키는 단계
를 더 포함하고,
상기 제1 이미지 레이블들은 피부 전문가들에 의해 생성된 10,000 쌍의 레이블드 트레이닝 제1 얼굴 이미지들 및 레이블드 트레이닝 제2 얼굴 이미지들에 대응하는 피부 범위들을 포함하고,
상기 제2 이미지 레이블들은
상기 피부 전문가들에 의해 생성된 10,000 개의 피부 범위들에 대응하는 제1 피부질 정보들을 포함하고,
상기 제3 이미지 레이블들은
상기 피부 전문가들에 의해 생성된 10,000 개의 피부 범위들에 대응하는 제2 피부질 정보들을 포함하는
화장료 조성물 제조방법.
In the method of manufacturing a cosmetic composition based on artificial intelligence,
Controlling a camera in the skin analyzer under a first light source and a second light source of a skin analyzer to obtain a first face image and a second face image, respectively;
Generating a first image vector based on the first face image and the second face image;
Applying the first image vector to a pre-trained first convolutional neural network to obtain a first image output;
Based on the output of the first image, the skin range-the skin range includes the first and second face images, and the forehead and cheeks recognized as skin in the first and second face images. Obtaining-means range;
Obtaining color information and gloss information within the skin range, based on the skin range;
Generating a second image vector based on the skin range;
Applying the second image vector to a pre-trained second convolutional neural network and a third convolutional neural network to obtain a second image output and a third image output, respectively;
Based on the output of the second image, the first skin quality information-the first skin quality information includes structures to be improved within a range of skin that can be primarily distinguished from the face, and the structures to be improved include acne, wrinkles, gombo, and atopy. Dermatitis, erythema, urticaria and eczematous skin disease means-obtaining; And
Acquiring second skin quality information based on the output of the third image-the second skin quality information means information on particles of the epidermis capable of expressing the overall management status of the face
Including,
The first light source is
It is yellow light in the wavelength range of 576 to 580 nm,
The second light source is
Cyan light in the wavelength range of 490 to 520 nm,
The above color information is
It means graphic information expressed in 8-bit 256-color RGB color for each pixel of the skin range,
The gloss information is
Means a numerical value expressing the intensity of light when the reflected light is received at the same angle as the incident light on the surface of the skin range,
The first convolutional neural network is
Acquiring labeled training first face images and labeled training second face images;
Generating first training image vectors based on the labeled training first face images and the labeled training second face images;
Applying the first training image vectors to the first convolutional neural network to obtain first training image outputs; And
Training the first convolutional neural network based on the first training image outputs and first image labels
Including more,
The second convolutional neural network and the third convolutional neural network are
Obtaining labeled training skin ranges;
Based on the labeled training skin ranges, generating second training image vectors;
Applying the second training image vectors to the second convolutional neural network and the third convolutional neural network to obtain second training image outputs and third training image outputs; And
Training the second convolutional neural network and the third convolutional neural network based on the second training image outputs, the third training image outputs, second image labels, and third image labels
Including more,
The first image labels include skin ranges corresponding to 10,000 pairs of labeled training first face images and labeled training second face images generated by skin experts,
The second image labels are
Including first skin quality information corresponding to 10,000 skin ranges generated by the skin experts,
The third image labels are
Including second skin quality information corresponding to 10,000 skin ranges generated by the skin experts
Cosmetic composition manufacturing method.
제1항에 있어서,
상기 피부 범위를 세분한 제1 피부 영역, 제2 피부 영역 및 제3 피부 영역에 해당하는 얼굴 영역에 각각 30초 간 문지른 검사용 코튼을 시험용 키트에 적용하여 제1 내지 제3 표피 함유 정보-상기 표피 함유 정보는 표피로부터 획득할 수 있는 유분, 수분 및 오염물의 함량 및 함량비를 포함함-를 획득하는 단계;
상기 제1 내지 제3 표피 함유 정보에 기초하여, 제1 센싱 벡터를 생성하는 단계;
상기 제1 센싱 벡터를 제1 뉴럴 네트워크에 적용하여 제1 센싱 출력을 획득하는 단계; 및
상기 제1 센싱 출력에 기초하여, 통합 표피 함유 정보를 획득하는 단계
를 더 포함하고,
상기 제1 뉴럴 네트워크는
피부 범위들의 제1 내지 제3 피부 영역들에 해당하는 얼굴 영역들에 기초하여, 레이블드 트레이닝 제1 내지 제3 표피 함유 정보들을 획득하는 단계;
상기 레이블드 트레이닝 제1 내지 제3 표피 함유 정보들에 기초하여, 제1 트레이닝 센싱 벡터들을 생성하는 단계;
상기 제1 트레이닝 센싱 벡터들을 상기 제1 뉴럴 네트워크에 적용하여 제1 트레이닝 센싱 출력들을 획득하는 단계; 및
상기 제1 트레이닝 센싱 출력들 및 제1 센싱 레이블들에 기초하여 상기 제1 뉴럴 네트워크를 학습시키는 단계
를 더 포함하고,
상기 제1 센싱 레이블들은
상기 피부 전문가들에 의해 생성된 10,000쌍의 상기 제1 내지 제3 표피 함유 정보들에 대응하는 통합 표피 함유 정보들을 포함하는
화장료 조성물 제조방법.
The method of claim 1,
The first to third epidermal content information by applying the cotton for examination rubbed for 30 seconds to the face region corresponding to the first skin region, the second skin region, and the third skin region, each of which has been subdivided into the skin range, is applied to the test kit. Obtaining the epidermal content information including the content and content ratio of oil, moisture and contaminants that can be obtained from the epidermis;
Generating a first sensing vector based on the first to third epidermal content information;
Obtaining a first sensing output by applying the first sensing vector to a first neural network; And
Based on the first sensing output, acquiring integrated skin content information
Including more,
The first neural network is
Acquiring labeled training first to third epidermal containing information based on facial regions corresponding to the first to third skin regions of the skin ranges;
Generating first training sensing vectors based on the labeled training first to third epidermal containing information;
Applying the first training sensing vectors to the first neural network to obtain first training sensing outputs; And
Training the first neural network based on the first training sensing outputs and first sensing labels
Including more,
The first sensing labels are
Including integrated epidermal containing information corresponding to 10,000 pairs of the first to third epidermal containing information generated by the skin experts
Cosmetic composition manufacturing method.
제 2항에 있어서,
상기 색상 정보, 상기 광택도 정보, 상기 제1 피부질 정보, 상기 제2 피부질 정보 및 상기 통합 표피 함유 정보를 포함하는 데이터를 기초로 원료를 준비하는 단계;
상기 준비된 원료를 혼합하여 화장료 조성물을 제조하는 단계; 및
상기 제조된 화장료 조성물을 패키징하는 단계
를 더 포함하는
화장료 조성물 제조방법.
The method of claim 2,
Preparing a raw material based on data including the color information, the gloss information, the first skin quality information, the second skin quality information, and the integrated epidermal content information;
Mixing the prepared raw materials to prepare a cosmetic composition; And
Packaging the prepared cosmetic composition
Further comprising
Cosmetic composition manufacturing method.
제3 항에 있어서,
상기 원료를 준비하는 단계는
상기 색상 정보, 상기 광택도 정보, 상기 제1 피부질 정보, 상기 제2 피부질 정보 및 상기 통합 표피 함유 정보에 기초하여, 제1 통합 벡터를 생성하는 단계;
상기 제1 통합 벡터를 제2 뉴럴 네트워크에 적용하여 제1 통합 출력을 획득하는 단계;
상기 제1 통합 출력에 기초하여, 원료 조성비를 획득하는 단계;
상기 제1 통합 벡터 및 상기 원료 조성비에 기초하여, 제2 통합 벡터를 생성하는 단계;
상기 제2 통합 벡터를 제3 뉴럴 네트워크에 적용하여 제2 통합 출력을 획득하는 단계;
상기 제2 통합 출력에 기초하여, 단계별 예상 데이터-상기 단계별 예상 데이터는 상기 원료 조성비를 기준으로 생성한 화장료 조성물의 적용 시 화장료 조성물의 1회 적용량, 적용 횟수 및 적용 기간에 따른 피부의 변화를 예측 분석한 데이터임-를 획득하는 단계;
상기 단계별 예상 데이터에 기초하여 피드백 정보를 획득하는 단계;
상기 피드백 정보에 기초하여, 상기 원료 조성비를 수정하는 단계;
수정된 상기 원료 조성비에 기초하여, 상기 원료를 준비하는 단계; 및
상기 제2 통합 벡터 및 상기 피드백 정보를 저장하는 단계
를 포함하고,
상기 제2 뉴럴 네트워크는
레이블드 트레이닝 색상 정보들, 레이블드 트레이닝 광택도 정보들, 레이블드 트레이닝 제1 피부질 정보들, 레이블드 트레이닝 제2 피부질 정보들 및 레이블드 트레이닝 통합 표피 함유 정보들을 획득하는 단계;
상기 레이블드 트레이닝 색상 정보들, 상기 레이블드 트레이닝 광택도 정보들, 상기 레이블드 트레이닝 제1 피부질 정보들, 상기 레이블드 트레이닝 제2 피부질 정보들 및 상기 레이블드 트레이닝 통합 표피 함유 정보들에 기초하여 제1 트레이닝 통합 벡터들을 생성하는 단계;
상기 제1 트레이닝 통합 벡터들을 상기 제2 뉴럴 네트워크에 적용하여 제1 트레이닝 통합 출력들을 획득하는 단계; 및
상기 제1 트레이닝 통합 출력들 및 제1 통합 레이블들에 기초하여 상기 제2 뉴럴 네트워크를 학습시키는 단계
를 더 포함하고,
상기 제3 뉴럴 네트워크는
상기 제1 트레이닝 통합 출력들에 기초하여, 원료 조성비들을 획득하는 단계;
상기 제1 트레이닝 통합 벡터들 및 상기 원료 조성비들에 기초하여 제2 트레이닝 통합 벡터들을 생성하는 단계;
상기 제2 트레이닝 통합 벡터들을 상기 제3 뉴럴 네트워크에 적용하여 제2 트레이닝 통합 출력들을 획득하는 단계; 및
상기 제2 트레이닝 통합 출력들 및 제2 통합 레이블들에 기초하여 상기 제3 뉴럴 네트워크를 학습시키는 단계
를 더 포함하고,
상기 제1 통합 레이블들은
피부 전문가들에 의해 생성된 10,000쌍의 색상 정보들, 광택도 정보들, 제1 피부질 정보들, 제2 피부질 정보들 및 통합 표피 함유 정보들에 대응하는 원료 조성비들을 포함하고,
상기 제2 통합 레이블들은
피부 전문가들에 의해 생성된 10,000쌍의 색상 정보들, 광택도 정보들, 제1 피부질 정보들, 제2 피부질 정보들 및 통합 표피 함유 정보들에 대응하는 원료 조성비들 및 이를 해당 피부에 적용했을 때 예상되는 효과들을 포함하는
화장료 조성물 제조방법.
The method of claim 3,
The step of preparing the raw material
Generating a first integrated vector based on the color information, the gloss information, the first skin quality information, the second skin quality information, and the integrated epidermal content information;
Applying the first integrated vector to a second neural network to obtain a first integrated output;
Obtaining a raw material composition ratio based on the first integrated output;
Generating a second integrated vector based on the first integrated vector and the raw material composition ratio;
Applying the second unified vector to a third neural network to obtain a second unified output;
Based on the second integrated output, step-by-step predicted data-the step-by-step predicted data predicts the change in skin according to the amount of one application of the cosmetic composition, the number of applications, and the application period when applying the cosmetic composition generated based on the raw material composition ratio. Obtaining the analyzed data;
Obtaining feedback information based on the step-by-step predicted data;
Correcting the raw material composition ratio based on the feedback information;
Preparing the raw material based on the modified raw material composition ratio; And
Storing the second unified vector and the feedback information
Including,
The second neural network is
Acquiring labeled training color information, labeled training gloss information, labeled training first skin quality information, labeled training second skin quality information, and labeled training integrated epidermal content information;
Based on the labeled training color information, the labeled training gloss information, the labeled training first skin quality information, the labeled training second skin quality information, and the labeled training integrated epidermal content information Generating first training integration vectors;
Applying the first training integration vectors to the second neural network to obtain first training integration outputs; And
Training the second neural network based on the first training unified outputs and first unified labels
Including more,
The third neural network is
Obtaining raw material composition ratios based on the first training integration outputs;
Generating second training integration vectors based on the first training integration vectors and the raw material composition ratios;
Applying the second training integration vectors to the third neural network to obtain second training integration outputs; And
Training the third neural network based on the second training unified outputs and second unified labels
Including more,
The first unified labels are
Including raw material composition ratios corresponding to 10,000 pairs of color information, gloss information, first skin quality information, second skin quality information, and integrated epidermal content information generated by skin experts,
The second unified labels are
Raw material composition ratios corresponding to 10,000 pairs of color information, gloss information, first skin quality information, second skin quality information and integrated epidermal content information generated by skin experts, and applying the same to the skin Including the expected effects of
Cosmetic composition manufacturing method.
제4 항에 있어서,
상기 제2 통합 벡터 및 상기 피드백 정보를 저장하는 단계는
상기 제2 통합 벡터 및 상기 피드백 정보를 블록체인 네트워크에 저장하는 단계를 포함하고,
상기 블록체인 네트워크는
상기 제2 통합 벡터 및 상기 피드백 정보를 포함하는 블록들;
상기 블록들을 시간 순으로 연결하는 체인들; 및
상기 블록들 및 상기 체인들을 저장하는 네트워크 저장장치들
을 포함하는 프라이빗 블록체인 네트워크이고,
상기 네트워크 저장장치들은
상기 화장료 조성물의 원료 제조사를 포함한 제1 네트워크 저장장치;
상기 화장료 조성물을 제조하는 제조사를 포함하는 제2 네트워크 저장장치;
상기 화장료 조성물의 유통사를 포함하는 제3 네트워크 저장장치; 및
각 네트워크 저장장치들을 연결하는 인터넷 연결망
을 포함하는
화장료 조성물 제조방법.

The method of claim 4,
Storing the second integration vector and the feedback information
Storing the second integrated vector and the feedback information in a blockchain network,
The blockchain network is
Blocks including the second integration vector and the feedback information;
Chains connecting the blocks in chronological order; And
Network storage devices that store the blocks and the chains
It is a private blockchain network that includes,
The network storage devices
A first network storage device including a manufacturer of raw materials for the cosmetic composition;
A second network storage device including a manufacturer that manufactures the cosmetic composition;
A third network storage device including a distributor of the cosmetic composition; And
Internet connection network connecting each network storage device
Containing
Cosmetic composition manufacturing method.

KR1020200033159A 2020-03-18 2020-03-18 Skin test method and cosmetic composition manufacturing method using the same KR102167185B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200033159A KR102167185B1 (en) 2020-03-18 2020-03-18 Skin test method and cosmetic composition manufacturing method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200033159A KR102167185B1 (en) 2020-03-18 2020-03-18 Skin test method and cosmetic composition manufacturing method using the same

Publications (1)

Publication Number Publication Date
KR102167185B1 true KR102167185B1 (en) 2020-10-19

Family

ID=73042640

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200033159A KR102167185B1 (en) 2020-03-18 2020-03-18 Skin test method and cosmetic composition manufacturing method using the same

Country Status (1)

Country Link
KR (1) KR102167185B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021255289A1 (en) * 2020-06-19 2021-12-23 MetricsCosmetics GmbH Method for determining individual care-product formulations
WO2023018254A1 (en) * 2021-08-11 2023-02-16 고려대학교 산학협력단 Method and apparatus for diagnosing skin disease by using image processing
JP7301432B1 (en) 2022-12-06 2023-07-03 AquaAge株式会社 Causal inference program and causal inference device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080059157A (en) * 2005-08-12 2008-06-26 릭 비. 예거 System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
KR101329146B1 (en) 2006-10-11 2013-11-14 삼성전자주식회사 Apparatus for providing skim care information by measuring skin moisture content and method for the same
KR101444726B1 (en) 2012-08-01 2014-09-26 김건식 Method for customizable skin diagnosis and management, Server performing the same, System thereof and Recording medium
KR101792541B1 (en) 2016-10-20 2017-11-02 주식회사 에프앤디파트너스 Smart Device Skin care service system using Skin Diagnostic Information
KR20190014728A (en) * 2017-08-03 2019-02-13 성균관대학교산학협력단 Continuous skin condition estimating method using infrared image
KR102018446B1 (en) 2014-12-15 2019-09-04 무한극(중국)유한공사 Method, apparatus and system for processing acquired skin nature data
KR102041906B1 (en) * 2019-03-06 2019-11-07 주식회사 에프앤디파트너스 API engine for discrimination of facial skin disease based on artificial intelligence that discriminates skin disease by using image captured through facial skin photographing device
KR20200003402A (en) * 2017-05-31 2020-01-09 더 프록터 앤드 갬블 캄파니 Systems and Methods for Determining Apparent Skin Age
KR20200006782A (en) * 2018-07-11 2020-01-21 주식회사 컬러스 Manufacturing customized cosmetics based on user's skin analysis information and customized cosmetics manufacturing system therefor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080059157A (en) * 2005-08-12 2008-06-26 릭 비. 예거 System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
KR101329146B1 (en) 2006-10-11 2013-11-14 삼성전자주식회사 Apparatus for providing skim care information by measuring skin moisture content and method for the same
KR101444726B1 (en) 2012-08-01 2014-09-26 김건식 Method for customizable skin diagnosis and management, Server performing the same, System thereof and Recording medium
KR102018446B1 (en) 2014-12-15 2019-09-04 무한극(중국)유한공사 Method, apparatus and system for processing acquired skin nature data
KR101792541B1 (en) 2016-10-20 2017-11-02 주식회사 에프앤디파트너스 Smart Device Skin care service system using Skin Diagnostic Information
KR20200003402A (en) * 2017-05-31 2020-01-09 더 프록터 앤드 갬블 캄파니 Systems and Methods for Determining Apparent Skin Age
KR20190014728A (en) * 2017-08-03 2019-02-13 성균관대학교산학협력단 Continuous skin condition estimating method using infrared image
KR20200006782A (en) * 2018-07-11 2020-01-21 주식회사 컬러스 Manufacturing customized cosmetics based on user's skin analysis information and customized cosmetics manufacturing system therefor
KR102041906B1 (en) * 2019-03-06 2019-11-07 주식회사 에프앤디파트너스 API engine for discrimination of facial skin disease based on artificial intelligence that discriminates skin disease by using image captured through facial skin photographing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021255289A1 (en) * 2020-06-19 2021-12-23 MetricsCosmetics GmbH Method for determining individual care-product formulations
WO2023018254A1 (en) * 2021-08-11 2023-02-16 고려대학교 산학협력단 Method and apparatus for diagnosing skin disease by using image processing
JP7301432B1 (en) 2022-12-06 2023-07-03 AquaAge株式会社 Causal inference program and causal inference device

Similar Documents

Publication Publication Date Title
KR102167185B1 (en) Skin test method and cosmetic composition manufacturing method using the same
US10803319B2 (en) Electronic device for classifying video and operating method thereof
Bilenko et al. Pyrcca: regularized kernel canonical correlation analysis in python and its applications to neuroimaging
US20220344044A1 (en) User-customized skin diagnosis system and method
US20190147361A1 (en) Learned model provision method and learned model provision device
Wang et al. An automatic assessment system of diabetic foot ulcers based on wound area determination, color segmentation, and healing score evaluation
Balogh et al. Motion detection and face recognition using raspberry pi, as a part of, the internet of things
Raina et al. Objective measurement of erythema in psoriasis using digital color photography with color calibration
KR20140098551A (en) Smart makeup table and method of smart makeup using smart makeup table
US20200185073A1 (en) System and method for providing personalized health data
WO2015167975A1 (en) Rating photos for tasks based on content and adjacent signals
CN105721936A (en) Intelligent TV program recommendation system based on context awareness
KR102347551B1 (en) Method, apparatus and system for providing informations of face condition based on analysis of face image
CN111539903B (en) Method and device for training face image synthesis model
KR102160128B1 (en) Method and apparatus for creating smart albums based on artificial intelligence
KR20120069823A (en) Using smartphones skin diagnosis and management system
EP3933851A1 (en) Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin laxity
US20230120602A1 (en) Personalized Skin Care from Skin Scanning
JP2020535491A (en) Computer programs and terminals that provide urinalysis using colorimetric tables
Jiahui et al. Modeling naturalistic face processing in humans with deep convolutional neural networks
KR102300500B1 (en) Method, device and system for processing three-dimensional cut image of product
US20220391809A1 (en) Method, computing device, and computer-readable medium for processing plurality of tasks collected in crowdsourcing in subset unit
D’Souza et al. A coupled manifold optimization framework to jointly model the functional connectomics and behavioral data spaces
Quattrini et al. A deep learning-based facial acne classification system
Sundharamurthy et al. Cloud‐based onboard prediction and diagnosis of diabetic retinopathy

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant