KR20220128015A - System for analyzing skin - Google Patents

System for analyzing skin Download PDF

Info

Publication number
KR20220128015A
KR20220128015A KR1020210032524A KR20210032524A KR20220128015A KR 20220128015 A KR20220128015 A KR 20220128015A KR 1020210032524 A KR1020210032524 A KR 1020210032524A KR 20210032524 A KR20210032524 A KR 20210032524A KR 20220128015 A KR20220128015 A KR 20220128015A
Authority
KR
South Korea
Prior art keywords
skin
user
patch
skin condition
data
Prior art date
Application number
KR1020210032524A
Other languages
Korean (ko)
Inventor
김보성
Original Assignee
주식회사 매직내니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 매직내니 filed Critical 주식회사 매직내니
Priority to KR1020210032524A priority Critical patent/KR20220128015A/en
Publication of KR20220128015A publication Critical patent/KR20220128015A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0079Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Acoustics & Sound (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Anesthesiology (AREA)
  • Psychology (AREA)
  • Epidemiology (AREA)
  • Dermatology (AREA)
  • Databases & Information Systems (AREA)
  • Hematology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Pain & Pain Management (AREA)
  • Data Mining & Analysis (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

According to an embodiment of the present invention, provided is a method performed on one or more processors of a skin analysis device. The method may include the steps of: extracting a facial region of interest from an obtained user image; dividing the facial region of interest into one or more patches and determining a skin condition for each of the one or more patches; and predicting a skin risk for the user based on the skin condition.

Description

피부 분석 시스템{SYSTEM FOR ANALYZING SKIN}Skin analysis system {SYSTEM FOR ANALYZING SKIN}

본 발명은 피부 분석 시스템에 관한 것으로서, 사용자의 피부 상태를 분석하고 사용자의 피부 상태에 예상되는 피부 위험에 대한 정보를 제공하기 위한 피부 분석 시스템에 관한 것이다.The present invention relates to a skin analysis system, and to a skin analysis system for analyzing a user's skin condition and providing information on skin risks expected for the user's skin condition.

현대인들의 외모에 대한 관심이 높아지면서, 피부 관리를 위해 많은 비용과 시간이 투자되고 있다. 특히, 피부의 노화, 주름, 잡티, 미백 등 피부 상태를 알아보기 위해 병원 등을 방문하는데, 이는 소비자의 시간적, 경제적 부담을 가중시키는 문제가 있었다.As modern people's interest in appearance increases, a lot of money and time are invested in skin care. In particular, people visit hospitals to check skin conditions such as aging, wrinkles, blemishes, and whitening, which increases the time and economic burden of consumers.

이를 해결하기 위해 피부 상태를 분석하는 여러가지 시스템이 등장하였다. 그러나 종래의 피부 분석 시스템의 경우, 소비자가 분석 받고자 하는 영역을 특정하기 어렵고, 피부 위험 예측 모델에 대한 데이터가 부족하여 높은 성능을 낼 수 없었다.To solve this problem, various systems for analyzing skin conditions have emerged. However, in the case of the conventional skin analysis system, it is difficult for the consumer to specify the area to be analyzed, and the data on the skin risk prediction model is insufficient, so that high performance cannot be achieved.

따라서 이와 같은 문제를 해결할 수 있는 피부 분석 시스템이 요구된다.Therefore, a skin analysis system capable of solving such a problem is required.

본 발명은 상기 문제점을 해결하기 위한 것으로서, 사용자의 피부 상태를 분석하고 사용자의 피부 상태에 예상되는 피부 위험에 대한 정보를 제공하기 위한 피부 분석 시스템을 제공하는 것을 그 목적으로 한다.An object of the present invention is to solve the above problems, and an object of the present invention is to provide a skin analysis system for analyzing a user's skin condition and providing information on a skin risk expected for the user's skin condition.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 실시예에 따라, 피부 분석 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 획득된 사용자 이미지로부터 얼굴 관심 영역을 추출하는 단계; 상기 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 상기 하나 이상의 패치 각각에 대하여 피부 상태를 판단하는 단계; 및 상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method performed on one or more processors of a skin analysis device. The method includes: extracting a facial ROI from the acquired user image; segmenting the facial region of interest into one or more patches, and determining a skin condition for each of the one or more patches; and predicting a skin risk for the user based on the skin condition.

또한, 상기 사용자 이미지는 스마트 거울에 내장된 카메라로부터 촬영되어 전송된 이미지일 수 있다.Also, the user image may be an image captured and transmitted from a camera built into the smart mirror.

또한, 상기 피부 상태를 판단하는 단계는, 상기 패치를 학습된 인공 신경망을 포함하는 피부 상태 판단 모델로 처리함으로써 수행될 수 있다. Also, the determining of the skin condition may be performed by processing the patch with a skin condition determination model including a learned artificial neural network.

또한, 상기 피부 상태 판단 모델은, 상기 패치에서 엣지 패턴 또는 색상 패턴을 추출하도록 학습되는 제 1 서브 모델과 상기 제 1 서브 모델의 출력에 기초하여 피부 상태를 판단하도록 학습되는 제 2 서브 모델로 구성될 수 있다.In addition, the skin condition determination model consists of a first sub-model trained to extract an edge pattern or a color pattern from the patch and a second sub-model trained to determine a skin condition based on the output of the first sub model. can be

또한, 상기 피부 상태를 판단하는 단계는, 상기 각각의 패치에서 엣지 디텍션을 통해 상기 패치에 존재하는 피부 주름을 탐색하고, 상기 피부 주름과 상기 패치의 정상 피부의 비율에 기초하여 패치 별 주름 상태를 판단하는 단계를 포함할 수 있다.In addition, the step of determining the skin condition includes searching for skin wrinkles existing in the patch through edge detection in each patch, and determining the wrinkle state for each patch based on the ratio of the skin wrinkles to the normal skin of the patch. It may include a step of judging.

또한, 상기 피부 상태를 판단하는 단계는, 상기 각각의 패치에 포함된 각각의 픽셀 별 색상 분포에 적어도 부분적으로 기초하여 상기 각각의 패치에 잡티 상태를 판단하는 단계를 포함할 수 있다.In addition, the determining of the skin condition may include determining the blemish state in each patch based at least in part on a color distribution for each pixel included in each patch.

또한, 상기 피부 상태를 판단하는 단계는, 상기 각각의 패치의 색상 정보에 기초하여 상기 각각의 패치에 대한 미백 상태를 판단하는 단계를 포함할 수 있다.In addition, the determining of the skin condition may include determining the whitening state of each patch based on color information of each patch.

또한, 상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측하는 단계는, 피부 상태에 기초하여 피부 위험 요소의 종류, 예상 발생 시간, 또는 예상 발생 정도 중 적어도 하나를 예측하도록 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측 단계를 포함할 수 있다.In addition, the predicting of the skin risk to the user based on the skin condition may include predicting a skin risk learned to predict at least one of a type of a skin risk factor, an expected occurrence time, or an expected occurrence level based on the skin condition. It may include a step of predicting the skin risk for the user using the model.

또한, 상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측하는 단계는, 하나의 사용자에 대한 둘 이상의 시점의 피부 상태에 기초한 제 1 학습 데이터, 또는 서로 상이한 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 2 학습 데이터 중 적어도 하나에 기초하여 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측하는 단계를 포함할 수 있다.In addition, the step of predicting the skin risk for the user based on the skin condition may include first learning data based on the skin condition of two or more points of view for one user, or the skin condition of two or more different points of view of the user. The method may include predicting a skin risk for the user by using a skin risk prediction model learned based on at least one of the second training data.

또한, 상기 피부 상태 또는 피부 위험 예측 정보 중 적어도 하나를 사용자 단말 또는 스마트 거울 중 적어도 하나로 전송하는 단계를 더 포함할 수 있다.The method may further include transmitting at least one of the skin condition and skin risk prediction information to at least one of a user terminal and a smart mirror.

또한, 상기 획득된 사용자 이미지로부터 사용자 감정을 추출하는 단계; 및 사용자 음성 데이터를 분석하여 사용자에 대한 대화 응답을 생성하는 단계를 더 포함할 수 있다.In addition, extracting a user emotion from the obtained user image; and analyzing the user's voice data to generate a dialogue response for the user.

본 발명의 실시예에 따라 피부 분석 장치의 하나 이상의 프로세서에서 수행되는 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램이 제공된다. According to an embodiment of the present invention, a computer program stored in a medium for performing a method performed by one or more processors of a skin analysis device is provided.

본 발명의 실시예에 따라 피부 분석 장치가 제공된다. 상기 장치는, 컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및 상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고, 상기 프로세서는, 획득된 사용자 이미지로부터 얼굴 관심 영역을 추출하고, 상기 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 상기 하나 이상의 패치 각각에 대하여 피부 상태를 판단하며, 상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측할 수 있다.According to an embodiment of the present invention, a skin analysis device is provided. The apparatus comprises: a memory for storing computer executable instructions; and a processor for executing instructions stored in the memory, wherein the processor extracts a facial region of interest from the obtained user image, divides the facial region of interest into one or more patches, and for each of the one or more patches The skin condition may be determined, and a skin risk to the user may be predicted based on the skin condition.

본 발명에 따르면, 엣지 디텍션(edge detection)을 통해 패치에 존재하는 피부 주름을 탐색하고 피부 잡티의 유무 및 미백 상태 등 피부 상태를 분석하여 피부 상태에 예상되는 피부 위험에 대한 정보를 제공할 수 있다.According to the present invention, it is possible to provide information on skin risks expected for skin conditions by detecting skin wrinkles existing in the patch through edge detection and analyzing skin conditions such as the presence or absence of skin blemishes and whitening conditions. .

또한 본 발명에 따르면, 사용자 이미지에서 얼굴 영역이 차지하는 일반적인 위치에 대한 학습을 통해 얼굴 관심 영역을 추출할 수 있다.Also, according to the present invention, it is possible to extract a face ROI by learning about a general position occupied by the face region in the user image.

또한 본 발명에 따르면, 얼굴 관심 영역을 작은 크기로 구성된 복수의 패치로 분할하여 피부 상태 판단 모델을 이용하여 처리함으로써, 연산량을 감소시키고 학습 데이터를 증가시키며 불필요한 픽셀의 증가를 감소시킬 수 있다.In addition, according to the present invention, by dividing the facial ROI into a plurality of patches having a small size and processing it using the skin condition determination model, it is possible to reduce the amount of computation, increase the training data, and reduce the increase of unnecessary pixels.

또한 본 발명에 따르면, 제 1 및 제 2 학습 데이터를 통해 데이터 부족을 해소하고 적은 수의 데이터로도 높은 성능을 내는 예측 모델을 만들 수 있다.In addition, according to the present invention, it is possible to create a predictive model that solves a data shortage through the first and second training data and exhibits high performance even with a small number of data.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 피부 분석 시스템을 도시한다.
도 2는 본 발명의 실시예의 피부 분석 시스템을 구성하는 피부 분석 장치를 도시한다.
도 3은 본 발명의 실시예에 따른 대화 시스템을 도시한다.
도 4는 본 발명의 실시예에 따라 인공 신경 네트워크를 설명하기 위한 도면이다.
In order to more fully understand the drawings recited in the Detailed Description of the Invention, a brief description of each drawing is provided.
1 shows a skin analysis system according to an embodiment of the present invention.
2 shows a skin analysis device constituting a skin analysis system according to an embodiment of the present invention.
3 shows a dialogue system according to an embodiment of the present invention.
4 is a diagram for explaining an artificial neural network according to an embodiment of the present invention.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 이하에서 기재되는 편의상 상하좌우의 방향은 도면을 기준으로 한 것이며, 해당 방향으로 본 발명의 권리범위가 반드시 한정되는 것은 아니다.Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. In addition, a method of constructing and using an embodiment of the present invention will be described in detail with reference to the contents described in the accompanying drawings. The same reference numbers or reference numerals in each figure indicate parts or components that perform substantially the same functions. For convenience described below, the up, down, left and right directions are based on the drawings, and the scope of the present invention is not necessarily limited to that direction.

제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다. Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related items or any one of a plurality of related items.

본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terms used herein are used to describe the embodiments, and are not intended to limit and/or limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, the terms include or have is intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features, number, or step , it should be understood that it does not preclude in advance the possibility of the presence or addition of an operation, component, part, or combination thereof.

명세서 전체에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 간접적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when it is said that a part is connected to another part, it includes not only a case in which it is directly connected, but also a case in which it is indirectly connected with another element interposed therebetween. Also, when it is said that a part includes a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

본 발명에서 네트워크 함수와 인공 신경망 및 뉴럴 네트워크(neural network)는 상호 교환 가능하게 사용될 수 있다.In the present invention, a network function, an artificial neural network, and a neural network may be used interchangeably.

도 1은 본 발명의 실시예에 따른 피부 분석 시스템을 도시한다.1 shows a skin analysis system according to an embodiment of the present invention.

도 1을 참조하면, 피부 분석 시스템은, 스마트 거울(100), 사용자 단말(300) 및 피부 분석 장치(200)를 포함할 수 있다.Referring to FIG. 1 , the skin analysis system may include a smart mirror 100 , a user terminal 300 , and a skin analysis device 200 .

스마트 거울(100)은 사용자의 모습을 비춰주며, 추가적인 기능을 할 수 있는 임의의 장치를 포함할 수 있다. The smart mirror 100 reflects the user's appearance and may include any device capable of performing additional functions.

실시예에서, 스마트 거울(100)은 영상 촬영을 위한 카메라(110)를 포함할 수 있다. 촬영된 사용자의 영상은 거울부(120)를 통해 재생될 수 있다. In an embodiment, the smart mirror 100 may include a camera 110 for taking an image. The captured image of the user may be reproduced through the mirror unit 120 .

실시예에서, 스마트 거울(100)의 거울부(120)는 디스플레이로 구성될 수 있으며, 투명 디스플레이와 물리 거울로 구성되어 물리적으로 사용자의 상을 반사하며 투명 디스플레이에서 추가적인 정보를 표시하는 방식으로 구성될 수도 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, the mirror unit 120 of the smart mirror 100 may be configured as a display, and is composed of a transparent display and a physical mirror to physically reflect the user's image and to display additional information on the transparent display. it might be However, the present invention is not limited thereto.

실시예에서, 스마트 거울(100)은 조명(미도시)을 포함하여, 사용자의 모습을 보다 잘 표시하도록 할 수도 있다. In an embodiment, the smart mirror 100 may include a lighting (not shown) to better display the user's appearance.

실시예에서, 스마트 거울(100)은 음향 출력부, 음성 입력부를 포함하여 거울을 사용하는 사용자와 음성 대화를 수행할 수도 있다. In an embodiment, the smart mirror 100 may include a sound output unit and a voice input unit to perform a voice conversation with a user using the mirror.

실시예에서, 스마트 거울(100)은 통신을 위한 수집 전송 모듈을 포함하여, 피부 분석 장치(200)와 통신하여 데이터를 송수신할 수 있다. In an embodiment, the smart mirror 100 may include a collection transmission module for communication, and may communicate with the skin analysis device 200 to transmit/receive data.

실시예에서, 스마트 거울(100)은 피부 분석 장치(200)에 사용자 이미지, 사용자 음성, 사용자 입력 등을 전달할 수 있다. In an embodiment, the smart mirror 100 may transmit a user image, a user voice, a user input, etc. to the skin analysis apparatus 200 .

실시예에서, 스마트 거울(100)은 복수 개로 구성되어, 서로 다른 사용자로부터 영상 정보를 획득하여 피부 분석 장치(200)로 전달할 수 있다.In an embodiment, a plurality of smart mirrors 100 may be configured to obtain image information from different users and transmit the image information to the skin analysis apparatus 200 .

사용자 단말(300)은 일반적인 사용자 핸드 헬드 디바이스를 포함할 수 있으며, 예를 들어 스마트폰 등을 포함할 수 있다. 사용자 단말(300)은 스마트 거울(100)과 직접 통신하여, 스마트 거울(100)에서 획득된 이미지를 피부 분석 장치(200)로 전송하거나, 사용자 단말(300)의 이미지를 피부 분석 장치(200)로 전송할 수 있다. 또한, 사용자 단말(300)은 피부 분석 장치(200)로부터 피부 상태, 피부 위험 등의 정보를 수신하여 사용자에게 전달할 수 있다.The user terminal 300 may include a general user handheld device, for example, a smart phone or the like. The user terminal 300 directly communicates with the smart mirror 100 and transmits the image obtained from the smart mirror 100 to the skin analysis device 200 , or transmits the image of the user terminal 300 to the skin analysis device 200 . can be sent to Also, the user terminal 300 may receive information such as a skin condition and a skin risk from the skin analysis apparatus 200 and transmit it to the user.

피부 분석 장치(200)는 스마트 거울(100) 또는 사용자 단말(300)로부터 해당 정보들을 획득하여, 정보를 처리하여 사용자 측에 제공할 수 있다. 피부 분석 장치(200)는 전술한 바와 같이 사용자 이미지로부터 사용자 피부 상태, 사용자 피부 위험 예측 정보를 생성하여 스마트 거울(100) 또는 사용자 단말(300)에 전달할 수 있다. 또한, 피부 분석 장치(200)는 사용자 이미지로부터 사용자 감정을 분석하고 사용자 감정에 기초한 대화 반응을 스마트 거울(100) 또는 사용자 단말(300)에 전달할 수 있다. The skin analysis apparatus 200 may obtain the corresponding information from the smart mirror 100 or the user terminal 300, process the information, and provide it to the user. As described above, the skin analysis apparatus 200 may generate user skin condition and user skin risk prediction information from the user image and transmit it to the smart mirror 100 or the user terminal 300 . Also, the skin analysis apparatus 200 may analyze a user's emotion from the user's image and transmit a conversational response based on the user's emotion to the smart mirror 100 or the user terminal 300 .

실시예에 따라, 사용자 단말(300)은 스마트 거울(100)의 기능을 수행할 수 있다. 사용자 단말(300)은 사용자 이미지를 피부 분석 장치(200)로 전송할 수 있다. 사용자 단말(300)은 사용자 입력을 피부 분석 장치(200)에 전달할 수 있다. According to an embodiment, the user terminal 300 may perform the function of the smart mirror 100 . The user terminal 300 may transmit the user image to the skin analysis apparatus 200 . The user terminal 300 may transmit a user input to the skin analysis apparatus 200 .

도 1에서 도시되는 피부 분석 시스템은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라 다양한 구성이 적용될 수 있다.The skin analysis system shown in FIG. 1 is exemplary, and various configurations may be applied according to an embodiment to which the present invention is applied.

도 2는 본 발명의 실시예의 피부 분석 시스템을 구성하는 피부 분석 장치를 도시한다.2 shows a skin analysis device constituting a skin analysis system according to an embodiment of the present invention.

피부 분석 장치(200)는, 획득된 사용자 이미지로부터 얼굴 관심 영역을 추출하고, 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 하나 이상의 패치 각각에 대하여 피부 상태를 판단하며, 피부 상태에 기초하여 사용자에 대한 피부 위험을 예측할 수 있다. The skin analysis apparatus 200 extracts a facial ROI from the acquired user image, divides the facial ROI into one or more patches, determines a skin condition for each of the one or more patches, and provides the user with a skin condition based on the skin condition. skin risk can be predicted.

실시예에서, 피부 분석 장치(200)에 저장되는 사용자 정보는 사용자 이미지의 사용자에 관련한 정보일 수 있다. 예를 들어, 사용자 정보는 사용자 식별 정보를 포함할 수 있다. 피부 분석 장치(200)에 저장된 얼굴 사진은 사용자 이미지에서 얼굴 부분이 추출된 이미지 일 수 있다.In an embodiment, the user information stored in the skin analysis apparatus 200 may be information related to a user of a user image. For example, the user information may include user identification information. The face photo stored in the skin analysis apparatus 200 may be an image in which a face part is extracted from a user image.

실시예에서, 피부 분석 장치(200)는 획득된 사용자 이미지로부터 얼굴 관심 영역을 추출할 수 있다. 사용자 이미지는 사용자의 얼굴을 포함하는 이미지일 수 있다. 예를 들어, 사용자 이미지는 사용자 단말(300) 또는 스마트 거울(100)에 내장된 카메라(110) 촬영되어 전송된 이미지일 수 있다. In an embodiment, the skin analysis apparatus 200 may extract a facial ROI from the acquired user image. The user image may be an image including the user's face. For example, the user image may be an image captured and transmitted by the camera 110 built in the user terminal 300 or the smart mirror 100 .

실시예에서, 피부 분석 장치(200)는 사용자 이미지에서 메타 데이터, 얼굴 데이터, 피부 데이터를 생성할 수 있다. In an embodiment, the skin analysis apparatus 200 may generate metadata, face data, and skin data from a user image.

실시예에서, 메타 데이터는 이미지의 사용자에 관련한 정보를 포함할 수 있다. 예를 들어, 메타 데이터는 사용자의 식별 정보, 사용자의 성별 정보, 사용자의 나이 정보, 사용자의 소득 정보, 사용자의 직업 정보, 사용자의 라이프 스타일 정보, 사용자 신체 기본 정보 등을 포함할 수 있으나 본 발명은 이에 제한되지 않는다. In an embodiment, the metadata may include information related to the user of the image. For example, the metadata may include user identification information, user gender information, user age information, user income information, user occupation information, user lifestyle information, user body basic information, etc. is not limited thereto.

실시예에서, 얼굴 데이터는 사용자 이미지에서 추출된 일부 영역(즉, 관심 영역)에 대한 데이터 일 수 있다. 피부 분석 장치(200)는 사용자 이미지로부터 얼굴 관심 영역을 추출할 수 있다. 얼굴 관심 영역은 사용자 이미지에서 피부 상태를 판단하기 위하여 필요한 일부분의 영역을 포함할 수 있다. 피부 분석 장치(200)는 사용자 이미지로부터 피부 상태의 분석에 필요한 얼굴 부분만을 추출할 수 있다. 예를 들어, 얼굴 관심 영역은 사용자 얼굴에서 머리카락, 눈썹, 코, 입 등을 제외한 부분일 수 있으나 본 발명은 이에 제한되지 않으며, 본 발명의 얼굴 관심 영역은 얼굴의 피부 상태를 판단하기 위하여 필요한 임의의 얼굴 영역일 수 있다. In an embodiment, the face data may be data for a partial region (ie, region of interest) extracted from the user image. The skin analysis apparatus 200 may extract a facial ROI from the user image. The facial interest region may include a partial region necessary to determine a skin condition in the user image. The skin analysis apparatus 200 may extract only the face part necessary for the analysis of the skin condition from the user image. For example, the facial ROI may be a portion of the user's face excluding hair, eyebrows, nose, and mouth, but the present invention is not limited thereto. may be a face region of

실시예에서, 피부 분석 장치(200)는 다수의 사용자에 대한 사용자 이미지에 기초하여 얼굴 영역을 정규화하여, 사용자 이미지에서 얼굴 영역이 차지하는 일반적인 위치에 대한 학습을 수행할 수 있다. 피부 분석 장치(200)는 학습된 얼굴 영역의 일반적인 위치에 기초하여 사용자 이미지로부터 얼굴 관심 영역을 추출할 수 있다. 피부 분석 장치(200)는 얼굴 영역으로 추정되는 부분에서 피부 상태를 판단하기 어려운 측면 부분은 제외할 수 있다. 얼굴의 측면 영역은 사용자 이미지를 획득할 시 카메라(110)에 정면으로 촬영되지 못한 부분이므로 이 부분의 피부 상태 판단은 용이하지 못하거나, 정확도가 낮을 수 있다. 따라서, 피부 분석 장치(200)는 얼굴 영역으로 추정되는 부분에서 이러한 측면 부분을 제외하고 최종적으로 얼굴 관심 영역을 추출할 수 있다. In an embodiment, the skin analysis apparatus 200 may normalize a face region based on user images for a plurality of users, and may learn about a general position occupied by the face region in the user image. The skin analysis apparatus 200 may extract a facial ROI from the user image based on the general location of the learned facial region. The skin analysis apparatus 200 may exclude a side portion in which it is difficult to determine the skin condition from the portion estimated as the face region. Since the side area of the face is not photographed in front of the camera 110 when the user image is acquired, it may not be easy to determine the skin condition of this portion or the accuracy may be low. Accordingly, the skin analysis apparatus 200 may finally extract the facial ROI from the part estimated to be the face region except for the side part.

실시예에서, 피부 데이터는 피부 분석 장치(200)가 얼굴 관심 영역을 분석하여 획득된 피부 상태에 대한 정보와 피부 상태 예측 정보를 포함할 수 있다. 피부 데이터는 피부 분석 장치(200)로부터 사용자 이미지 분석을 통해 획득되며, 사용자의 현재 피부 상태와 관련한 정보들을 포함할 수 있으며 사용자의 미래 피부 위험에 관련한 정보들을 포함할 수도 있다. In an embodiment, the skin data may include skin condition information and skin condition prediction information obtained by the skin analysis apparatus 200 analyzing a facial ROI. The skin data is obtained from the skin analysis apparatus 200 through user image analysis, and may include information related to the user's current skin condition and information related to the user's future skin risk.

실시예에서, 피부 분석 장치(200)는 얼굴 관심 영역을 분석하여 피부 상태를 판단할 수 있다. 피부 분석 장치(200)는 얼굴 관심 영역을 하나 이상의 패치로 분할하고 해치 각각에 대한 피부 상태를 판단할 수 있다. 피부 분석 장치(200)는 얼굴 관심 영역을 보다 작은 복수의 패치로 분할할 수 있다. 패치의 크기는 피부 상태 판단 모델의 입력에 적합한 크기일 수 있다. 얼굴 관심 영역이 전체로 피부 상태 판단 모델에 입력되는 경우, 피부 상태 판단 모델의 크기가 커져 연산에 어려움이 발생할 수 있다. 또한, 얼굴 관심 영역은 사람마다 상이할 수 있으므로, 이를 전체로 피부 상태 판단 모델에 입력하기 위해서는 사각형 형태를 만들어야 하나, 그러기 위하여 얼굴 관심 영역에 불필요한 픽셀들이 추가되어야 할 수 있다. 따라서, 피부 분석 장치(200)는 얼굴 관심 영역을 작은 크기로 구성된 복수의 패치로 분할하여 피부 상태 판단 모델을 이용하여 처리함으로써, 연산량을 감소시킬 수 있고, 학습 데이터를 증가시키는 효과를 얻을 수 있으며, 피부 상태 판단 모델을 이용한 처리를 위한 불필요한 픽셀의 증가를 감소시킬 수 있다. In an embodiment, the skin analysis apparatus 200 may determine the skin state by analyzing the facial ROI. The skin analysis apparatus 200 may divide the facial ROI into one or more patches and determine a skin state for each hatch. The skin analysis apparatus 200 may divide the facial ROI into a plurality of smaller patches. The size of the patch may be a size suitable for input of the skin condition determination model. When the entire face region of interest is input to the skin condition determination model, the size of the skin condition determination model increases, which may cause difficulties in calculation. In addition, since the facial ROI may be different for each person, a rectangular shape must be created to input the entire ROI to the skin condition determination model, but unnecessary pixels may need to be added to the facial ROI for this purpose. Accordingly, the skin analysis apparatus 200 divides the facial region of interest into a plurality of patches composed of small sizes and processes them using the skin condition determination model, thereby reducing the amount of computation and increasing the learning data. , it is possible to reduce the increase of unnecessary pixels for processing using the skin condition determination model.

실시예에서, 패치의 크기, 배치 및 총 수는 사전결정된 알고리즘에 기초하여 결정될 수 있다. 피부 분석 장치(200)는 피부 상태 판단 모델로 처리하기 용이할 사이즈로 패치의 크기를 결정할 수 있다. 피부 분석 장치(200)는 패치들이 사각형 형태를 가지기 위하여 추가되어야 하는 추가 픽셀이 가장 적도록 얼굴 관심 영역에서의 패치의 배치를 결정할 수도 있다. In embodiments, the size, placement, and total number of patches may be determined based on a predetermined algorithm. The skin analysis apparatus 200 may determine the size of the patch as a size that can be easily processed by the skin condition determination model. The skin analysis apparatus 200 may determine the arrangement of the patches in the facial ROI so that the number of additional pixels to be added in order for the patches to have a rectangular shape is minimal.

실시예에서, 피부 상태 판단 모델은 이미지를 처리할 수 있는 인공 신경망으로 구성될 수 있으며 예를 들어, 피부 상태 판단 모델은 CNN(convolution neural network)로 구성될 수 있으나 본 발명은 이에 제한되지 않는다. In an embodiment, the skin condition determination model may be composed of an artificial neural network capable of processing an image, for example, the skin condition determination model may be composed of a CNN (convolutional neural network), but the present invention is not limited thereto.

실시예에서, 피부 상태 판단 모델은 이미지에서 엣지(edge) 패턴 또는 색상 패턴 중 적어도 하나를 추출하도록 학습될 수 있다. 피부 상태 판단 모델은 엣지 패턴 또는 색상 패턴 중 적어도 하나에 기초하여 사용자의 피부 상태를 판단하도록 학습될 수 있다. 피부 상태 판단 모델은 이미지 패치에서 이미지 상의 특징을 찾도록 하는 서브 모델, 그리고 이미지 상의 특징에서 피부 상태와 관련한 의미를 찾도록 하는 서브 모델로 구성될 수 있다. 피부 상태 판단 모델은 패치에서 엣지 패턴 또는 색상 패턴 중 적어도 하나를 추출하도록 학습되는 제 1 서브 모델과 제 1 서브 모델의 출력에 기초하여 피부 상태를 판단하도록 학습되는 제 2 서브 모델로 구성될 수 있다. In an embodiment, the skin condition determination model may be trained to extract at least one of an edge pattern or a color pattern from an image. The skin condition determination model may be trained to determine the user's skin condition based on at least one of an edge pattern and a color pattern. The skin condition determination model may be composed of a sub-model for finding a feature on an image in an image patch, and a sub-model for finding a meaning related to a skin condition from a feature on the image. The skin condition determination model may be composed of a first sub-model trained to extract at least one of an edge pattern or a color pattern from a patch, and a second sub-model trained to determine a skin condition based on the output of the first sub model. .

실시예에서, 피부 분석 장치(200)는 피부 상태 판단 모델을 이용하여 패치에서 엣지(edge) 패턴 또는 색상 패턴 중 적어도 하나를 추출하도록 할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 엣지 디텍션(edge detection)을 통해 패치에 존재하는 피부 주름을 탐색할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 피부 주름과 정상 피부의 비율에 기초하여 패치 별 주름 상태를 판단할 수 있다. 예를 들어, 30x30 크기의 패치에서 주름 부분의 픽셀이 3x30 인 경우, 피부 분석 장치(200)는 해당 패치에서 주름 부분이 10%이므로 이에 기초하여 해당 패치의 주름의 정도를 판단할 수 있다. 피부 분석 장치(200)는 패치에서 주름 부분의 픽셀이 차지하는 비중이 클수록 해당 패치의 주름의 정도가 심한 것으로 판단할 수 있다. 피부 분석 장치(200)는 주름을 식별하여 인접 패치에서 주름이 이어지는지 여부를 판단할 수 있다. 피부 분석 장치(200)는 패치와 인접 패치의 엣지 디텍션 결과에 기초하여 패치에 존재하는 주름이 인접 패치로 이어지는지 여부를 판단할 수 있다. 피부 분석 장치(200)는 주름이 인접 패치로 이어지는 경우 이를 연결하여 사용자에게 표시되도록 할 수 있다. In an embodiment, the skin analysis apparatus 200 may extract at least one of an edge pattern and a color pattern from a patch using the skin condition determination model. The skin analysis apparatus 200 may search for skin wrinkles existing in each patch through edge detection. The skin analysis apparatus 200 may determine a wrinkle state for each patch based on a ratio of skin wrinkles to normal skin in each patch. For example, when the pixel of the wrinkle portion in the 30x30 sized patch is 3x30, the skin analysis apparatus 200 may determine the wrinkle degree of the corresponding patch based on the 10% of the wrinkle portion in the corresponding patch. The skin analysis apparatus 200 may determine that the degree of wrinkles of the patch is severe as the proportion of pixels of the wrinkle portion in the patch increases. The skin analysis apparatus 200 may identify wrinkles and determine whether wrinkles continue in adjacent patches. The skin analysis apparatus 200 may determine whether wrinkles existing in the patch lead to the adjacent patch based on the edge detection results of the patch and the adjacent patch. When a wrinkle leads to an adjacent patch, the skin analysis apparatus 200 may connect it to display it to the user.

실시예에서, 피부 분석 장치(200)는 복수의 엣지 디텍션을 수행할 수 있다. 예를 들어, 피부 분석 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 사용자 이미지에서 관심 영역을 추출하기 위해 이용될 수 있으며, 2차 엣지 디텍션은 관심 영역에서 적어도 하나의 패치를 구분하기 위해 수행될 수 있다. 즉, 1차 엣지 디텍션을 통해 관심 영역의 추출을 통해 사용자 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 사용자 이미지의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 패치 구분에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 질감(texture)을 판독에 효과적인 알고리즘이 적용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP 에 기초한 것일 수 있다. In an embodiment, the skin analysis apparatus 200 may perform a plurality of edge detection. For example, the skin analysis apparatus 200 may perform primary edge detection and secondary edge detection. The primary edge detection may be used to extract a region of interest from the user image, and the second edge detection may be performed to distinguish at least one patch from the region of interest. That is, by extracting a portion to be effectively analyzed from the user image through the extraction of the ROI through the primary edge detection, the amount of computation for analyzing the user image can be reduced. In addition, for the secondary edge detection, a more effective algorithm for distinguishing patches may be applied. For example, for the secondary edge detection, an algorithm effective for reading a texture may be applied. For example, the first edge detection may be based on the Kenny edge detection algorithm, and the second edge detection may be based on the LBP.

실시예에서, 피부 분석 장치(200)는 복수의 엣지 디텍션을 수행할 수 있다. 예를 들어, 피부 분석 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 사용자 이미지에서 관심 영역을 추출하고 및/또는 관심 영역에서 적어도 하나의 패치를 구분하기 위해 이용될 수 있다. 또한, 2차 엣지 디텍션은 각각의 패치에서 객체 감지를 위해 수행될 수 있다. 즉, 1차 엣지 디텍션을 통해 관심 영역 및/또는 패치의 추출을 통해 사용자 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 사용자 이미지의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 여드름 등 피부 분석에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 질감(texture)을 판독에 효과적인 알고리즘이 적용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP 에 기초한 것일 수 있다. In an embodiment, the skin analysis apparatus 200 may perform a plurality of edge detection. For example, the skin analysis apparatus 200 may perform primary edge detection and secondary edge detection. The primary edge detection may be used to extract a region of interest from a user image and/or to distinguish at least one patch from the region of interest. In addition, the secondary edge detection may be performed for object detection in each patch. That is, by extracting the portion to be effectively analyzed from the user image through the extraction of the region of interest and/or the patch through the primary edge detection, the amount of calculation for analyzing the user image can be reduced. In addition, for the secondary edge detection, a more effective algorithm can be applied to skin analysis such as acne. For example, for the secondary edge detection, an algorithm effective for reading a texture may be applied. For example, the first edge detection may be based on the Kenny edge detection algorithm, and the second edge detection may be based on the LBP.

실시예에서, 피부 분석 장치(200)는 각각의 패치에 부분적으로 상이한 엣지 디텍션을 수행할 수 있다. 즉, 각각의 패치에서 잡티, 예를 들어, 여드름, 주름 등을 분석하는데 효과적인 별도의 알고리즘이 적용될 수 있다. 이는 각각의 패치에 대한 1차 분석 결과에 기초하여, 보다 세부적인 분석이 필요한 경우에 수행될 수 있다. 예를 들어, 임의의 패치에서 여드름이 다수 발견되는 경우, 여드름 분석에 효과적인 엣지 디텍션 알고리즘을 적용한 후에 2차 분석을 수행함으로써, 보다 신뢰도도 높은 분석 결과를 제공할 수 있다.In an embodiment, the skin analysis apparatus 200 may perform partially different edge detection on each patch. That is, a separate algorithm effective for analyzing blemishes, for example, acne, wrinkles, etc., in each patch may be applied. This may be performed when a more detailed analysis is required based on the results of the primary analysis for each patch. For example, when a large number of acne is found in an arbitrary patch, by performing a secondary analysis after applying an edge detection algorithm effective for acne analysis, it is possible to provide analysis results with higher reliability.

실시예에서, 피부 분석 장치(200)는 각각의 패치에서 객체를 감지하여 피부 잡티의 유무를 판독할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 기미, 주근깨, 여드름, 모공 등 피부상에 위치하는 객체들을 판독할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 피부상에 객체가 존재하는지 여부를 분석함으로써 각각의 패치에서 피부 잡티가 존재하는지 여부를 판단할 수 있다. 피부 분석 장치(200)는 이에 기초하여 각각의 패치 중 잡티가 존재하는 패치를 판정할 수 있다.In an embodiment, the skin analysis apparatus 200 may detect an object in each patch and read the presence or absence of skin blemishes. The skin analysis apparatus 200 may read objects located on the skin, such as melasma, freckles, acne, and pores, in each patch. The skin analysis apparatus 200 may determine whether a skin blemish exists in each patch by analyzing whether an object is present on the skin in each patch. The skin analysis apparatus 200 may determine a patch in which blemishes exist among each patch based on this.

실시예에서, 피부 분석 장치(200)는 각각의 패치의 색상 패턴을 분석할 수 있다. 피부 분석 장치(200)는 각각의 패치에 포함된 픽셀 별 색상 분포에 기초하여 각각의 패치에서 잡티 상태를 판단할 수 있다. 예를 들어, 피부 분석 장치(200)는 각각의 패치를 HSV 3차원 공간상 색소차이로 분류하여 패치의 잡티 상태를 판단할 수 있다. 예를 들어, 피부 분석 장치(200)는 패치에 존재하는 정상 부분과 잡티 부분을 색상 차이로 구분할 수 있다. 피부 분석 장치(200)는 이 경우 잡티 색상을 가진 픽셀과 정상 색상을 가진 픽셀의 비율에 기초하여 각각의 패치 별 잡티의 정도를 판단할 수 있다. 즉, 피부 분석 장치(200)는 잡티가 존재하는 것으로 판정된 패치에 대하여 잡티 부분의 색상과 잡티를 제외한 부분의 색상 분포에 기초하여 잡티의 정도를 판단할 수 있다. In an embodiment, the skin analysis apparatus 200 may analyze a color pattern of each patch. The skin analysis apparatus 200 may determine a blemish state in each patch based on a color distribution for each pixel included in each patch. For example, the skin analysis apparatus 200 may classify each patch as a color difference in HSV three-dimensional space to determine the blemish state of the patch. For example, the skin analysis apparatus 200 may distinguish a normal part and a blemish part existing in the patch by a color difference. In this case, the skin analysis apparatus 200 may determine the degree of the blemish for each patch based on the ratio of the pixel having the blemish color to the pixel having the normal color. That is, the skin analysis apparatus 200 may determine the degree of the blemish based on the color of the blemish portion and the color distribution of the portion excluding the blemish with respect to the patch in which the blemish is determined to exist.

실시예에서, 피부 분석 장치(200)는 패치의 색상 정보에 기초하여 패치에 대한 미백 상태를 판단할 수 있다. 피부 분석 장치(200)는 패치의 전체적인 색상 패턴에 기초하여 미백 상태를 판단할 수 있다. In an embodiment, the skin analysis apparatus 200 may determine the whitening state of the patch based on color information of the patch. The skin analysis apparatus 200 may determine the whitening state based on the overall color pattern of the patch.

실시예에서, 피부 분석 장치(200)에 저장된 패치 정보는 분석 관심 영역을 분할한 각각의 패치에 관련한 정보를 포함할 수 있다. 피부 분석 장치(200)에 저장된 여드름 패치, 주름 패치, 기미 패치 등은 각각 여드름, 주름, 기미를 포함하고 있는 패치에 대한 정보일 수 있다. 피부 분석 장치(200)는 피부 이상을 포함하고 있는 패치를 별도로 저장할 수 있다. In an embodiment, the patch information stored in the skin analysis apparatus 200 may include information related to each patch obtained by dividing the analysis ROI. The acne patch, the wrinkle patch, the blemish patch, etc. stored in the skin analysis apparatus 200 may be information about the patch including acne, wrinkles, and blemishes, respectively. The skin analysis apparatus 200 may separately store a patch including a skin abnormality.

실시예에서, 피부 분석 장치(200)는 피부 상태에 기초하여 사용자에 대한 피부 위험을 예측할 수 있다. 피부 분석 장치(200)는 피부 상태에 기초하여 해당 사용자에 대하여 발생할 수 있는 피부상의 이상을 예측할 수 있다. 피부 분석 장치(200)는 피부 상태에 기초하여 피부 위험 요소의 종류, 예상 발생 시간, 또는 예상 발생 정도 중 적어도 하나를 예측하도록 학습된 피부 위험 예측 모델을 이용하여 사용자에 대한 피부 위험을 예측할 수 있다. In an embodiment, the skin analysis apparatus 200 may predict a skin risk to the user based on the skin condition. The skin analysis apparatus 200 may predict a skin abnormality that may occur for the user based on the skin condition. The skin analysis apparatus 200 may predict a skin risk to a user using a skin risk prediction model trained to predict at least one of a type of a skin risk factor, an expected occurrence time, or an expected occurrence degree based on the skin condition. .

실시예에서, 피부 위험 예측 모델은 하나의 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 1 학습 데이터 또는 서로 상이한 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 2 학습 데이터 중 적어도 하나에 기초하여 학습된 피부 위험 예측 모델을 이용하여 사용자에 대한 피부 위험을 예측할 수 있다. In an embodiment, the skin risk prediction model is trained based on at least one of first learning data based on skin conditions at two or more time points of one user or second learning data based on skin conditions at two or more time points of different users. A skin risk prediction model may be used to predict skin risk for a user.

실시예에서, 제 1 학습 데이터는 동일한 사용자의 상이한 시점의 피부 상태에 대한 학습 데이터일 수 있다. 제 1 학습 데이터는 예를 들어, 동일한 사용자에 대하여 상이한 시점 중 이전 시점 피부 상태에 대한 데이터는 입력 데이터이고, 이후 시점 피부 상태에 대한 데이터는 입력 데이터에 대한 레이블로 구성된 학습 데이터 일 수 있다. In an embodiment, the first learning data may be learning data for a skin condition of the same user at different points in time. The first learning data may be, for example, data on a skin condition at a previous point in time among different points of view for the same user is input data, and data on a skin condition at a later point in time may be training data composed of labels for the input data.

실시예에서, 제 2 학습 데이터는 제 1 사용자에 대한 피부 상태에 대한 데이터와 제 2 사용자에 대한 피부 상태에 대한 데이터 중 사용자의 생애 기준으로 이전 시점의 데이터가 입력 데이터이고 이후 시점의 데이터가 레이블로 구성된 학습 데이터 일 수 있다. 즉, 동일한 사용자에 대하여 시점의 전후로 구성된 피부 상태 데이터는 학습에 충분한 데이터를 수집하기 어려울 수 있다. 그러므로, 제 2 학습 데이터는 상이한 사용자에 대한 데이터라 하더라고 사용자와 관련 정보에 연관성이 있는 경우 입력 데이터와 레이블로 구성할 수 있도록 하여, 학습을 위한 데이터를 늘린 데이터 일 수 있다. 즉, 제 1 사용자와 제 2 사용자가 상이한 사용자이나, 연관성이 있는 데이터인 경우, 각각의 사용자에 대한 피부 상태 데이터를 입력 데이터와 레이블의 관계로 구성할 수 있으며, 이러한 방식으로 구성된 학습 데이터가 제 2 학습 데이터 일 수 있다. 여기서 사용자 사이의 연관성은 사용자의 정보, 사용자의 피부 상태에 관련한 연관성일 수 있다. 예를 들어, 제 1 사용자와 제 2 사용자가 혈연관계에 있거나, 제 1 사용자와 제 2 사용자의 성별, 나이 등 신체 정보가 유사한 관계에 있거나, 제 1 사용자와 제 2 사용자의 라이프 스타일 정보가 유사한 관계에 있는 경우에는 피부 분석 장치(200)는 제 1 사용자와 제 2 사용자를 연관 사용자로 판단할 수 있다. 제 2 학습 데이터에서 입력 데이터와 레이블을 결정하는 시점의 전 후는 사용자의 생애, 피부 위험의 발전 양상 등을 기준으로 판단할 수 있다. 즉 제 1 사용자는 35 세이며, 제 2 사용자는 33 세인 경우, 제 1 사용자의 피부 상태 데이터가 2020년 1 월 1 일 기준, 제 2 사용자의 피부 상태 데이터가 2020년 2 월 1 일 기준일지라도, 제 2 사용자의 피부 상태 데이터가 입력 데이터이고 제 1 사용자의 피부 상태 데이터가 레이블 일 수 있다. 또한, 제 1 사용자는 여드름의 초기 단계이고, 제 2 사용자는 여드름이 발전하여 보다 큰 형태로 된 경우에는 제 1 사용자의 피부 상태 데이터가 입력 데이터이고 제 2 사용자의 피부 상태 데이터가 레이블 일 수 있다. 이를 통해 데이터 부족을 해소할 수 있으며, 적은 수의 데이터로도 높은 성능을 내는 예측 모델을 만들 수 있다. In an embodiment, as for the second learning data, among the data on the skin condition for the first user and the data on the skin condition for the second user, data at a previous time point on the basis of the user's life is input data, and data at a later time point is a label It may be training data composed of That is, it may be difficult to collect sufficient data for learning the skin condition data configured before and after the time point for the same user. Therefore, the second learning data may be data in which the data for learning is increased by configuring the input data and the label when there is a correlation between the user and the related information, even if the second learning data is data for a different user. That is, when the first user and the second user are different users or data that are related, the skin condition data for each user can be configured as a relationship between the input data and the label, and the learning data constructed in this way is 2 may be training data. Here, the correlation between users may be a correlation related to user information and the user's skin condition. For example, the first user and the second user are related by blood, the first user and the second user have similar body information such as gender and age, or the lifestyle information of the first user and the second user is similar. When there is a relationship, the skin analysis apparatus 200 may determine the first user and the second user as the related users. Before and after the time of determining the input data and the label in the second learning data can be determined based on the user's life, the development pattern of skin risk, and the like. That is, if the first user is 35 years old and the second user is 33 years old, even if the skin condition data of the first user is as of January 1, 2020 and the skin condition data of the second user is as of February 1, 2020, The skin condition data of the second user may be input data, and the skin condition data of the first user may be the label. In addition, when the first user is in the initial stage of acne, and the second user has the acne developed and has a larger shape, the skin condition data of the first user may be input data and the skin condition data of the second user may be the label. . Through this, the data shortage can be eliminated, and a predictive model with high performance can be created even with a small number of data.

실시예에서, 피부 위험 예측 모델은 시간에 따라 변화하는 데이터를 처리할 수 있는 형태의 인공 신경망 알고리즘 일 수 있다. 피부 위험 예측 모델은 예를 들어, LSTM 모델일 수 있으나 본 발명은 이에 제한되지 않는다. In an embodiment, the skin risk prediction model may be an artificial neural network algorithm capable of processing data that changes over time. The skin risk prediction model may be, for example, an LSTM model, but the present invention is not limited thereto.

실시예에서, 피부 분석 장치(200)는 피부 상태 또는 피부 위험 예측 정보 중 적어도 하나를 사용자 단말(300) 또는 스마트 거울(100) 중 적어도 하나로 전송할 수 있다. 피부 분석 장치(200)는 피부 상태 또는 피부 위험 예측 정보 중 적어도 하나를 사용자 단말(300) 또는 스마트 거울(100) 중 적어도 하나로 전송함으로써 예측 결과를 사용자에게 공유하고, 사용자에게 정보를 제공하고 사용자에게 행동을 촉구할 수 있다. In an embodiment, the skin analysis apparatus 200 may transmit at least one of skin condition and skin risk prediction information to at least one of the user terminal 300 and the smart mirror 100 . The skin analysis device 200 transmits at least one of skin condition or skin risk prediction information to at least one of the user terminal 300 or the smart mirror 100 to share the prediction result to the user, provide information to the user, and provide the user with the prediction result. can urge action.

실시예에서, 피부 분석 장치(200)는 사용자와 인터렉션 할 수 있다. 피부 분석 장치(200)는 사용자 이미지로부터 사용자 감정을 추출하고, 사용자의 음성 입력 또는 문자 입력에 대하여 대화 응답을 생성할 수 있다. 피부 분석 장치(200)는 사용자의 감정을 분석하여 사용자와 대화할 수 있다. 피부 분석 장치(200)는 스마트 거울(100) 또는 사용자 단말(300)이 사용자와 대화할 수 있도록 할 수 있다. 피부 분석 장치(200)는 사용자 감정을 분석하고 사용자에 대한 대화 응답을 생성함으로써, 일상에서 사용되는 스마트 거울(100)의 사용자가 감정적인 위안을 얻도록 할 수 있으며, 자신의 피부 상태를 측정하고, 피부 상태에 대한 위험 정보를 획득한 스마트 거울(100)의 사용자가 자신의 피부에 관련한 고민을 해결할 수 있는 방안을 제안할 수 있다. 피부 분석 장치(200)는 스마트 거울(100)의 사용자가 감정을 케어할 수 있도록 할 수 있다. 피부 분석 장치(200)는 사용자의 표정을 통해 감정을 분석할 수 있으므로, 단순한 자연어 처리를 통한 대화가 아닌 사용자의 감정에 따른 대화의 전개를 판단할 수 있다. In an embodiment, the skin analysis apparatus 200 may interact with a user. The skin analysis apparatus 200 may extract a user's emotion from the user's image and generate a dialogue response to the user's voice input or text input. The skin analysis apparatus 200 may communicate with the user by analyzing the user's emotions. The skin analysis apparatus 200 may allow the smart mirror 100 or the user terminal 300 to communicate with the user. The skin analysis device 200 may allow the user of the smart mirror 100 used in daily life to obtain emotional comfort by analyzing the user's emotions and generating a dialogue response to the user, measuring their skin condition, and , the user of the smart mirror 100 that has obtained risk information on the skin condition may propose a method for solving problems related to his or her skin. The skin analysis apparatus 200 may allow the user of the smart mirror 100 to take care of emotions. Since the skin analysis apparatus 200 may analyze the emotion through the user's facial expression, it is possible to determine the development of the dialogue according to the user's emotion, not the dialogue through simple natural language processing.

실시예에서, 사용자와의 대화를 위한 학습 데이터는 SNS 상의 데이터, 전화 데이터, 동영상 플랫폼에서 수집된 음성 데이터 등에 기초하여 구성될 수 있다. 피부 분석 장치(200)는 이에 기초하여 사용자와의 대화를 학습할 수 있다. In an embodiment, the learning data for conversation with the user may be configured based on data on SNS, phone data, voice data collected from a video platform, and the like. The skin analysis apparatus 200 may learn a conversation with the user based on this.

도 2에서 도시되는 바와 같이, 피부 분석 장치(200)는 프로세서(210), 메모리(230), 네트워크부(250)를 포함할 수 있다.As shown in FIG. 2 , the skin analysis apparatus 200 may include a processor 210 , a memory 230 , and a network unit 250 .

프로세서(210)는 피부 분석 장치(200)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 피부 분석 장치(200)에 저장된 프로그램을 실행함으로써, 피부 분석 장치(200) 내의 구성요소들을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(210)는 피부 분석 장치(200)의 동작을 위한 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 적어도 하나의 인스트럭션(instruction)을 처리하도록 구성될 수 있다. 상술된 인스트럭션은 메모리(230)로부터 프로세서(210)에 제공될 수 있다. 즉, 프로세서(210)는 메모리(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 인스트럭션을 실행하도록 구성될 수 있다. 혹은 인스트럭션은 네트워크부(250)를 통해 피부 분석 장치(200)로 수신되어 프로세서(210)로 제공될 수도 있다. 또한, 프로세서(210)는 하나 이상의 코어로 구성될 수 있으며, 중앙 처리 장치(CPU, central processing unit), 범용 그래픽 처리 장치 (GPGPU, general purpose graphics processing unit), 텐서 처리 장치(TPU, tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다. 프로세서(210)는 메모리(230)에 저장된 컴퓨터 프로그램을 판독하여 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 실시예에 따라, 프로세서(210)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(210)는 딥러닝(DL, deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(210)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에서 복수의 피부 분석 장치(200)의 프로세서(210)를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에 따른 피부 분석 장치(200)에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.The processor 210 may control the overall operation of the skin analysis apparatus 200 . For example, by executing a program stored in the skin analyzing apparatus 200 , the processor 210 may control overall components in the skin analyzing apparatus 200 . For example, the processor 210 may be configured to process at least one instruction by performing basic arithmetic, logic, and input/output operations for the operation of the skin analysis apparatus 200 . The above-described instructions may be provided to the processor 210 from the memory 230 . That is, the processor 210 may be configured to execute an instruction according to a program code stored in a recording device such as the memory 230 . Alternatively, the instruction may be received by the skin analysis apparatus 200 through the network unit 250 and provided to the processor 210 . In addition, the processor 210 may include one or more cores, a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU). ) may include a processor for data analysis, deep learning, etc. The processor 210 may read a computer program stored in the memory 230 and perform data processing for machine learning according to an embodiment. According to an embodiment, the processor 210 may perform an operation for learning the neural network. The processor 210 for learning of the neural network, such as processing input data for learning in deep learning (DL, deep learning), extracting features from the input data, calculating an error, updating the weight of the neural network using backpropagation calculations can be performed. At least one of a CPU, a GPGPU, and a TPU of the processor 210 may process learning of a network function. For example, the CPU and the GPGPU can process learning of a network function and data classification using the network function. Also, in an embodiment, learning of a network function and data classification using the network function may be processed by using the processors 210 of the plurality of skin analysis apparatuses 200 together. In addition, the computer program executed in the skin analysis apparatus 200 according to the embodiment may be a CPU, GPGPU, or TPU executable program.

실시예에서, 메모리(230)는 프로세서(210)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(250)가 수신한 임의의 형태의 정보를 저장할 수 있다.In an embodiment, the memory 230 may store any type of information generated or determined by the processor 210 and any type of information received by the network unit 250 .

실시예에서, 메모리(230)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 피부 분석 장치(200)는 인터넷(internet) 상에서 메모리(230)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리(230)에 대한 기재는 예시일 뿐, 본 실시예는 이에 제한되지 않는다.In an embodiment, the memory 230 is a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg, SD or XD memory). etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), It may include at least one type of storage medium among a magnetic memory, a magnetic disk, and an optical disk. The skin analysis apparatus 200 may operate in relation to a web storage that performs a storage function of the memory 230 on the Internet. The description of the above-described memory 230 is only an example, and the present embodiment is not limited thereto.

실시예에서, 따른 네트워크부(250)는 공중전화 교환망(PSTN, Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.In the embodiment, the network unit 250 according to the public switched telephone network (PSTN, Public Switched Telephone Network), xDSL (x Digital Subscriber Line), RADSL (Rate Adaptive DSL), MDSL (Multi Rate DSL), VDSL (Very High Speed) Various wired communication systems such as DSL), Universal Asymmetric DSL (UADSL), High Bit Rate DSL (HDSL), and Local Area Network (LAN) can be used.

실시예에서, 네트워크부(250)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다. In the embodiment, the network unit 250 is CDMA (Code Division Multi Access), TDMA (Time Division Multi Access), FDMA (Frequency Division Multi Access), OFDMA (Orthogonal Frequency Division Multi Access), SC-FDMA (Single Carrier-) A variety of wireless communication systems may be used, such as FDMA) and other systems.

실시예에서, 네트워크부(250)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN, Personal Area Network), 근거리 통신망(WAN, Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW, World Wide Web)일 수 있으며, 적외선(IrDA, Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.In the embodiment, the network unit 250 may be configured regardless of its communication mode, such as wired and wireless, and is composed of various communication networks, such as a short-range network (PAN, Personal Area Network), and a local area network (WAN, Wide Area Network). can be In addition, the network may be a well-known World Wide Web (WWW), and may use a wireless transmission technology used for short-range communication, such as infrared (IrDA) or Bluetooth (Bluetooth).

도 2에 도시된 피부 분석 장치(200)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 실시예에서 피부 분석 장치(200)는 피부 분석 장치(200)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 피부 분석 장치(200)를 구성할 수도 있다. The configuration of the skin analysis apparatus 200 shown in FIG. 2 is only a simplified example. In an embodiment, the skin analysis apparatus 200 may include other components for performing the computing environment of the skin analysis apparatus 200 , and only some of the disclosed components may constitute the skin analysis apparatus 200 .

도 3은 본 발명의 실시예에 따른 대화 시스템을 도시한다.3 shows a dialogue system according to an embodiment of the present invention.

대화 시스템은 피부 분석 시스템 내에 구현되어, 사용자와 통신하기 위한 것으로서, 구체적으로, 스마트 거울(100), 사용자 단말(300), 피부 분석 장치(200) 중 적어도 하나에 구현될 수 있으나, 설명의 편의를 위해 피부 분석 장치(200)에 구현되는 것으로 기술한다.The dialog system is implemented in the skin analysis system to communicate with the user, and specifically, it may be implemented in at least one of the smart mirror 100 , the user terminal 300 , and the skin analysis device 200 , but for convenience of description It is described as being implemented in the skin analysis device 200 for this purpose.

대화 시스템은 감정 대화 시나리오 수집 도구, 감정 대화 시나리오 정제 도구, 감정 대화 시나리오 의도 자동생성 도구, 감정 대화 의도 관계망, 대화 관리 도구, 삼정 대화 시나리오 관리 도구로 구성될 수 있다. The dialogue system may be composed of an emotional dialogue scenario collection tool, an emotional dialogue scenario refining tool, an emotional dialogue scenario intention automatic creation tool, an emotional dialogue intention relationship network, a dialogue management tool, and a Samjeong dialogue scenario management tool.

또한, 대화 시스템은 콜센터 전화 기록, 사용자 단말(300)에서 수십된 영상, 음성 정보, SNS에서 수집된 text 정보 등에 기초하여 감정 대화 시나리오를 수집할 수 있다. In addition, the conversation system may collect emotional conversation scenarios based on call center call records, video and voice information collected from the user terminal 300 , text information collected from SNS, and the like.

피부 분석 장치(200)는 감정 대화 시나리오 정제 도구에서 감정 대화 시나리오를 수집하고 이를 정제하고, 의도를 추출할 수 있다. 감정 대화 시나리오 정제 도구는 수집된 감정 대화 데이터에 대한 전처리를 수행할 수 있다. 전처리는 오류의 수정, 오탈자의 수정, 어체의 변환 등이 포함될 수 있다. The skin analysis apparatus 200 may collect emotional dialogue scenarios from the emotional dialogue scenario refinement tool, refine them, and extract intentions. The emotional conversation scenario refinement tool may perform pre-processing on the collected emotional conversation data. Pre-processing may include correction of errors, correction of typos, and transformation of words.

피부 분석 장치(200)는 감정 대화 시나리오를 수집된 대화 시나리오, 컴퓨터에서 생성된 대화에 대한 사용자 반응 등에 기초하여 관리할 수 있다. The skin analysis apparatus 200 may manage the emotional conversation scenario based on the collected conversation scenario, the user's reaction to the conversation generated by the computer, and the like.

피부 분석 장치(200)는 감정 대화 의도 관계망을 이용하여 사용자의 대화에 대한 반응을 생성할 수 있다. The skin analysis apparatus 200 may generate a response to the user's conversation by using the emotional conversation intention relationship network.

도 4는 본 발명의 실시예에 따라 인공 신경 네트워크를 설명하기 위한 도면이다.4 is a diagram for explaining an artificial neural network according to an embodiment of the present invention.

본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.Throughout this specification, computational model, neural network, network function, and neural network may be used interchangeably. A neural network may be composed of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. A neural network is configured to include at least one or more nodes. Nodes (or neurons) constituting the neural networks may be interconnected by one or more links.

신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다. In the neural network, one or more nodes connected through a link may relatively form a relationship between an input node and an output node. The concepts of an input node and an output node are relative, and any node in an output node relationship with respect to one node may be in an input node relationship in a relationship with another node, and vice versa. As described above, an input node-to-output node relationship may be created around a link. One or more output nodes may be connected to one input node through a link, and vice versa.

하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In the relationship between the input node and the output node connected through one link, the value of the data of the output node may be determined based on data input to the input node. Here, a link interconnecting the input node and the output node may have a weight. The weight may be variable, and may be changed by the user or algorithm in order for the neural network to perform a desired function. For example, when one or more input nodes are interconnected to one output node by respective links, the output node sets values input to input nodes connected to the output node and links corresponding to the respective input nodes. An output node value may be determined based on the weight.

상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, in a neural network, one or more nodes are interconnected through one or more links to form an input node and an output node relationship in the neural network. The characteristics of the neural network may be determined according to the number of nodes and links in the neural network, the correlation between the nodes and the links, and the value of a weight assigned to each of the links. For example, when the same number of nodes and links exist and there are two neural networks having different weight values of the links, the two neural networks may be recognized as different from each other.

신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.A neural network may consist of a set of one or more nodes. A subset of nodes constituting the neural network may constitute a layer. Some of the nodes constituting the neural network may configure one layer based on distances from the initial input node. For example, a set of nodes having a distance n from the initial input node may constitute n layers. The distance from the initial input node may be defined by the minimum number of links that must be traversed to reach the corresponding node from the initial input node. However, the definition of such a layer is arbitrary for description, and the order of the layer in the neural network may be defined in a different way from the above. For example, a layer of nodes may be defined by a distance from the final output node.

최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. The initial input node may mean one or more nodes to which data is directly input without going through a link in a relationship with other nodes among nodes in the neural network. Alternatively, in a relationship between nodes based on a link in a neural network, it may mean nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in relation to other nodes among nodes in the neural network. In addition, the hidden node may mean nodes constituting the neural network other than the first input node and the last output node.

본 발명의 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 발명의 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 발명의 또 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 발명의 또 다른 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.The neural network according to an embodiment of the present invention may have the same number of nodes in the input layer as the number of nodes in the output layer, and may be a neural network in which the number of nodes decreases and then increases again as progresses from the input layer to the hidden layer. have. In addition, the neural network according to another embodiment of the present invention may be a neural network in which the number of nodes in the input layer may be less than the number of nodes in the output layer, and the number of nodes decreases as the number of nodes progresses from the input layer to the hidden layer. . In addition, in the neural network according to another embodiment of the present invention, the number of nodes in the input layer may be greater than the number of nodes in the output layer, and the number of nodes may increase as the number of nodes progresses from the input layer to the hidden layer. have. The neural network according to another embodiment of the present invention may be a neural network in the form of a combination of the aforementioned neural networks.

딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 발명은 이에 제한되지 않는다. A deep neural network (DNN) may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can be used to identify the latent structures of data. In other words, it can identify the potential structure of photos, texts, videos, voices, and music (e.g., what objects are in the photos, what the text and emotions are, what the texts and emotions are, etc.) . Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted boltzmann machines (RBMs). machine), a deep belief network (DBN), a Q network, a U network, a Siamese network, and a Generative Adversarial Network (GAN). The description of the deep neural network described above is only an example, and the present invention is not limited thereto.

본 발명의 실시예에서 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.In an embodiment of the present invention, the network function may include an autoencoder. The auto-encoder may be a kind of artificial neural network for outputting output data similar to input data. The auto encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between the input/output layers. The number of nodes in each layer may be reduced from the number of nodes in the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with reduction from the bottleneck layer to the output layer (symmetrical to the input layer). Autoencoders can perform non-linear dimensionality reduction. The number of input layers and output layers may correspond to a dimension after preprocessing the input data. In the auto-encoder structure, the number of nodes of the hidden layer included in the encoder may have a structure that decreases as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes between the encoder and decoder) is too small, a sufficient amount of information may not be conveyed, so a certain number or more (e.g., more than half of the input layer, etc.) ) may be maintained.

뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다. The neural network may be trained using at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. Learning of the neural network may be a process of applying knowledge for the neural network to perform a specific operation to the neural network.

뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.A neural network can be trained in a way that minimizes output errors. In the training of a neural network, iteratively input the training data into the neural network, calculate the output of the neural network and the target error for the training data, and calculate the error of the neural network from the output layer of the neural network to the input layer in the direction to reduce the error. It is the process of updating the weight of each node of the neural network by backpropagation in the direction. In the case of teacher learning, learning data in which the correct answer is labeled in each learning data is used (ie, labeled learning data), and in the case of comparative learning, the correct answer may not be labeled in each learning data. That is, for example, the learning data in the case of teacher learning regarding data classification may be data in which categories are labeled for each of the learning data. Labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data. As another example, in the case of comparison learning about data classification, an error may be calculated by comparing the input training data with the output of the neural network. The calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation. A change amount of the connection weight of each node to be updated may be determined according to a learning rate. The computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of repetitions of the learning cycle of the neural network. For example, in the early stage of learning of a neural network, a high learning rate can be used to increase the efficiency by allowing the neural network to quickly obtain a certain level of performance, and in the late learning period, a low learning rate can be used to increase accuracy.

뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.In training of a neural network, in general, the training data may be a subset of real data (that is, data to be processed using the trained neural network), and thus the error on the training data is reduced, but the error on the real data is reduced. There may be increasing learning cycles. Overfitting is a phenomenon in which errors on actual data increase by over-learning on training data as described above. For example, a phenomenon in which a neural network that has learned a cat by seeing a yellow cat does not recognize that it is a cat when it sees a cat other than yellow may be a type of overfitting. Overfitting can act as a cause of increasing errors in machine learning algorithms. In order to prevent such overfitting, various optimization methods can be used. In order to prevent overfitting, methods such as increasing the training data, regularization, and dropout that deactivate some of the nodes of the network in the process of learning, and the use of a batch normalization layer are applied. can

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 또한 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 실시예와 다른 실시예의 일부분들이 서로 조합되어 장치의 동작이 운용될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. In addition, each embodiment may be operated in combination with each other as needed. For example, the operation of the device may be operated by combining parts of one embodiment and another embodiment with each other. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (13)

피부 분석 장치의 하나 이상의 프로세서에서 수행되는 방법으로서,
획득된 사용자 이미지로부터 얼굴 관심 영역을 추출하는 단계;
상기 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 상기 하나 이상의 패치 각각에 대하여 피부 상태를 판단하는 단계; 및
상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측하는 단계를 포함하는, 방법.
A method performed on one or more processors of a skin analysis device, comprising:
extracting a facial ROI from the acquired user image;
segmenting the facial region of interest into one or more patches, and determining a skin condition for each of the one or more patches; and
predicting a skin risk to the user based on the skin condition.
제 1 항에 있어서,
상기 사용자 이미지는 스마트 거울에 내장된 카메라로부터 촬영되어 전송된 이미지인, 방법.
The method of claim 1,
The method of claim 1, wherein the user image is an image captured and transmitted from a camera built into the smart mirror.
제 1 항에 있어서,
상기 피부 상태를 판단하는 단계는, 상기 패치를 학습된 인공 신경망을 포함하는 피부 상태 판단 모델로 처리함으로써 수행되는, 방법.
The method of claim 1,
The step of determining the skin condition is performed by processing the patch with a skin condition determination model including a learned artificial neural network.
제 3 항에 있어서,
상기 피부 상태 판단 모델은, 상기 패치에서 엣지 패턴 또는 색상 패턴을 추출하도록 학습되는 제 1 서브 모델과 상기 제 1 서브 모델의 출력에 기초하여 피부 상태를 판단하도록 학습되는 제 2 서브 모델로 구성되는, 방법.
4. The method of claim 3,
The skin condition determination model is composed of a first sub-model trained to extract an edge pattern or color pattern from the patch and a second sub-model trained to determine a skin condition based on an output of the first sub-model, Way.
제 1 항에 있어서,
상기 피부 상태를 판단하는 단계는, 상기 각각의 패치에서 엣지 디텍션을 통해 상기 패치에 존재하는 피부 주름을 탐색하고, 상기 피부 주름과 상기 패치의 정상 피부의 비율에 기초하여 패치 별 주름 상태를 판단하는 단계를 포함하는, 방법.
The method of claim 1,
The step of determining the skin condition includes searching for skin wrinkles existing in the patch through edge detection in each patch, and determining the wrinkle condition for each patch based on the ratio of the skin wrinkles to the normal skin of the patch. A method comprising steps.
제 1 항에 있어서,
상기 피부 상태를 판단하는 단계는, 상기 각각의 패치에 포함된 각각의 픽셀 별 색상 분포에 적어도 부분적으로 기초하여 상기 각각의 패치에 잡티 상태를 판단하는 단계를 포함하는, 방법.
The method of claim 1,
The determining of the skin condition includes determining the blemish state in each patch based at least in part on a color distribution for each pixel included in each patch.
제 1 항에 있어서,
상기 피부 상태를 판단하는 단계는, 상기 각각의 패치의 색상 정보에 기초하여 상기 각각의 패치에 대한 미백 상태를 판단하는 단계를 포함하는, 방법.
The method of claim 1,
The determining of the skin condition includes determining a whitening state for each patch based on color information of each patch.
제 1 항에 있어서,
상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측하는 단계는, 피부 상태에 기초하여 피부 위험 요소의 종류, 예상 발생 시간, 또는 예상 발생 정도 중 적어도 하나를 예측하도록 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측 단계를 포함하는, 방법.
The method of claim 1,
The step of predicting the skin risk to the user based on the skin condition includes using a skin risk prediction model trained to predict at least one of a type of a skin risk factor, an expected occurrence time, or an expected occurrence level based on the skin condition. predicting skin risk to the user using
제 1 항에 있어서,
상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측하는 단계는, 하나의 사용자에 대한 둘 이상의 시점의 피부 상태에 기초한 제 1 학습 데이터, 또는 서로 상이한 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 2 학습 데이터 중 적어도 하나에 기초하여 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측하는 단계를 포함하는, 방법.
The method of claim 1,
Predicting the skin risk for the user based on the skin condition may include: first learning data based on skin conditions at two or more time points for one user, or second learning data based on skin conditions at two or more time points of different users. 2 Using a skin risk prediction model trained based on at least one of the training data to predict a skin risk for the user.
제 1 항에 있어서,
상기 피부 상태 또는 피부 위험 예측 정보 중 적어도 하나를 사용자 단말 또는 스마트 거울 중 적어도 하나로 전송하는 단계를 더 포함하는, 방법.
The method of claim 1,
The method further comprising the step of transmitting at least one of the skin condition or skin risk prediction information to at least one of a user terminal or a smart mirror.
제 1 항에 있어서,
상기 획득된 사용자 이미지로부터 사용자 감정을 추출하는 단계; 및
사용자 음성 데이터를 분석하여 사용자에 대한 대화 응답을 생성하는 단계를 더 포함하는, 방법.
The method of claim 1,
extracting user emotion from the obtained user image; and
and analyzing the user voice data to generate a dialog response to the user.
제 1 항 내지 제 11 항 중 어느 한 항에 따른 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램.A computer program stored on a medium for performing the method according to any one of claims 1 to 11. 피부 분석 장치로서,
컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및
상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고,
상기 프로세서는, 획득된 사용자 이미지로부터 얼굴 관심 영역을 추출하고, 상기 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 상기 하나 이상의 패치 각각에 대하여 피부 상태를 판단하며, 상기 피부 상태에 기초하여 상기 사용자에 대한 피부 위험을 예측하는, 장치.
A skin analysis device comprising:
a memory for storing computer executable instructions; and
a processor for executing instructions stored in the memory;
The processor extracts a facial ROI from the acquired user image, divides the facial ROI into one or more patches, determines a skin condition for each of the one or more patches, and provides For predicting skin risk, the device.
KR1020210032524A 2021-03-12 2021-03-12 System for analyzing skin KR20220128015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210032524A KR20220128015A (en) 2021-03-12 2021-03-12 System for analyzing skin

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210032524A KR20220128015A (en) 2021-03-12 2021-03-12 System for analyzing skin

Publications (1)

Publication Number Publication Date
KR20220128015A true KR20220128015A (en) 2022-09-20

Family

ID=83446758

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210032524A KR20220128015A (en) 2021-03-12 2021-03-12 System for analyzing skin

Country Status (1)

Country Link
KR (1) KR20220128015A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116328197A (en) * 2023-02-17 2023-06-27 梦创康健(北京)电子商务科技有限公司 Control method and device for beauty mask

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116328197A (en) * 2023-02-17 2023-06-27 梦创康健(北京)电子商务科技有限公司 Control method and device for beauty mask
CN116328197B (en) * 2023-02-17 2023-10-24 梦创康健(北京)电子商务科技有限公司 Control method and device for beauty mask

Similar Documents

Publication Publication Date Title
CN110892417B (en) Asynchronous agent with learning coaches and structurally modifying deep neural networks without degrading performance
KR20230021043A (en) Method and apparatus for recognizing object, and method and apparatus for learning recognizer
US11093734B2 (en) Method and apparatus with emotion recognition
KR102582194B1 (en) Selective backpropagation
KR102564854B1 (en) Method and apparatus of recognizing facial expression based on normalized expressiveness and learning method of recognizing facial expression
US11501563B2 (en) Image processing method and system
CN110276248B (en) Facial expression recognition method based on sample weight distribution and deep learning
CN111695415A (en) Construction method and identification method of image identification model and related equipment
KR20160061856A (en) Method and apparatus for recognizing object, and method and apparatus for learning recognizer
KR102548732B1 (en) Apparatus and Method for learning a neural network
KR102306658B1 (en) Learning method and device of generative adversarial network for converting between heterogeneous domain data
US20220059117A1 (en) Methods and Systems for Implementing On-Device Non-Semantic Representation Fine-Tuning for Speech Classification
US20230095606A1 (en) Method for training classifier, and data processing method, system, and device
Ali et al. Facial emotion detection using neural network
CN111368672A (en) Construction method and device for genetic disease facial recognition model
WO2020190480A1 (en) Classifying an input data set within a data category using multiple data recognition tools
US20240037187A1 (en) Video domain adaptation via contrastive learning
CN116051388A (en) Automatic photo editing via language request
US11556780B2 (en) Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored
KR20220128015A (en) System for analyzing skin
CN113723587A (en) Differential learning for learning networks
KR102447426B1 (en) Method, device and system for recommending lifestyle guide information analyzing personal color and timeline based behavioral data for hyper personalization
KR20210089038A (en) Electronic apparatus and method for controlling thereof
KR20220128016A (en) System for analyzing skin
Rego et al. Predicting Gender of Brazilian Names Using Deep Learning