KR102356465B1 - Method and server for face registration and face analysis - Google Patents

Method and server for face registration and face analysis Download PDF

Info

Publication number
KR102356465B1
KR102356465B1 KR1020190169268A KR20190169268A KR102356465B1 KR 102356465 B1 KR102356465 B1 KR 102356465B1 KR 1020190169268 A KR1020190169268 A KR 1020190169268A KR 20190169268 A KR20190169268 A KR 20190169268A KR 102356465 B1 KR102356465 B1 KR 102356465B1
Authority
KR
South Korea
Prior art keywords
region
interest
data
face model
dimensional
Prior art date
Application number
KR1020190169268A
Other languages
Korean (ko)
Other versions
KR102356465B9 (en
KR20210077533A (en
Inventor
이성환
고한빈
이재웅
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020190169268A priority Critical patent/KR102356465B1/en
Publication of KR20210077533A publication Critical patent/KR20210077533A/en
Application granted granted Critical
Publication of KR102356465B1 publication Critical patent/KR102356465B1/en
Publication of KR102356465B9 publication Critical patent/KR102356465B9/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

본원의 일 측면에 따른 사용자 얼굴 피부 분석 방법은 사용자 단말로부터 수신된 제 1 얼굴 영상과 제 2얼굴 영상을 기초로 삼차원 좌표 데이터를 포함하는 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 각각 생성하는 단계; 제 1 삼차원 얼굴 모형에서 사용자가 지정한 제 1 관심영역의 삼차원 좌표 데이터를 기초로 제 2 삼차원 얼굴 모형에서 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정하는 단계; 제 1 삼차원 얼굴 모형의 제 1 관심 영역과 제 2 삼차원 얼굴 모형의 제 2 관심 영역의 삼차원 좌표 데이터 및 개별 특징 데이터에 기초하여 제 1 관심 영역과 제 2 관심 영역을 매칭시키는 단계; 매칭된 제 1 관심 영역과 제 2 관심 영역에서 변화 데이터를 추출하여 비교 분석 데이터를 생성하고, 개별 특징 데이터 및 비교 분석 데이터를 포함하는 피부 변화 분석 결과 데이터를 생성하여 사용자 단말에 제공하는 단계;를 포함한다.A user facial skin analysis method according to an aspect of the present application is to generate a first three-dimensional face model and a second three-dimensional face model including three-dimensional coordinate data based on the first face image and the second face image received from the user terminal, respectively step; specifying a second region of interest matching the first region of interest in a second three-dimensional face model based on the three-dimensional coordinate data of the first region of interest designated by a user in the first three-dimensional face model; matching the first region of interest and the second region of interest based on three-dimensional coordinate data and individual feature data of the first region of interest of the first three-dimensional face model and the second region of interest of the second three-dimensional face model; extracting change data from the matched first region of interest and the second region of interest to generate comparative analysis data, generating skin change analysis result data including individual feature data and comparative analysis data, and providing it to a user terminal; include

Description

사용자 얼굴 피부 분석 방법 및 서버{METHOD AND SERVER FOR FACE REGISTRATION AND FACE ANALYSIS}User facial skin analysis method and server

본 발명은 사용자 얼굴 피부 분석 방법에 관한 것으로, 보다 상세하게는 카메라를 통해 얻은 동일 인물의 전후 얼굴 사진을 취득하여 얼굴에 대한 3차원 모형을 추정한 후 두 사진 간의 영역 매칭을 진행한 후 선택된 영역에 대해 피부 분석 및 비교를 진행하는 방법에 관한 것이다.The present invention relates to a user's facial skin analysis method, and more particularly, a 3D model of the face is estimated by acquiring a before and after face photo of the same person obtained through a camera, and then a selected area is performed after performing area matching between the two photos. It relates to a method of conducting skin analysis and comparison for

최근 헬스케어나 미에 대한 관심이 증가하면서 피부 상태를 진단하고 관리해주는 여러 시스템들이 등장하고 있다. 기존에는 병원에서 주기적으로 환자를 모니터링하고 직접 관리 및 솔루션을 제공하는 방식을 사용하였지만, 최근에는 특수한 장비를 이용하여 촬영된 사용자의 영상만으로도 다양한 피부 트러블을 진단하고 일정 수준의 솔루션 제공이 가능한 시스템들이 개발되어 사용되고 있다.Recently, as interest in health care and beauty increases, various systems for diagnosing and managing skin conditions are emerging. In the past, hospitals used the method of monitoring patients on a regular basis and providing direct management and solutions. developed and used.

종래의 촬영 영상을 이용한 피부 분석 및 솔루션 제공의 경우 전과 후의 상황을 비교할 때 특정 영역에 대한 변화를 보여주기보다는 전체 얼굴 또는 사전에 지정된 큰 영역 안에서 얼마나 개선 또는 악화가 되었는지 말해주는데 이는 정확히 어떤 영역에서 피부가 손상되었거나 개선되었는지 보여주지 못한다. 이로써 사용자는 관심 영역에 대한 변화 정보를 얻기보다는 전체적인 변화만 볼 수가 있다. 즉 이는 사용자의 관심 영역에 대한 정보가 포함되지 않을뿐더러, 변화된 부분을 따로 보여주지 않기 때문에 신뢰성이 낮아질 수 있다.In the case of skin analysis and solution provision using conventional captured images, when comparing the before and after situations, it tells how much improvement or deterioration has occurred within the entire face or a large pre-specified area rather than showing changes in a specific area. It does not show whether the skin has been damaged or improved. Accordingly, the user can view only the overall change rather than obtain change information on the region of interest. That is, since information on the user's ROI is not included and the changed part is not separately shown, reliability may be lowered.

이러한 문제를 해결하기 위해서는 피부 변화 전과 후의 상태에 대해 더욱 자세히 알려주어야 할 필요성이 있다. 예로 들자면, 단순히 피부가 3점에서 4점으로 개선되었다는 것보다는 오른쪽 볼 및 입 주변 영역에서 여드름이 60% 없어졌다고 말하는 것이 소비자로선 훨씬 도움이 될 것이다.In order to solve this problem, it is necessary to inform more about the condition before and after skin change. For example, it would be much more helpful for consumers to say that the acne on the right cheek and the area around the mouth is 60% gone, rather than simply improving the skin from 3 to 4 points.

대한민국 공개특허공보 제 10-2019-0084771 호 (발명의 명칭: 피부 상태 측정용 모듈)Republic of Korea Patent Publication No. 10-2019-0084771 (Title of the invention: module for skin condition measurement)

본 발명은 전술한 문제점을 해결하기 위한 것으로, 한 쌍의 전후 얼굴 영상을 통해 정확한 영역 매칭을 진행함으로써, 특정 얼굴 영역에 대한 정확한 피부 상태 분석과 특정 영역에서의 전후 사진에 대한 비교분석을 진행할 수 있는 시스템을 제공하는 것을 기술적 과제로 한다. The present invention is to solve the above problem, and by performing accurate region matching through a pair of before and after face images, accurate skin condition analysis for a specific face region and comparative analysis of before and after photos in a specific region can be performed. It is a technical task to provide a system that has

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical task to be achieved by the present embodiment is not limited to the technical task as described above, and other technical tasks may exist.

상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 개시의 제 1측면에 따른 사용자 얼굴 피부 분석 방법은 사용자 단말로부터 수신된 제 1 얼굴 영상과 제 2얼굴 영상을 기초로 삼차원 좌표 데이터를 포함하는 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 각각 생성하는 단계; 제 1 삼차원 얼굴 모형에서 사용자가 지정한 제 1 관심영역의 삼차원 좌표 데이터를 기초로 제 2 삼차원 얼굴 모형에서 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정하는 단계; 제 1 삼차원 얼굴 모형의 제 1 관심 영역과 제 2 삼차원 얼굴 모형의 제 2 관심 영역의 삼차원 좌표 데이터 및 개별 특징 데이터에 기초하여 제 1 관심 영역과 제 2 관심 영역을 매칭시키는 단계; 매칭된 제 1 관심 영역과 제 2 관심 영역에서 변화 데이터를 추출하여 비교 분석 데이터를 생성하고, 개별 특징 데이터 및 비교 분석 데이터를 포함하는 피부 변화 분석 결과 데이터를 생성하여 사용자 단말에 제공하는 단계;를 포함한다.As a technical means for solving the above-described technical problem, the user facial skin analysis method according to the first aspect of the present disclosure includes a first face image and a second face image received from a user terminal, including three-dimensional coordinate data based on the first face image and the second face image. generating a first three-dimensional face model and a second three-dimensional face model, respectively; specifying a second region of interest matching the first region of interest in a second three-dimensional face model based on the three-dimensional coordinate data of the first region of interest designated by a user in the first three-dimensional face model; matching the first region of interest and the second region of interest based on three-dimensional coordinate data and individual feature data of the first region of interest of the first three-dimensional face model and the second region of interest of the second three-dimensional face model; extracting change data from the matched first region of interest and the second region of interest to generate comparative analysis data, generating skin change analysis result data including individual feature data and comparative analysis data, and providing it to a user terminal; include

또한, 본 개시의 제 2 측면에 따른 사용자 얼굴 피부 분석 서버는 사용자 얼굴 피부 분석 프로그램이 저장된 메모리; 상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함한다. 상기 프로세서는 상기 프로그램의 실행에 의해, 사용자 단말로부터 수신된 제 1 얼굴 영상과 제 2얼굴 영상을 기초로 삼차원 좌표 데이터를 포함하는 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 각각 생성하고, 상기 제 1 삼차원 얼굴 모형에서 사용자가 지정한 제 1 관심영역의 삼차원 좌표 데이터를 기초로 제 2 삼차원 얼굴 모형에서 상기 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정하고, 상기 제 1 삼차원 얼굴 모형의 제 1 관심 영역과 상기 제 2 삼차원 얼굴 모형의 제 2 관심 영역의 삼차원 좌표 데이터 및 개별 특징 데이터에 기초하여 상기 제 1 관심 영역과 제 2 관심 영역을 매칭시키고, 상기 매칭된 제 1 관심 영역과 제 2 관심 영역에서 변화 데이터를 추출하여 비교 분석 데이터를 생성하고, 상기 개별 특징 데이터 및 상기 비교 분석 데이터를 포함하는 피부 변화 분석 결과 데이터를 생성하여 상기 사용자 단말에 제공한다.In addition, the user facial skin analysis server according to the second aspect of the present disclosure includes a memory in which a user facial skin analysis program is stored; and a processor executing the program stored in the memory. The processor generates a first three-dimensional face model and a second three-dimensional face model each including three-dimensional coordinate data based on the first face image and the second face image received from the user terminal by executing the program, and specifying a second region of interest matching the first region of interest in a second three-dimensional face model based on the three-dimensional coordinate data of the first region of interest designated by the user in the first three-dimensional face model; matching the first region of interest with a second region of interest based on three-dimensional coordinate data and individual feature data of the first region of interest and the second region of interest of the second three-dimensional face model, and matching the first region of interest with the second region of interest; Comparative analysis data is generated by extracting change data from the region of interest, and skin change analysis result data including the individual characteristic data and the comparative analysis data is generated and provided to the user terminal.

전술한 본원의 과제 해결 수단 중 어느 하나에 의하면, 한 쌍의 얼굴 영상으로 어떠한 장소에서든 용이하고 빠르게 피부 상태를 비교분석 할 수 있다.According to any one of the above-described problem solving means of the present application, it is possible to easily and quickly compare and analyze the skin condition in any place with a pair of face images.

또한, 본 발명에 의한 관심 영역에 대한 피부 비교분석 방법은 사용자가 원하는 또는 사전에 설정된 특정한 영역에 대한 비교분석을 진행함으로써 더욱 효과적이고 유의미한 비교분석을 진행할 수 있다.In addition, the skin comparative analysis method for a region of interest according to the present invention can perform a more effective and meaningful comparative analysis by performing comparative analysis on a specific region desired by the user or set in advance.

도 1은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 서버의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 시스템의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법의 진행 단계를 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법을 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법을 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법을 설명하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법에서 매칭 및 정합을 설명하는 도면이다.
도 8은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법에서 분석 결과를 설명하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법에서 히스토그램을 설명하는 도면이다.
1 is a block diagram illustrating a configuration of a user facial skin analysis server according to an embodiment of the present invention.
2 is a block diagram illustrating the configuration of a user's facial skin analysis system according to an embodiment of the present invention.
3 is a flowchart illustrating a process step of a user facial skin analysis method according to an embodiment of the present invention.
4 is a view for explaining a user's facial skin analysis method according to an embodiment of the present invention.
5 is a view for explaining a user's facial skin analysis method according to an embodiment of the present invention.
6 is a view for explaining a user's facial skin analysis method according to an embodiment of the present invention.
7 is a view for explaining matching and matching in a user facial skin analysis method according to an embodiment of the present invention.
8 is a view for explaining an analysis result in a method for analyzing a user's face skin according to an embodiment of the present invention.
9 is a view for explaining a histogram in a method for analyzing user's face skin according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 “상에” 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is said to be located “on” another member, this includes not only a case in which a member is in contact with another member but also a case in which another member is present between the two members.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 서버의 구성을 도시한 블록도이다. 1 is a block diagram illustrating a configuration of a user facial skin analysis server according to an embodiment of the present invention.

도시된 바와 같이 사용자 얼굴 피부 분석 서버(100)는 통신 모듈(110), 메모리(120), 프로세서(130), 데이터베이스(140) 및 입력모듈(150)을 포함할 수 있다.As shown, the user facial skin analysis server 100 may include a communication module 110 , a memory 120 , a processor 130 , a database 140 , and an input module 150 .

통신모듈(110)은 접속된 사용자 단말(200)과 데이터를 송수신할 수 있다. 통신모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The communication module 110 may transmit/receive data to and from the connected user terminal 200 . The communication module 110 may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals through wired/wireless connection with other network devices.

메모리(120)에는 사용자 얼굴 피부 분석 프로그램이 저장된다. 사용자 얼굴 피부 분석 프로그램은 사용자 단말로부터 수신된 제 1 얼굴 영상과 제 2얼굴 영상을 기초로 삼차원 좌표 데이터를 포함하는 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 각각 생성하고, 상기 제 1 삼차원 얼굴 모형에서 사용자가 지정한 제 1 관심영역의 삼차원 좌표 데이터를 기초로 제 2 삼차원 얼굴 모형에서 상기 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정하고, 상기 제 1 삼차원 얼굴 모형의 제 1 관심 영역과 상기 제 2 삼차원 얼굴 모형의 제 2 관심 영역의 삼차원 좌표 데이터 및 개별 특징 데이터에 기초하여 상기 제 1 관심 영역과 제 2 관심 영역을 매칭시키고, 상기 매칭된 제 1 관심 영역과 제 2 관심 영역에서 변화 데이터를 추출하여 비교 분석 데이터를 생성하고, 상기 개별 특징 데이터 및 상기 비교 분석 데이터를 포함하는 피부 변화 분석 결과 데이터를 생성하여 상기 사용자 단말에 제공한다.The memory 120 stores a user facial skin analysis program. The user face skin analysis program generates a first three-dimensional face model and a second three-dimensional face model including three-dimensional coordinate data based on the first face image and the second face image received from the user terminal, respectively, and the first three-dimensional face A second region of interest that matches the first region of interest in a second three-dimensional face model is specified based on the three-dimensional coordinate data of the first region of interest specified by the user in the model, and the first region of interest of the first three-dimensional face model and Matching the first region of interest with a second region of interest based on three-dimensional coordinate data and individual feature data of a second region of interest of the second three-dimensional face model, and changing the matched first region of interest and second region of interest The data is extracted to generate comparative analysis data, and skin change analysis result data including the individual characteristic data and the comparative analysis data is generated and provided to the user terminal.

이러한 메모리(120)에는 사용자 얼굴 피부 분석 서버(100)의 구동을 위한 운영 체제나 사용자 얼굴 피부 분석 프로그램의 실행 과정에서 발생되는 여러 종류가 데이터가 저장된다. The memory 120 stores various types of data generated during the execution of an operating system for driving the user's facial skin analysis server 100 or a user's facial skin analysis program.

이때, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다. In this case, the memory 120 collectively refers to a non-volatile storage device that continuously maintains stored information even when power is not supplied, and a volatile storage device that requires power to maintain the stored information.

또한, 메모리(120)는 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(120)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.In addition, the memory 120 may perform a function of temporarily or permanently storing data processed by the processor 130 . Here, the memory 120 may include magnetic storage media or flash storage media in addition to the volatile storage device that requires power to maintain stored information, but the scope of the present invention is limited thereto. it is not going to be

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행하되, 사용자 얼굴 피부 분석 프로그램의 실행에 따르는 전체 과정을 제어한다. 프로세서(130)가 수행하는 각각의 동작에 대해서는 추후 보다 상세히 살펴보기로 한다.The processor 130 executes the program stored in the memory 120, but controls the entire process according to the execution of the user's facial skin analysis program. Each operation performed by the processor 130 will be described in more detail later.

이러한 프로세서(130)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이 크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The processor 130 may include all kinds of devices capable of processing data. For example, it may refer to a data processing device embedded in hardware having a physically structured circuit to perform a function expressed as code or instructions included in a program. As an example of the data processing device embedded in the hardware as described above, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific (ASIC) An integrated circuit) and a processing device such as a field programmable gate array (FPGA) may be included, but the scope of the present invention is not limited thereto.

데이터베이스(140)는 프로세서(130)의 제어에 따라, 사용자 얼굴 피부 분석 시스템에 필요한 데이터를 저장 또는 제공한다. 이러한 데이터베이스(140)는 메모리(120)와는 별도의 구성 요소로서 포함되거나, 또는 메모리(120)의 일부 영역에 구축될 수도 있다.The database 140 stores or provides data necessary for the user's facial skin analysis system under the control of the processor 130 . The database 140 may be included as a component separate from the memory 120 , or may be built in a partial area of the memory 120 .

도 2는 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 시스템의 구성을 도시한 블록도이다.2 is a block diagram illustrating the configuration of a user's facial skin analysis system according to an embodiment of the present invention.

사용자 얼굴 피부 분석 방법은 서버(100) 또는 사용자 단말(200)에서 실시될 수 있다. 사용자 얼굴 피부 분석 방법에서 얼굴영상과 같은 데이터 수집은 사용자 단말(200)에서 이루어질 수 있다. 수집된 데이터 분석은 서버(100)에서 이루어지고, 피부 분석 결과 데이터가 사용자 단말(200)에 제공 될 수 있다. 복수의 사용자는 각각 자신의 사용자 단말(200)을 통해 사용자 얼굴 피부 분석 방법을 실시할 수 있다.The user facial skin analysis method may be implemented in the server 100 or the user terminal 200 . In the user's facial skin analysis method, data collection such as a face image may be performed in the user terminal 200 . The collected data may be analyzed in the server 100 , and skin analysis result data may be provided to the user terminal 200 . A plurality of users may each perform a user facial skin analysis method through their user terminal 200 .

도 3은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법의 진행 단계를 나타낸 흐름도이다. 3 is a flowchart illustrating a process step of a user facial skin analysis method according to an embodiment of the present invention.

프로세서(130)는 사용자 단말로부터 수신된 제 1 얼굴 영상과 제 2얼굴 영상을 기초로 삼차원 좌표 데이터를 포함하는 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 각각 생성한다(S110). The processor 130 generates a first three-dimensional face model and a second three-dimensional face model each including three-dimensional coordinate data based on the first face image and the second face image received from the user terminal (S110).

예를 들어, 피부 변화를 분석하기 위해 사용자 단말로부터 수신된 피부 변화 전 제1얼굴영상은 도4 (a), 피부 변화 후 제2얼굴영상은 도4 (b)에 표시된 영상과 같을 수 있다. 이 때, 사용자 단말(200)은 비교 대상인 도4 (a)의 제 1 얼굴영상을 촬영하고, 이후 스킨케어 등을 통해 변화된 도4 (b)의 제 2 얼굴영상을 촬영하여 해당 영상을 서버(100)로 송신할 수 있다.For example, the first face image before skin change received from the user terminal to analyze the skin change may be the same as the image shown in FIG. 4( a ), and the second face image after the skin change may be the same as the image shown in FIG. At this time, the user terminal 200 shoots the first face image of Fig. 4 (a), which is the comparison target, and then shoots the second face image of Fig. 4 (b) changed through skin care, etc., and sends the image to the server ( 100) can be sent.

프로세서(130)는 수신된 얼굴영상을 기초로 삼차원 얼굴모형을 생성하기 위해 인공신경망을 이용한 딥러닝 기술 기반의 얼굴 피부 분석 모델을 이용할 수 있다. 프로세서(130)는 얼굴 피부 분석 모델을 통해 이차원 영상인 제1 얼굴영상 및 제 2 얼굴영상을 입력으로, 각각 삼차원 얼굴모형을 생성하면서 삼차원 좌표 데이터를 획득하고, 삼차원 얼굴 모형의 정점을 추출하고, 삼차원 얼굴 모형의 깊이 정보를 추정할 수 있다. 도5는 삼차원 얼굴 모형의 깊이 정보를 추정한 결과이며, 도 6은 삼차원 얼굴 모형에서 추출된 정점을 포함하는 삼차원 좌표 데이터를 표시한 도면이다. The processor 130 may use a facial skin analysis model based on deep learning technology using an artificial neural network to generate a three-dimensional face model based on the received face image. The processor 130 receives the first face image and the second face image, which are two-dimensional images, as input through the facial skin analysis model, generates three-dimensional face models, respectively, while obtaining three-dimensional coordinate data, extracting the vertices of the three-dimensional face model, The depth information of the 3D face model can be estimated. FIG. 5 is a result of estimating depth information of the 3D face model, and FIG. 6 is a view showing 3D coordinate data including vertices extracted from the 3D face model.

다시 도 3을 참조하면, 프로세서(130)는 제 1 삼차원 얼굴 모형에서 사용자가 지정한 제 1 관심영역의 삼차원 좌표 데이터를 기초로 제 2 삼차원 얼굴 모형에서 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정한다(S120). 이 때 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정하기 위해서 제1삼차원 얼굴모형 및 제 2 삼차원 얼굴 모형에서 추출된 정점을 이용할 수 있다. 예를 들어 얼굴 모형에서 공통으로 추출된 정점 중 하나인 눈을 기준으로 제 1 삼차원 얼굴모형에서 지정된 영역과 같은 영역을 찾아낼 수 있다. Referring back to FIG. 3 , the processor 130 selects a second region of interest matching the first region of interest in the second three-dimensional face model based on the three-dimensional coordinate data of the first region of interest specified by the user in the first three-dimensional face model. It is specified (S120). In this case, vertices extracted from the first three-dimensional face model and the second three-dimensional face model may be used to specify a second region of interest that matches the first region of interest. For example, the same area as the area designated in the first 3D face model may be found based on the eye, which is one of the vertices commonly extracted from the face model.

제 1 관심영역은 사용자가 관심있는 영역을 얼굴 영상에서 직접 지정할 수도 있고, 인공지능 기술의 일종인 객체 감지(object detection) 또는 위치 검출(localization) 기술을 이용하여 여드름, 다크서클과 같은 피부 특징을 검출하거나 openCV를 활용한 간단한 컴퓨터 비젼 기술 (붉은 영역 검출, 모공 검출)을 활용해서 해당 영역을 지정하는 것도 가능하다. 즉 프로세서(130)는 미리 입력된 삼차원 얼굴 모형을 기초로 컨볼루션 신경망에 기반한 딥러닝 모델인 얼굴 피부 분석 모델을 통해 여드름, 다크서클, 붉은 영역 또는 모공 영역 중 하나 이상의 특징을 학습하여 피부 특징 영역을 추출하고, 피부 특징 영역을 제1관심영역으로 지정할 수 있다.As the first region of interest, the user may directly designate the region of interest in the face image, and skin features such as acne and dark circles may be detected using object detection or localization technology, which is a kind of artificial intelligence technology. It is also possible to detect or designate the area using simple computer vision technology (red area detection, pore detection) using openCV. That is, the processor 130 learns one or more features of acne, dark circles, red regions, or pore regions through a facial skin analysis model, which is a deep learning model based on a convolutional neural network, based on the three-dimensional face model input in advance to learn the features of the skin feature region. may be extracted, and the skin feature region may be designated as the first region of interest.

그리고, 정점 좌표값을 이용하여 제 1 삼차원 얼굴 모형에서 선택된 제 1 관심영역에 대응하는 영역을 제 2 삼차원 얼굴 모형에서 찾아낼 수 있다. 얼굴의 정점 및 랜드마크 검출을 위해 딥러닝 기반의 컨볼루션 신경망을 활용할 수 있다. 컴퓨터 비전에서 많이 쓰이는 68개 랜드마크와 같이 4만~6만개의 점은 각각 얼굴에서의 특정한 영역을 담당할 수 있다. 예를 들면 ID: 1인 정점이 눈에 해당되는 경우 얼굴 정렬 과정에서 항상 눈 쪽으로 배치가 될 수 있다. 이런 방법으로 사용자 또는 전문인이 한 얼굴 영역 내에서 특정한 영역을 지정하면 다른 사진에서도 해당 ID가 같은 정점 영역을 토대로 같은 영역을 찾아낼 수 있다.Then, a region corresponding to the first region of interest selected from the first three-dimensional face model may be found in the second three-dimensional face model by using the vertex coordinate values. Deep learning-based convolutional neural networks can be used to detect facial vertices and landmarks. Like the 68 landmarks commonly used in computer vision, 40,000 to 60,000 dots can each cover a specific area on the face. For example, if a vertex with ID: 1 corresponds to an eye, it can always be positioned toward the eye during face alignment. In this way, when a user or a professional designates a specific area within a face area, the same area can be found in other photos based on the vertex area with the same ID.

프로세서(130)는 제 1 삼차원 얼굴 모형의 제 1 관심 영역과 제 2 삼차원 얼굴 모형의 제 2 관심 영역의 삼차원 좌표 데이터 및 개별 특징 데이터에 기초하여 제 1 관심 영역과 제 2 관심 영역을 매칭시킨다(S130).The processor 130 matches the first region of interest with the second region of interest based on the three-dimensional coordinate data and individual feature data of the first region of interest of the first three-dimensional face model and the second region of interest of the second three-dimensional face model ( S130).

프로세서(130)는 매칭된 제 1 관심 영역과 제 2 관심 영역간 정합을 위한 정점을 선택하고, 선택된 정점을 기준으로 매칭된 제 2 관심 영역을 정렬하여 정합된 제 2 관심 영역으로 변환할 수 있다.The processor 130 may select a vertex for registration between the matched first ROI and the second ROI, and may convert the matched second ROI based on the selected vertex into a matched second ROI.

도 7을 참고하면, (a)에서와 같이 사용자가 제 1 관심영역(c)를 지정하면, (b)에서와 같이 제 1 관심영역과 대응되는 제 2 관심 영역(d)을 매칭할 수 있다. 또한 비교 분석을 위해 매칭영역(d)를 관심영역(c)에 대응되는 동일한 형태인 정합영역(e)로 변환할 수 있다. 변환된 정합영역(e)은 관심영역(c)과 좌표가 1대1로 대응되므로 비교분석이 용이하다. Referring to FIG. 7 , when the user designates a first region of interest c as in (a), as shown in (b), a second region of interest d corresponding to the first region of interest may be matched. . Also, for comparative analysis, the matching region (d) may be converted into a matching region (e) having the same shape corresponding to the region of interest (c). Since the transformed matching region (e) has a one-to-one correspondence with the region of interest (c) in coordinates, comparative analysis is easy.

프로세서(130)는 매칭된 제 1 관심 영역과 제 2 관심 영역에서 변화 데이터를 추출하여 비교 분석 데이터를 생성하고, 개별 특징 데이터 및 비교 분석 데이터를 포함하는 피부 변화 분석 결과 데이터를 생성하여 사용자 단말에 제공한다(S140).The processor 130 generates comparative analysis data by extracting change data from the matched first region of interest and the second region of interest, and generates skin change analysis result data including individual feature data and comparative analysis data to the user terminal. provided (S140).

본 발명은 전체적인 얼굴 피부 영역에 대한 분석이 아닌 지정된 또는 관심 영역에 대해 따로 피부 분석을 진행할 수 있으며 변화 전에 촬영된 사진에서 대응되는 영역을 변화 후의 사진에서 정확히 검출하여 정밀한 비교분석을 진행하고 분석 데이터를 시각화할 수 있다. 피부 변화 분석 결과 데이터는 시각화된 데이터를 포함할 수 있으며, 구체적인 예로 도8 및 도9에서 도시되는 내용을 포함할 수 있다.In the present invention, skin analysis can be performed separately for a designated or a region of interest rather than an analysis of the entire facial skin region, and the corresponding region in the photo taken before the change is accurately detected in the photo after the change to perform a precise comparative analysis and analyzed data can be visualized. The skin change analysis result data may include visualized data, and as a specific example, may include the contents shown in FIGS. 8 and 9 .

도 8은 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법에서 분석 결과를 설명하는 도면이다.8 is a view for explaining an analysis result in a method for analyzing a user's face skin according to an embodiment of the present invention.

(a)는 제1얼굴영상이고 (b)는 제2얼굴영상이며, 제1 관심 영역은 (c1), 제2 관심영역은 (c2)이다. (d1), (e1)은 분석을 위해 (c1)을 변환한 영상이고, (d2), (e2)는 분석을 위해 (c2)을 변환한 영상이다. 원본 영상에서 추출한 (c1), (c2)는 명암대비가 균일하지 않을 수 있으므로 명암값 분포를 재분배하는 작업인 히스토그램 평활화(histogram equalization)을 거쳐 (d1), (d2)의 형태로 변환되고, 다시 (e1), (e2)의 형태로 정규화(normalization)될 수 있다. 평활화 및 정규화를 거쳐 도 9와 같은 히스토그램 그래프를 생성할 수 있다. (f)는 (e1)과 (e2)의 차이를 표시한 영상이다.(a) is a first face image, (b) is a second face image, the first region of interest is (c1), and the second region of interest is (c2). (d1) and (e1) are images transformed from (c1) for analysis, and (d2) and (e2) are images transformed from (c2) for analysis. Since (c1) and (c2) extracted from the original image may not have uniform contrast, they are converted into the forms (d1) and (d2) through histogram equalization, which is an operation to redistribute the distribution of contrast values, and then again It may be normalized in the form of (e1) and (e2). A histogram graph as shown in FIG. 9 may be generated through smoothing and normalization. (f) is an image showing the difference between (e1) and (e2).

프로세서(130)는 제1 관심영역(c1) 및 제2 관심영역(c2)에서 앞선 과정을 거쳐 생성한 히스토그램 그래프를 각각 개별 특징 데이터에 포함시킬 수 있다. 추가적으로 프로세서(130)는 정상 피부로 설정된 영역의 히스토그램 그래프와 관심영역의 히스토그램 그래프의 분포 차이를 구하기 위해 코릴레이션(correlation), 교차점(intersection) 또는 카이제곱(Chi-square)과 같은 히스토그램 비교 기법을 사용할 수 있고, 비교 결과 유사도가 낮을수록 피부상태가 나쁜 것으로 판단하며, 해당 데이터를 각각 개별 특징 데이터에 포함시킬 수 있다. 프로세서(130)는 정상피부로 설정된 영역과 관심영역간 히스토그램 비교를 통해 관심영역의 피부상태를 객관적으로 판단할 수 있고, 제1 관심영역과 제2관심영역간 히스토그램 비교를 통해 피부상태의 변화 정도를 판단하는 것도 가능하다.The processor 130 may include the histogram graphs generated through the previous process in the first region of interest c1 and the second region of interest c2 in the individual feature data, respectively. Additionally, the processor 130 performs a histogram comparison technique such as correlation, intersection, or chi-square to obtain a difference in distribution between the histogram graph of the region set as normal skin and the histogram graph of the region of interest. It can be used, and as a result of the comparison, the lower the similarity, the worse the skin condition is determined, and the corresponding data can be included in each individual characteristic data. The processor 130 may objectively determine the skin condition of the region of interest by comparing the histogram between the region set as normal skin and the region of interest, and determine the degree of change in the skin condition through the histogram comparison between the first region of interest and the second region of interest. It is also possible to

도 9는 본 발명의 일 실시예에 따른 사용자 얼굴 피부 분석 방법에서 히스토그램을 설명하는 도면이다.9 is a view for explaining a histogram in a method for analyzing user's face skin according to an embodiment of the present invention.

히스토그램이란 영상의 밝기값에 대한 분포를 보여주는 그래프로 영상분석을 위한 중요한 도구이다. 입력되는 영상의 히스토그램을 분석함으로써 영상의 밝기 구성, 명암의 대비 등에 대한 정보를 알 수 있으며 이를 피부 분석에 활용 가능하다.A histogram is a graph showing the distribution of image brightness values, and is an important tool for image analysis. By analyzing the histogram of the input image, information on the brightness composition of the image and the contrast of light and dark can be known, and this can be used for skin analysis.

시각화하는 과정의 경우 피부 특징 별로 점수를 주거나 히스토그램 분석을 이용할 수 있다. 히스토그램은 도9와 같이 픽셀 값의 분포를 나타낸 2차원 그래프이다. (a)는 변화 전 제 1 관심 영역의 피부 영상이고 (b)는 변화 후 제 2 관심 영역의 피부 영상이며 (c)는 피부 트러블이 없는 정상 피부의 영상이다. (a), (b), (c)의 픽셀 값의 분포를 (d)의 그래프상에 함께 표시하였다. 이를 통해 정상 피부의 히스토그램과 피부 트러블이 발생한 히스토그램, 스킨케어 후 피부의 히스토그램을 비교할 수 있다. 정상피부의 히스토그램 분포에 비해 얼마만큼 벗어나 있는지를 산출하여 차이값을 비정상적인 정도로 규정할 수 있다. 차이값이 높을수록 피부 상태가 안 좋다는 것을 의미한다.In the case of the visualization process, a score for each skin feature or histogram analysis can be used. The histogram is a two-dimensional graph showing the distribution of pixel values as shown in FIG. 9 . (a) is a skin image of the first region of interest before the change, (b) is a skin image of the second region of interest after the change, and (c) is an image of normal skin without skin troubles. The distribution of pixel values of (a), (b), and (c) is displayed together on the graph of (d). Through this, the histogram of normal skin, the histogram of skin troubles, and the histogram of the skin after skin care can be compared. By calculating how far it deviates from the histogram distribution of normal skin, the difference value can be defined as an abnormal degree. The higher the difference value, the worse the skin condition.

사용자는 직접 전문의의 소견을 들을 필요 없이, 또는 일일이 과거 피부 정보를 기억할 필요 없이 용이하게 분석된 결과를 접할 수 있다. 따라서 단순히 전체 영역에서의 피부 상태를 측정하는 것보다는 본 발명을 이용하여 어떤 영역(Where), 어떻게(What), 언제(When) 이런 분석이 진행되었는지 효과적으로 기록하고 이를 충분히 활용하여 더욱 정밀하고 신뢰성 있는 피부 상태 분석을 진행할 수 있다.The user can easily access the analyzed results without having to directly listen to the opinion of a specialist or memorizing past skin information one by one. Therefore, rather than simply measuring the skin condition in the entire area, using the present invention, it effectively records what area, how, and when such analysis was conducted and utilizes it sufficiently to provide more precise and reliable results. You can proceed with the skin condition analysis.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module to be executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.

100: 서버
110: 통신 모듈
120: 메모리
130: 프로세서
140: 데이터베이스
150: 입력모듈
200: 사용자 단말
100: server
110: communication module
120: memory
130: processor
140: database
150: input module
200: user terminal

Claims (13)

서버에 의해 수행되는 사용자 얼굴 피부 분석 방법에 있어서,
(a) 사용자 단말로부터 수신된 제 1 얼굴 영상과 제 2얼굴 영상을 기초로 삼차원 좌표 데이터를 포함하는 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 각각 생성하는 단계;
(b) 상기 제 1 삼차원 얼굴 모형에서 사용자가 지정한 제 1 관심영역의 삼차원 좌표 데이터를 기초로 제 2 삼차원 얼굴 모형에서 상기 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정하는 단계;
(c) 상기 제 1 삼차원 얼굴 모형의 제 1 관심 영역과 상기 제 2 삼차원 얼굴 모형의 제 2 관심 영역의 삼차원 좌표 데이터 및 개별 특징 데이터에 기초하여 상기 제 1 관심 영역과 제 2 관심 영역을 매칭시키는 단계; 및
(d) 상기 매칭된 제 1 관심 영역과 제 2 관심 영역에서 변화 데이터를 추출하여 비교 분석 데이터를 생성하고, 상기 개별 특징 데이터 및 상기 비교 분석 데이터를 포함하는 피부 변화 분석 결과 데이터를 생성하여 상기 사용자 단말에 제공하는 단계;를 포함하되,
상기 (a)단계는 수신된 복수의 얼굴 영상을 입력으로 인공신경망을 이용한 얼굴 피부 분석 모델을 이용하여 삼차원 얼굴 모형을 생성하는 단계를 포함하는 것이고,
상기 삼차원 좌표 데이터는 상기 얼굴 피부 분석 모델을 통해 생성한 상기 삼차원 얼굴 모형의 정점의 삼차원 좌표 및 깊이 정보를 포함하는 것이고,
상기 (b)단계는 상기 제 1 삼차원 얼굴 모형에서 상기 제 1 관심영역을 지정하기 위해 상기 얼굴 피부 분석 모델을 통해 여드름, 다크서클, 색소침착, 홍조 또는 모공 영역 중 하나 이상의 특징을 학습하여 피부 특징 영역을 추출하는 것이고,
상기 (c)단계는 매칭된 상기 제 1 관심 영역과 상기 제 2 관심 영역간 정합을 위한 정점을 선택하고, 상기 선택된 정점을 기준으로 매칭된 상기 제 2 관심 영역을 정렬하여 정합된 제 2 관심 영역으로 변환하는 단계를 포함하는 것이고,
상기 개별 특징 데이터는 상기 제 1 관심 영역과 상기 제 2 관심 영역의 픽셀 값의 분포를 나타내는 2차원 그래프인 히스토그램 분석 데이터를 포함하는 것이고,
상기 (d)단계는 상기 제 1 관심 영역과 상기 제 2 관심 영역을 기설정된 정상 피부의 히스토그램과 차이를 기초로 비교 분석하는 단계를 포함하되,
상기 정상 피부로 설정된 영역의 히스토그램 그래프와 상기 제1 및 제2 관심 영역의 히스토그램 그래프의 분포 차이를 구하기 위해 코릴레이션(correlation), 교차점(intersection), 카이제곱(Chi-square) 중 적어도 하나의 히스토그램 비교 기법을 사용하여, 비교 결과 유사도가 낮을수록 피부상태가 나쁜 것으로 판단하며, 해당 히스토그램 분석 데이터를 상기 제1 및 제2 관심 영역의 개별 특징 데이터에 포함시키는 것인,
사용자 얼굴 피부 분석 방법.
In the user facial skin analysis method performed by the server,
(a) generating a first three-dimensional face model and a second three-dimensional face model each including three-dimensional coordinate data based on the first face image and the second face image received from the user terminal;
(b) specifying a second region of interest matching the first region of interest in a second three-dimensional face model based on three-dimensional coordinate data of a first region of interest designated by a user in the first three-dimensional face model;
(c) matching the first region of interest to a second region of interest based on three-dimensional coordinate data and individual feature data of the first region of interest of the first three-dimensional face model and the second region of interest of the second three-dimensional face model; step; and
(d) extracting change data from the matched first region of interest and second region of interest to generate comparative analysis data, and generating skin change analysis result data including the individual characteristic data and the comparative analysis data to create the user including; providing to the terminal;
The step (a) includes generating a three-dimensional face model using a facial skin analysis model using an artificial neural network as an input of a plurality of received facial images,
The three-dimensional coordinate data includes three-dimensional coordinates and depth information of the vertices of the three-dimensional face model generated through the facial skin analysis model,
In the step (b), in order to designate the first region of interest in the first three-dimensional face model, one or more features of acne, dark circles, pigmentation, redness, and pore regions are learned through the facial skin analysis model to obtain skin features. to extract the area,
In step (c), a vertex for registration between the matched first ROI and the second ROI is selected, and the matched second ROI is aligned based on the selected vertex to form a matched second ROI. It includes the step of transforming,
The individual feature data includes histogram analysis data, which is a two-dimensional graph representing a distribution of pixel values of the first region of interest and the second region of interest;
The step (d) includes comparing and analyzing the first region of interest and the second region of interest based on a difference from a preset normal skin histogram,
At least one histogram of correlation, intersection, and chi-square to obtain a distribution difference between the histogram graph of the region set as the normal skin and the histogram graph of the first and second regions of interest Using a comparison technique, it is determined that the skin condition is worse as the similarity is lower as a result of comparison, and the histogram analysis data is included in the individual feature data of the first and second regions of interest.
User facial skin analysis method.
삭제delete 삭제delete 제 1 항에 있어서,
상기 (b) 단계는 미리 입력된 삼차원 얼굴 모형을 기초로 컨볼루션 신경망에 기반한 딥러닝 모델인 상기 얼굴 피부 분석 모델을 통해 상기 피부 특징 영역을 제1관심영역으로 지정하는 단계를 포함하는 것인,
사용자 얼굴 피부 분석 방법.
The method of claim 1,
The step (b) includes designating the skin feature region as a first region of interest through the facial skin analysis model, which is a deep learning model based on a convolutional neural network, based on a three-dimensional face model input in advance.
User facial skin analysis method.
삭제delete 삭제delete 삭제delete 사용자 얼굴 피부 분석 서버에 있어서,
사용자 얼굴 피부 분석 프로그램이 저장된 메모리;
상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 프로그램의 실행에 의해, 사용자 단말로부터 수신된 제 1 얼굴 영상과 제 2얼굴 영상을 기초로 삼차원 좌표 데이터를 포함하는 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 각각 생성하고,
상기 제 1 삼차원 얼굴 모형에서 사용자가 지정한 제 1 관심영역의 삼차원 좌표 데이터를 기초로 제 2 삼차원 얼굴 모형에서 상기 제 1 관심영역과 매칭되는 제 2 관심 영역을 특정하고,
상기 제 1 삼차원 얼굴 모형의 제 1 관심 영역과 상기 제 2 삼차원 얼굴 모형의 제 2 관심 영역의 삼차원 좌표 데이터 및 개별 특징 데이터에 기초하여 상기 제 1 관심 영역과 제 2 관심 영역을 매칭시키고,
상기 매칭된 제 1 관심 영역과 제 2 관심 영역에서 변화 데이터를 추출하여 비교 분석 데이터를 생성하고, 상기 개별 특징 데이터 및 상기 비교 분석 데이터를 포함하는 피부 변화 분석 결과 데이터를 생성하여 상기 사용자 단말에 제공하되,
상기 프로세서는 상기 제 1 삼차원 얼굴 모형과 제 2 삼차원 얼굴 모형을 생성하는 경우, 상기 수신된 복수의 얼굴 영상을 입력으로 인공신경망을 이용한 얼굴 피부 분석 모델을 이용하여 삼차원 얼굴 모형을 생성하는 것이고,
상기 삼차원 좌표 데이터는 상기 얼굴 피부 분석 모델을 통해 생성한 상기 삼차원 얼굴 모형의 정점의 삼차원 좌표 및 깊이 정보를 포함하는 것이고,
상기 프로세서는 상기 제 1 삼차원 얼굴 모형에서 상기 제 1 관심영역을 지정하기 위해 상기 얼굴 피부 분석 모델을 통해 여드름, 다크서클, 색소침착, 홍조 또는 모공 영역 중 하나 이상의 특징을 학습하여 피부 특징 영역을 추출하는 것이고,
상기 프로세서는 상기 제 1 관심 영역과 제 2 관심 영역을 매칭시킨 후, 매칭된 상기 제 1 관심 영역과 상기 제 2 관심 영역간 정합을 위한 정점을 선택하고, 상기 선택된 정점을 기준으로 매칭된 상기 제 2 관심 영역을 정렬하여 정합된 제 2 관심 영역으로 변환하는 것이고,
상기 개별 특징 데이터는 상기 제 1 관심 영역과 상기 제 2 관심 영역의 픽셀 값의 분포를 나타내는 2차원 그래프인 히스토그램 분석 데이터를 포함하는 것이고,
상기 프로세서는 상기 제 1 관심 영역과 상기 제 2 관심 영역을 기설정된 정상 피부의 히스토그램과 차이를 기초로 비교 분석하되,
상기 정상 피부로 설정된 영역의 히스토그램 그래프와 상기 제1 및 제2 관심 영역의 히스토그램 그래프의 분포 차이를 구하기 위해 코릴레이션(correlation), 교차점(intersection), 카이제곱(Chi-square) 중 적어도 하나의 히스토그램 비교 기법을 사용하여, 비교 결과 유사도가 낮을수록 피부상태가 나쁜 것으로 판단하며, 해당 히스토그램 분석 데이터를 상기 제1 및 제2 관심 영역의 개별 특징 데이터에 포함시키는 것인,
사용자 얼굴 피부 분석 서버.
In the user facial skin analysis server,
a memory in which a user facial skin analysis program is stored;
A processor for executing the program stored in the memory;
The processor generates a first three-dimensional face model and a second three-dimensional face model each including three-dimensional coordinate data based on the first face image and the second face image received from the user terminal by executing the program,
specifying a second region of interest matching the first region of interest in a second three-dimensional face model based on the three-dimensional coordinate data of the first region of interest designated by the user in the first three-dimensional face model;
matching the first region of interest with a second region of interest based on three-dimensional coordinate data and individual feature data of the first region of interest of the first three-dimensional face model and the second region of interest of the second three-dimensional face model;
Comparison analysis data is generated by extracting change data from the matched first region of interest and second region of interest, and skin change analysis result data including the individual characteristic data and the comparative analysis data is generated and provided to the user terminal but,
When the processor generates the first three-dimensional face model and the second three-dimensional face model, the processor generates a three-dimensional face model using a facial skin analysis model using an artificial neural network as an input to the received plurality of face images,
The three-dimensional coordinate data includes three-dimensional coordinates and depth information of the vertices of the three-dimensional face model generated through the facial skin analysis model,
The processor extracts a skin feature region by learning one or more features of acne, dark circles, pigmentation, redness, and pore regions through the facial skin analysis model to designate the first region of interest in the first three-dimensional face model. to do,
After matching the first region of interest with the second region of interest, the processor selects a vertex for matching between the matched first region of interest and the second region of interest, and selects a vertex for matching the second region of interest based on the selected vertex aligning the region of interest and transforming it into a matched second region of interest;
The individual feature data includes histogram analysis data, which is a two-dimensional graph representing a distribution of pixel values of the first region of interest and the second region of interest;
The processor compares and analyzes the first region of interest and the second region of interest based on a difference from a preset histogram of normal skin,
At least one histogram of correlation, intersection, and chi-square to obtain a distribution difference between the histogram graph of the region set as the normal skin and the histogram graph of the first and second regions of interest Using a comparison technique, it is determined that the skin condition is worse as the similarity is lower as a result of comparison, and the histogram analysis data is included in the individual feature data of the first and second regions of interest.
User facial skin analysis server.
삭제delete 삭제delete 제 8 항에 있어서,
상기 프로세서는 미리 입력된 삼차원 얼굴 모형을 기초로 컨볼루션 신경망에 기반한 딥러닝 모델인 상기 얼굴 피부 분석 모델을 통해 상기 피부 특징 영역을 제1관심영역으로 지정하는 것인,
사용자 얼굴 피부 분석 서버.
9. The method of claim 8,
The processor designates the skin feature region as a first region of interest through the facial skin analysis model, which is a deep learning model based on a convolutional neural network, based on a three-dimensional face model input in advance.
User facial skin analysis server.
삭제delete 제 1 항에 따르는 사용자 얼굴 피부 분석 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 비일시적 컴퓨터 판독가능 기록매체.A computer program for performing the user's facial skin analysis method according to claim 1 is recorded on a non-transitory computer-readable recording medium.
KR1020190169268A 2019-12-17 2019-12-17 Method and server for face registration and face analysis KR102356465B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190169268A KR102356465B1 (en) 2019-12-17 2019-12-17 Method and server for face registration and face analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190169268A KR102356465B1 (en) 2019-12-17 2019-12-17 Method and server for face registration and face analysis

Publications (3)

Publication Number Publication Date
KR20210077533A KR20210077533A (en) 2021-06-25
KR102356465B1 true KR102356465B1 (en) 2022-01-27
KR102356465B9 KR102356465B9 (en) 2023-11-13

Family

ID=76629221

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190169268A KR102356465B1 (en) 2019-12-17 2019-12-17 Method and server for face registration and face analysis

Country Status (1)

Country Link
KR (1) KR102356465B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023152007A1 (en) * 2022-02-14 2023-08-17 Mvm Enterprises Gmbh System and method for monitoring human skin

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113499036A (en) * 2021-07-23 2021-10-15 厦门美图之家科技有限公司 Skin monitoring method and device, electronic equipment and computer readable storage medium
KR102434038B1 (en) * 2022-05-20 2022-08-19 주식회사 패스트레인 Skin analysis system and method using camera module based on cloud service
KR102465728B1 (en) 2022-06-28 2022-11-15 주식회사 룰루랩 Method and apparatus for detecting dark circles and quantifying the degree of dark circles

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101930851B1 (en) * 2016-06-21 2018-12-19 (주)옵토바이오메드 A skin analysis and diagnosis system for 3D face modeling
KR101957773B1 (en) * 2016-11-30 2019-03-14 성균관대학교산학협력단 Evaluation method for skin condition using image and evaluation apparatus for skin condition using image
KR102055881B1 (en) 2018-01-09 2019-12-13 주식회사 룰루랩 module using skin condition measurement
KR102321851B1 (en) * 2019-07-11 2021-11-05 엘지전자 주식회사 Light outputting device for managing skin of user using artificial intelligence and operating method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023152007A1 (en) * 2022-02-14 2023-08-17 Mvm Enterprises Gmbh System and method for monitoring human skin

Also Published As

Publication number Publication date
KR102356465B9 (en) 2023-11-13
KR20210077533A (en) 2021-06-25

Similar Documents

Publication Publication Date Title
KR102356465B1 (en) Method and server for face registration and face analysis
JP7058373B2 (en) Lesion detection and positioning methods, devices, devices, and storage media for medical images
JP6837597B2 (en) Active learning systems and methods
US20210056360A1 (en) System and method using machine learning for iris tracking, measurement, and simulation
US10255484B2 (en) Method and system for assessing facial skin health from a mobile selfie image
JP2020522807A (en) System and method for guiding a user to take a selfie
US20180279943A1 (en) System and method for the analysis and transmission of data, images and video relating to mammalian skin damage conditions
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
US11540749B2 (en) System and method for automated detection of neurological deficits
EP3680794A1 (en) Device and method for user authentication on basis of iris recognition
JP2016134803A (en) Image processor and image processing method
KR102347551B1 (en) Method, apparatus and system for providing informations of face condition based on analysis of face image
KR102458615B1 (en) Skin condition measuring apparatus, skin condition measring system and method thereof
Vrânceanu et al. Gaze direction estimation by component separation for recognition of eye accessing cues
TW202201275A (en) Device and method for scoring hand work motion and storage medium
JP6795243B1 (en) Nose print matching device and method and program
CN111275754B (en) Face acne mark proportion calculation method based on deep learning
CN113436735A (en) Body weight index prediction method, device and storage medium based on face structure measurement
Roychowdhury Few shot learning framework to reduce inter-observer variability in medical images
KR102495889B1 (en) Method for detecting facial wrinkles using deep learning-based wrinkle detection model trained according to semi-automatic labeling and apparatus for the same
WO2019144247A1 (en) Systems and methods for automated facial acne assessment from digital photographic images
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
JP6467817B2 (en) Image processing apparatus, image processing method, and program
US20220335252A1 (en) Method and system for anonymizing facial images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]