KR102486197B1 - 3d face scanning method, apparatus and system - Google Patents

3d face scanning method, apparatus and system Download PDF

Info

Publication number
KR102486197B1
KR102486197B1 KR1020220121273A KR20220121273A KR102486197B1 KR 102486197 B1 KR102486197 B1 KR 102486197B1 KR 1020220121273 A KR1020220121273 A KR 1020220121273A KR 20220121273 A KR20220121273 A KR 20220121273A KR 102486197 B1 KR102486197 B1 KR 102486197B1
Authority
KR
South Korea
Prior art keywords
face
change value
value
user
procedure
Prior art date
Application number
KR1020220121273A
Other languages
Korean (ko)
Inventor
강석준
Original Assignee
강석준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강석준 filed Critical 강석준
Priority to KR1020220121273A priority Critical patent/KR102486197B1/en
Application granted granted Critical
Publication of KR102486197B1 publication Critical patent/KR102486197B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication

Abstract

According to an embodiment, a 3D face scanning apparatus acquires first scan data which is acquired by scanning a user face in a 3D manner at the time before a procedure, generates a first face model using the first scan data, acquires second scan data which is obtained by scanning the user face in the 3D manner at the time after the procedure, generates a second face model using the second scan data, compares the first face model and the second face model, based on the comparison result, generates a change value in the user face according to the procedure, compares the facial change value with a preset target value, when the facial change value reaches the target value, transmits a face scan image including the first face model and the second face model and the facial change value to a user terminal of a user, when the facial change value does not reach the target value, extracts a region in which the facial change value did not reach the target value, and transmits the face scan image, the facial change value, and an additional treatment proposal message suggesting additional treatment for the extracted region to the user terminal. The present invention can provide the face scan image to the user by applying color to a face region according to the facial change value.

Description

3차원 얼굴 스캐닝 방법, 장치 및 시스템{3D FACE SCANNING METHOD, APPARATUS AND SYSTEM}3D face scanning method, apparatus and system {3D FACE SCANNING METHOD, APPARATUS AND SYSTEM}

아래 실시예들은 3차원 얼굴 스캐닝 방법을 제공하는 기술에 관한 것이다.The embodiments below relate to a technique for providing a 3D face scanning method.

외모를 가꾸는 사람들이 증가하면서 미용을 위한 시술을 받는 사람들 또한 많아지고 있다. 기존의 시술 전과 후를 비교하기 위해 고객에게 미용 관리 결과를 제공하는 방식은 석고 틀을 이용하여 고객의 얼굴의 형태를 떠서 전후를 비교하는 방식으로, 석고 틀 방식이 보편적으로 사용되었다. 하지만, 기존의 방식은 석고가 시간이 지남에 따라 변형되기도 하고, 수작업으로 인해 신뢰성이 떨어지며 인체에 직접 작업해야 하는 등의 여러가지 문제점이 발생하였다.As the number of people taking care of their appearance increases, the number of people undergoing cosmetic procedures is also increasing. The existing method of providing beauty care results to customers to compare before and after the procedure is a method of comparing before and after by drawing the shape of the customer's face using a plaster mold, and the plaster mold method was universally used. However, in the existing method, various problems such as deformation of gypsum over time, low reliability due to manual work, and the need to work directly on the human body have occurred.

따라서, 정밀 측정이 가능하면서 빠른 시간 내에 미용 결과를 제공할 수 있는 3차원 얼굴 스캔 방식에 대한 기술의 개발이 요구된다.Therefore, it is required to develop a technology for a three-dimensional face scan method capable of providing cosmetic results within a short period of time while enabling precise measurement.

대한민국 공개특허 제 10-2021-0156796호 (2021.12.27 공개)Republic of Korea Patent Publication No. 10-2021-0156796 (published on December 27, 2021) 대한민국 등록특허 제 10-1930851호(2018.12.19 공고)Republic of Korea Patent Registration No. 10-1930851 (2018.12.19 announcement) 대한민국 등록특허 제 10-1510312호(2015.04.10 공고)Republic of Korea Patent Registration No. 10-1510312 (2015.04.10 announcement) 대한민국 등록특허 제 10-2434038호(2022.08.19 공고)Republic of Korea Patent Registration No. 10-2434038 (Announced on August 19, 2022)

실시예들은 3차원 얼굴 스캐닝 방법을 제공하고자 한다.Embodiments are intended to provide a 3D face scanning method.

실시예들은 시술 전 및 시술 후의 사용자의 얼굴을 3차원으로 스캔하고, 얼굴 모델을 생성하여 사용자의 얼굴 변화 값을 생성하고자 한다.In the embodiments, the user's face before and after the procedure is scanned in 3D, and a face model is created to generate a change value of the user's face.

실시예들은 시술에 따른 얼굴 변화 값에 따라 얼굴 부위에 색상을 적용하여 얼굴 스캔 이미지를 사용자에게 제공하고자 한다.Embodiments attempt to provide a user with a face scan image by applying color to a face part according to a face change value according to a procedure.

일실시예에 따르면, 장치에 의해 수행되는 방법에 있어서, 시술 전 시점에서의 사용자의 얼굴을 3차원으로 스캔한 제1 스캔 데이터를 획득하는 단계; 상기 제1 스캔 데이터를 이용하여 제1 얼굴 모델을 생성하는 단계; 시술 후 시점에서의 상기 사용자의 얼굴을 3차원으로 스캔한 제2 스캔 데이터를 획득하는 단계; 상기 제2 스캔 데이터를 이용하여 제2 얼굴 모델을 생성하는 단계; 상기 제1 얼굴 모델 및 상기 제2 얼굴 모델을 비교하는 단계; 상기 비교 결과에 기반하여, 상기 시술에 따른 상기 사용자의 얼굴 변화 값을 생성하는 단계; 상기 얼굴 변화 값과 미리 설정된 목표 값을 비교하는 단계; 상기 얼굴 변화 값이 상기 목표 값에 도달한 경우, 상기 제1 얼굴 모델 및 상기 제2 얼굴 모델을 포함하는 얼굴 스캔 이미지 및 상기 얼굴 변화 값을 상기 사용자의 사용자 단말에 전송하는 단계; 상기 얼굴 변화 값이 상기 목표 값에 도달하지 않은 경우, 상기 얼굴 변화 값이 상기 목표 값에 도달하지 않은 부위를 추출하는 단계; 및 상기 얼굴 스캔 이미지, 상기 얼굴 변화 값 및 상기 추출된 부위에 대하여 추가 시술을 제안하는 추가 시술 제안 메시지를 상기 사용자 단말에 전송하는 단계;를 포함할 수 있다.According to one embodiment, a method performed by an apparatus includes: obtaining first scan data obtained by scanning a user's face in three dimensions at a point before a procedure; generating a first face model using the first scan data; obtaining second scan data obtained by scanning the user's face in 3D at the point of view after the procedure; generating a second face model using the second scan data; comparing the first face model and the second face model; based on the comparison result, generating a face change value of the user according to the procedure; comparing the face change value with a preset target value; transmitting a face scan image including the first face model and the second face model and the face change value to a user terminal of the user when the face change value reaches the target value; extracting a region where the face change value does not reach the target value when the face change value does not reach the target value; and transmitting an additional treatment suggestion message suggesting an additional treatment for the face scan image, the face change value, and the extracted region to the user terminal.

상기 사용자의 얼굴 변화 값을 생성하는 단계는, 상기 얼굴 스캔 이미지로부터 상기 사용자의 얼굴의 정면 이미지 및 측면 이미지를 추출하는 단계, 상기 정면 이미지의 미간, 인중, 왼쪽 눈 끝 및 오른쪽 눈 끝을 포함하는 정면 기준점을 생성하고, 상기 정면 이미지로부터 상기 정면 기준점 사이의 정면 표면 거리를 산출하는 단계, 상기 시술 전 시점 및 상기 시술 후 시점에서의 정면 표면 거리를 비교하여, 정면 얼굴 변화 값을 생성하는 단계, 상기 측면 이미지의 이마 끝, 아래 턱 끝, 광대 및 양쪽 턱 끝을 포함하는 측면 기준점을 생성하고, 상기 측면 이미지로부터 상기 측면 기준점 사이의 측면 표면 거리를 산출하는 단계, 상기 시술 전 시점 및 상기 시술 후 시점에서의 측면 표면 거리를 비교하여, 측면 얼굴 변화 값을 생성하는 단계, 상기 측면 기준점을 기준으로 얼굴의 영역을 분리하는 단계, 상기 분리된 영역의 면적을 산출하는 단계, 상기 시술 전 시점 및 상기 시술 후 시점에서의 면적을 비교하여, 얼굴 면적 변화 값을 생성하는 단계, 및 상기 정면 얼굴 변화 값, 상기 측면 얼굴 변화 값 및 상기 얼굴 면적 변화 값을 결합하여 상기 사용자의 얼굴 변화 값을 생성하는 단계를 포함할 수 있다.The step of generating the user's face change value includes extracting a front image and a side image of the user's face from the face scan image, including the forehead, philtrum, left eye tip, and right eye tip of the front image. Creating a frontal reference point and calculating a frontal surface distance between the frontal reference points from the frontal image, comparing the frontal surface distance at a time point before and after the procedure to generate a front face change value, Creating side surface reference points including the tip of the forehead, the tip of the lower chin, the cheekbones, and the tips of both chins of the side image, and calculating the lateral surface distance between the side reference points from the side image, before the procedure and after the procedure Comparing the lateral surface distance at the viewpoint to generate a lateral facial change value, separating the face region based on the lateral reference point, calculating the area of the separated region, the time before the procedure and the above generating a face area change value by comparing areas at a point in time after the procedure; and generating a face change value of the user by combining the front face change value, the side face change value, and the face area change value. can include

상기 얼굴 스캔 이미지 및 상기 얼굴 변화 값을 상기 사용자 단말에 전송하는 단계는, 상기 얼굴 변화 값과 미리 설정된 제1 기준 값을 비교하는 단계, 상기 얼굴 변화 값이 상기 제1 기준 값 이상인 부위를 최상 효과 부위로 결정하는 단계, 상기 얼굴 스캔 이미지에서 상기 최상 효과 부위의 얼굴 변화 값을 표시하고, 상기 최상 효과 부위에 제1 색상을 적용하는 단계, 상기 얼굴 변화 값이 상기 제1 기준 값 미만인 경우, 상기 얼굴 변화 값과 미리 설정된 제2 기준 값을 비교하는 단계, 상기 얼굴 변화 값이 상기 제2 기준 값 이상인 부위를 기본 효과 부위로 결정하는 단계, 상기 얼굴 스캔 이미지에서 상기 기본 효과 부위의 얼굴 변화 값을 표시하고, 상기 기본 효과 부위에 제2 색상을 적용하는 단계, 상기 얼굴 변화 값이 상기 제2 기준 값 미만인 부위를 비효과 부위로 결정하는 단계, 상기 얼굴 스캔 이미지에서 상기 비효과 부위의 얼굴 변화 값을 표시하고, 상기 비효과 부위에 제3 색상을 적용하는 단계, 및 상기 최상 효과 부위, 상기 기본 효과 부위 및 상기 비효과 부위의 결정에 따른 얼굴 변화 값 및 상기 제1 색상 내지 상기 제3 색상이 적용된 얼굴 스캔 이미지를 상기 사용자 단말에 전송하는 단계를 포함할 수 있다.Transmitting the face scan image and the face change value to the user terminal may include comparing the face change value with a preset first reference value, and a region having a face change value equal to or greater than the first reference value has the best effect. Determining the face change value as the part, displaying the face change value of the best effect part in the face scan image, and applying a first color to the best effect part, if the face change value is less than the first reference value, the Comparing a face change value with a preset second reference value, determining a region having a face change value equal to or greater than the second reference value as a basic effect region, and determining a face change value of the basic effect region in the face scan image. displaying and applying a second color to the basic effect part, determining a part where the face change value is less than the second reference value as an ineffective part, and the face change value of the non-effect part in the face scan image. displaying and applying a third color to the ineffective part, and face change values according to the determination of the best effect part, the basic effect part, and the ineffective part, and the first color to the third color and transmitting the applied face scan image to the user terminal.

상기 장치에 의해 수행되는 방법에 있어서, 상기 비효과 부위의 추가 시술 필요 여부를 판단하는 단계;를 더 포함하고, 상기 비효과 부위의 추가 시술 필요 여부를 판단하는 단계는, 상기 비효과 부위의 대칭 정도를 산출하는 단계, 상기 비효과 부위의 대칭 정도와 미리 설정된 기준 정도를 비교하는 단계, 상기 비효과 부위의 대칭 정도가 상기 기준 정도 이상인 경우, 상기 비효과 부위의 추가 시술이 필요 없는 것으로 판단하는 단계, 상기 얼굴 스캔 이미지에서 상기 추가 시술이 필요 없는 것으로 판단된 비효과 부위에 제1 밝기를 적용하고, 상기 제1 밝기가 적용된 얼굴 스캔 이미지를 상기 사용자 단말로 전송하는 단계, 상기 비효과 부위의 대칭 정도가 상기 기준 정도 미만인 경우, 상기 비효과 부위의 추가 시술이 필요한 것으로 판단하는 단계, 및 상기 얼굴 스캔 이미지에서 상기 추가 시술이 필요한 것으로 판단된 비효과 부위에 제2 밝기를 적용하고, 상기 제2 밝기가 적용된 얼굴 스캔 이미지를 상기 사용자 단말로 전송하는 단계를 포함할 수 있다.In the method performed by the device, further comprising determining whether an additional treatment is required for the ineffective region, wherein the step of determining whether an additional treatment is required for the ineffective region comprises symmetrical treatment of the ineffective region. Calculating the degree, comparing the degree of symmetry of the ineffective part with a preset reference degree, determining that additional treatment of the ineffective part is not required when the degree of symmetry of the ineffective part is equal to or greater than the reference degree Step of applying a first brightness to an ineffective part of the face scan image determined not to require additional treatment, and transmitting the face scan image to which the first brightness is applied to the user terminal; If the degree of symmetry is less than the reference degree, determining that the ineffective part requires additional treatment, and applying a second brightness to the ineffective part determined to require the additional treatment in the face scan image, 2 may include transmitting the face scan image to which the brightness is applied to the user terminal.

상기 장치에 의해 수행되는 방법에 있어서, 상기 얼굴 변화 값이 상기 목표 값에 도달하지 않은 비효과 부위에 대해 얼굴 변화 값과 상기 목표 값 사이의 차이값을 산출하는 단계; 상기 차이값에 비례하여 상기 비효과 부위의 추가 시술 강도를 설정하는 단계; 상기 비효과 부위 및 상기 추가 시술 강도를 포함하는 추가 시술 안내 메시지를 상기 사용자 단말로 전송하는 단계를 더 포함할 수 있다.A method performed by the device, comprising: calculating a difference value between a face change value and a target value for an ineffective portion where the face change value does not reach the target value; setting an additional treatment intensity of the ineffective part in proportion to the difference value; The method may further include transmitting an additional treatment guide message including the non-effective region and the additional treatment intensity to the user terminal.

상기 장치에 의해 수행되는 방법에 있어서, 미리 설정된 기준 기간 동안 특정 얼굴 부위에 대한 상기 얼굴 변화 값을 수집하여, 상기 특정 얼굴 부위에 대하여 상기 최상 효과 부위 및 상기 비효과 부위로 설정된 횟수를 추출하는 단계; 상기 최상 효과 부위로 설정된 횟수에 제1 가중치를 적용하여 제1 수치를 산출하는 단계; 상기 비효과 부위로 설정된 횟수에 상기 제1 가중치보다 큰 제2 가중치를 적용하여 제2 수치를 산출하는 단계; 및 상기 제1 수치 및 상기 제2 수치를 합산하여, 상기 특정 얼굴 부위의 관리 지수를 산출하는 단계를 더 포함할 수 있다.In the method performed by the device, collecting the face change value for a specific face part during a preset reference period, and extracting the number of times set as the best effective part and the non-effective part for the specific face part. ; Calculating a first value by applying a first weight to the number of times set as the most effective part; calculating a second value by applying a second weight greater than the first weight to the number of times set as the ineffective portion; and calculating a management index of the specific facial part by summing the first numerical value and the second numerical value.

상기 비효과 부위 정보에 대응하는 얼굴 스캔 이미지를 상기 사용자 단말로 전송하는 단계는, 상기 관리 지수에 기반하여, 상기 특정 얼굴 부위에 대한 얼굴 스캔 이미지가 상기 사용자 단말의 화면에 표시될 크기에 대한 비율을 생성하는 단계; 및 상기 생성된 비율이 적용된 얼굴 스캔 이미지를 상기 사용자 단말로 전송하는 단계를 포함할 수 있다.In the step of transmitting the face scan image corresponding to the ineffective part information to the user terminal, based on the management index, the ratio of the face scan image for the specific face part to the size to be displayed on the screen of the user terminal. generating; and transmitting the face scan image to which the generated ratio is applied to the user terminal.

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.An apparatus according to an embodiment may be combined with hardware and controlled by a computer program stored in a medium to execute any one of the methods described above.

실시예들은 3차원 얼굴 스캐닝 방법을 제공할 수 있다.Embodiments may provide a 3D face scanning method.

실시예들은 시술 전 및 시술 후의 사용자의 얼굴을 3차원으로 스캔하고, 얼굴 모델을 생성하여 사용자의 얼굴 변화 값을 생성할 수 있다.Embodiments may scan the user's face before and after the procedure in 3D, and create a face model to generate the change value of the user's face.

실시예들은 시술에 따른 얼굴 변화 값에 따라 얼굴 부위에 색상을 적용하여 얼굴 스캔 이미지를 사용자에게 제공할 수 있다.In the embodiments, a face scan image may be provided to a user by applying color to a face part according to a face change value according to a procedure.

도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 3차원 얼굴 스캐닝하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 사용자의 얼굴 변화 값을 생성하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 얼굴 스캔 이미지 및 얼굴 변화 값을 사용자 단말에 전송하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 비효과 부위의 추가 시술 필요 여부를 판단하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 추가 시술 강도를 설정하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 관리 지수에 기반하여 사용자 단말의 화면에 표시될 크기에 대한 비율을 생성하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram for explaining the configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of 3D face scanning according to an embodiment.
3 is a flowchart illustrating a process of generating a change value of a user's face according to an exemplary embodiment.
4 is a flowchart illustrating a process of transmitting a face scan image and a face change value to a user terminal according to an exemplary embodiment.
5 is a flowchart illustrating a process of determining whether an additional treatment is required for an ineffective area according to an embodiment.
6 is a flowchart illustrating a process of setting an additional treatment intensity according to an embodiment.
7 is a flowchart illustrating a process of generating a ratio to a size to be displayed on a screen of a user terminal based on a management index according to an embodiment.
8 is an exemplary diagram of a configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

도 1은 일실시예에 따른 시스템의 구성을 설명하기 위한 도면이다.1 is a diagram for explaining the configuration of a system according to an embodiment.

일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 사용자 단말(10) 및 장치(30)를 포함할 수 있다.A system according to an embodiment may include a user terminal 10 and a device 30 capable of communicating with each other through a communication network.

먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, a communication network may be configured regardless of its communication mode, such as wired or wireless, and may be implemented in various forms so that communication between servers and communication between servers and terminals is performed.

사용자 단말(10)은 본 발명에 따른 얼굴을 스캔하고자 하는 대상이 되는 사용자가 사용자가 사용하는 단말일 수 있다. 사용자 단말(10)은 데스크탑 컴퓨터, 노트북, 태블릿, 스마트폰 등일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 사용자 단말(10)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.The user terminal 10 may be a terminal used by a user whose face is to be scanned according to the present invention. The user terminal 10 may be a desktop computer, a laptop computer, a tablet, a smart phone, or the like. For example, as shown in FIG. 1 , the user terminal 10 may be a smart phone, and may be employed differently depending on embodiments.

사용자 단말(10)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자 단말(10)은 장치(30)와 유무선으로 통신하도록 구성될 수 있다.The user terminal 10 may be configured to perform all or part of an arithmetic function, a storage/reference function, an input/output function, and a control function of a typical computer. The user terminal 10 may be configured to communicate with the device 30 by wire or wireless.

사용자 단말(10)은 장치(30)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(30)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 사용자 단말(10)은 웹 페이지 또는 애플리케이션을 통해 장치(30)와 연동될 수 있다.The user terminal 10 uses the device 30 to access a web page operated by a service provider or organization, or an application developed and distributed by a service provider or organization using the device 30 can be installed The user terminal 10 may interwork with the device 30 through a web page or application.

사용자 단말(10)은 장치(30)에서 제공하는 웹 페이지, 애플리케이션을 등을 통해 장치(30)에 접속할 수 있다.The user terminal 10 may access the device 30 through a web page or application provided by the device 30 .

청구항에 기재된 단수의 표현은 복수를 포함하는 것으로 이해될 수 있다. 예를 들어, 청구항의 사용자는 하나의 사용자 또는 둘 이상의 사용자를 지칭할 수 있다.Singular expressions in the claims may be understood to include the plural. For example, a user in a claim may refer to one user or more than one user.

장치(30)는 장치(30)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(30)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.The device 30 may be a server owned by a person or organization that provides services using the device 30, may be a cloud server, or may be a peer-to-peer (p2p) set of distributed nodes. may be The device 30 may be configured to perform all or part of an arithmetic function, a storage/reference function, an input/output function, and a control function of a typical computer.

장치(30)는 사용자 단말(10)과 유무선으로 통신하도록 구성될 수 있으며, 사용자 단말(10)의 동작을 제어하고, 사용자 단말(10)의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있다.The device 30 may be configured to communicate with the user terminal 10 by wire or wirelessly, control the operation of the user terminal 10, and control which information is to be displayed on the screen of the user terminal 10. .

한편, 설명의 편의를 위해 도 1에서는 사용자 단말(10)만을 도시하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(30)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.Meanwhile, for convenience of description, only the user terminal 10 is illustrated in FIG. 1 , but the number of terminals may vary according to embodiments. As long as the processing capacity of the device 30 permits, the number of terminals is not particularly limited.

일실시예에 따르면, 장치(30) 내에는 데이터베이스가 구비될 수 있으며, 이에 한정되지 않고, 장치(30)와 별도로 데이터베이스가 구성될 수 있다. 장치(30)는 기계 학습 알고리즘의 수행을 위한 다수의 인공 신경망을 포함할 수 있다.According to one embodiment, a database may be provided in the device 30, but is not limited thereto, and the database may be configured separately from the device 30. Apparatus 30 may include a number of artificial neural networks for performing machine learning algorithms.

도 2는 일실시예에 따른 3차원 얼굴 스캐닝하는 과정을 설명하기 위한 순서도이다.2 is a flowchart illustrating a process of 3D face scanning according to an embodiment.

도 2를 참조하면, 먼저 S201 단계에서, 장치(30)는 시술 전 시점에서의 사용자의 얼굴을 3차원으로 스캔한 제1 스캔 데이터를 획득할 수 있다.Referring to FIG. 2 , first, in step S201, the device 30 may obtain first scan data obtained by scanning the user's face in 3D before the procedure.

장치(30)는 적어도 하나 이상의 카메라를 이용하여 시술 전 시점에서의 사용자의 얼굴을 3차원으로 스캔할 수 있다. 이때, 장치(30)는 복수의 카메라를 이용하여 사용자의 얼굴을 촬영할 경우, 다양한 각도에서 사용자의 얼굴을 스캔함으로써, 사용자의 얼굴을 스캔하는 시간을 단축할 수 있다. The device 30 may scan the user's face in 3D before the procedure using at least one camera. In this case, when the user's face is photographed using a plurality of cameras, the device 30 scans the user's face from various angles, thereby shortening the time required to scan the user's face.

이때, 제1 스캔 데이터는 시술 전 시점에서 사용자의 얼굴을 촬영한 영상 및 얼굴의 기준점, 기준점 사이의 길이 및 얼굴의 색상 등을 포함할 수 있다.In this case, the first scan data may include an image of the user's face taken before the procedure, a reference point of the face, a length between the reference points, and a color of the face.

이때, 사용자 얼굴이 고정된 채 카메라의 위치를 변화시켜 촬영하거나, 또는 카메라가 고정된 채 사용자 얼굴의 방향을 변화시켜 촬영하는 것에 의해 사용자 얼굴을 서로 다른 방향에서 촬영한 얼굴 영상이 획득될 수 있다.In this case, face images of the user's face photographed from different directions may be obtained by changing the location of the camera while the user's face is fixed, or by changing the direction of the user's face while the camera is fixed. .

S202 단계에서, 장치(30)는 제1 스캔 데이터를 이용하여 제1 얼굴 모델을 생성할 수 있다.In step S202, the device 30 may generate a first face model using the first scan data.

장치(30)는 제1 스캔 데이터로부터 시술 전 시점에서 촬영된 사용자의 얼굴에 대한 영상을 정합하고, 정합된 영상을 영상 처리할 수 있다.The apparatus 30 may match an image of the user's face taken at a point before the procedure from the first scan data, and image the matched image.

일실시예에 따르면, 장치(30)는 기준점들을 추출하고, 추출된 기준점들에 매칭되도록 하여 시술 전 시점의 사용자의 3D 얼굴 모델인 제1 얼굴 모델을 생성할 수 있다. 이때, 기준점은 미간, 인중, 왼쪽 눈 끝 및 오른쪽 눈 끝을 포함하는 정면 기준점 및 이마 끝, 아래 턱 끝, 광대 및 양쪽 턱 끝을 포함하는 측면 기준점을 포함할 수 있다.According to an embodiment, the apparatus 30 may extract reference points and match the extracted reference points to generate a first face model that is a 3D face model of the user before the procedure. In this case, the reference points may include a frontal reference point including the forehead, the middle of the philtrum, the tips of the left and right eyes, and the side reference points including the tip of the forehead, the tip of the lower chin, the cheekbones, and the tips of both chins.

이때, 영상 처리는 사용자의 얼굴 색상을 보정하는 과정 및 추출된 기준점들에 대하여 3D 얼굴 모델을 수정하는 과정 등을 포함할 수 있다.In this case, the image processing may include a process of correcting the color of the user's face and a process of modifying the 3D face model with respect to the extracted reference points.

S203 단계에서, 장치(30)는 시술 후 시점에서의 사용자의 얼굴을 3차원으로 스캔한 제2 스캔 데이터를 획득할 수 있다.In step S203, the device 30 may acquire second scan data obtained by scanning the user's face in 3D at the point of view after the procedure.

장치(30)는 적어도 하나 이상의 카메라를 이용하여 시술 후 시점에서의 사용자의 얼굴을 3차원으로 스캔할 수 있다. 이때, 장치(30)는 복수의 카메라를 이용하여 사용자의 얼굴을 촬영할 경우, 다양한 각도에서 사용자의 얼굴을 스캔함으로써, 사용자의 얼굴을 스캔하는 시간을 단축할 수 있다. The device 30 may scan the user's face in 3D at the point of view after the procedure using at least one camera. In this case, when the user's face is photographed using a plurality of cameras, the device 30 scans the user's face from various angles, thereby shortening the time required to scan the user's face.

이때, 제2 스캔 데이터는 시술 후 시점에서 사용자의 얼굴을 촬영한 영상 및 얼굴의 기준점, 기준점 사이의 길이 및 얼굴의 색상 등을 포함할 수 있다.In this case, the second scan data may include an image of the user's face taken at the point of view after the procedure, a reference point of the face, a length between the reference points, and a color of the face.

이때, 사용자 얼굴이 고정된 채 카메라의 위치를 변화시켜 촬영하거나, 또는 카메라가 고정된 채 사용자 얼굴의 방향을 변화시켜 촬영하는 것에 의해 사용자 얼굴을 서로 다른 방향에서 촬영한 얼굴 영상이 획득될 수 있다.In this case, face images of the user's face photographed from different directions may be obtained by changing the location of the camera while the user's face is fixed, or by changing the direction of the user's face while the camera is fixed. .

S204 단계에서, 장치(30)는 제2 스캔 데이터를 이용하여 제2 얼굴 모델을 생성할 수 있다.In step S204, the device 30 may generate a second face model using the second scan data.

장치(30)는 제2 스캔 데이터로부터 시술 후 시점에서 촬영된 사용자의 얼굴에 대한 영상을 정합하고, 정합된 영상을 영상 처리할 수 있다. 이때, 영상 처리는 사용자의 얼굴 색상을 보정하는 과정 및 추출된 기준점들에 대하여 3D 얼굴 모델을 수정하는 과정 등을 포함할 수 있다.The device 30 may match an image of the user's face captured at the postoperative point of view from the second scan data, and image the matched image. In this case, the image processing may include a process of correcting the color of the user's face and a process of modifying the 3D face model with respect to the extracted reference points.

일실시예에 따르면, 장치(30)는 기준점들을 추출하고, 추출된 기준점들에 매칭되도록 하여 시술 후 시점의 사용자의 3D 얼굴 모델인 제2 얼굴 모델을 생성할 수 있다. 이때, 기준점은 미간, 인중, 왼쪽 눈 끝 및 오른쪽 눈 끝을 포함하는 정면 기준점 및 이마 끝, 아래 턱 끝, 광대 및 양쪽 턱 끝을 포함하는 측면 기준점을 포함할 수 있다.According to one embodiment, the device 30 may extract reference points and match the extracted reference points to generate a second face model, which is a 3D face model of the user at the point of view after the procedure. In this case, the reference points may include a frontal reference point including the forehead, the middle of the philtrum, the tips of the left and right eyes, and the side reference points including the tip of the forehead, the tip of the lower chin, the cheekbones, and the tips of both chins.

S205 단계에서, 장치(30)는 제1 얼굴 모델 및 제2 얼굴 모델을 비교할 수 있다.In step S205, the device 30 may compare the first face model and the second face model.

S206 단계에서, 장치(30)는 비교 결과에 기반하여, 시술에 따른 사용자의 얼굴 변화 값을 생성할 수 있다. 이때, 사용자의 얼굴 변화 값을 생성하는 과정에 대한 자세한 설명은 도 3을 참조하여 후술하기로 한다.In step S206, the device 30 may generate a change value of the user's face according to the procedure based on the comparison result. At this time, a detailed description of the process of generating the user's face change value will be described later with reference to FIG. 3 .

S207 단계에서, 장치(30)는 얼굴 변화 값과 미리 설정된 목표 값을 비교할 수 있다. 이때, 미리 설정된 목표 값은 실시예에 따라 상이하게 설정될 수 있다.In step S207, the device 30 may compare the face change value with a preset target value. In this case, the preset target value may be set differently according to embodiments.

S208 단계에서, 얼굴 변화 값이 목표 값에 도달한 경우, 장치(30)는 얼굴 스캔 이미지 및 얼굴 변화 값을 사용자의 사용자 단말(10)에 전송할 수 있다. 이때, 얼굴 스캔 이미지는 제1 얼굴 모델 및 제2 얼굴 모델을 포함할 수 있다.In step S208, when the face change value reaches the target value, the device 30 may transmit the face scan image and the face change value to the user terminal 10 of the user. In this case, the face scan image may include a first face model and a second face model.

S209 단계에서, 얼굴 변화 값이 목표 값에 도달하지 않은 경우, 장치(30)는 얼굴 변화 값이 목표 값에 도달하지 않은 부위를 추출할 수 있다.In step S209, if the face change value does not reach the target value, the device 30 may extract a part where the face change value does not reach the target value.

S210 단계에서, 장치(30)는 얼굴 스캔 이미지, 얼굴 변화 값 및 추출된 부위에 대하여 추가 시술을 제안하는 추가 시술 제안 메시지를 사용자 단말(10)에 전송할 수 있다.In step S210 , the device 30 may transmit an additional treatment suggestion message suggesting an additional treatment for the facial scan image, the face change value, and the extracted part to the user terminal 10 .

도 3은 일실시예에 따른 사용자의 얼굴 변화 값을 생성하는 과정을 설명하기 위한 순서도이다.3 is a flowchart illustrating a process of generating a change value of a user's face according to an exemplary embodiment.

도 3을 참조하면, 먼저 S301 단계에서, 장치(30)는 얼굴 스캔 이미지로부터 사용자의 얼굴의 정면 이미지 및 측면 이미지를 추출할 수 있다.Referring to FIG. 3 , in step S301 , the device 30 may extract a front image and a side image of the user's face from the face scan image.

이때, 사용자의 얼굴의 정면 이미지 및 측면 이미지는 시술 전 시점에서의 정면 이미지, 시술 전 시점에서의 측면 이미지, 시술 후 시점에서의 정면 이미지 및 시술 후 시점에서의 측면 이미지를 포함할 수 있다.In this case, the front image and side image of the user's face may include a front image before the procedure, a side image before the procedure, a front image after the procedure, and a side image after the procedure.

S302 단계에서, 장치(30)는 정면 이미지의 정면 기준점을 생성하고, 정면 이미지로부터 정면 기준점 사이의 정면 표면 거리를 산출할 수 있다. 이때, 정면 기준점은 미간, 인중, 왼쪽 눈 끝 및 오른쪽 눈 끝을 포함할 수 있다.In step S302, the device 30 may generate a front reference point of the front image, and calculate a front surface distance between the front reference points from the front image. In this case, the front reference point may include the middle of the forehead, the philtrum, the tip of the left eye, and the tip of the right eye.

예를 들어, 장치(30)는 시술 전 및 시술 후 시점에서의 왼쪽 눈 끝 및 오른쪽 눈 끝 사이의 표면 거리, 미간 및 인중 사이의 표면 거리 등을 포함하는 정면 표면 거리를 산출할 수 있다.For example, the device 30 may calculate the front surface distance including the surface distance between the tips of the left eye and the tip of the right eye before and after the procedure, the surface distance between the eyebrows and the philtrum, and the like.

S303 단계에서, 장치(30)는 시술 전 시점 및 시술 후 시점에서의 정면 표면 거리를 비교하여, 정면 얼굴 변화 값을 생성할 수 있다.In step S303, the device 30 may generate a frontal face change value by comparing the frontal surface distance at the time point before and after the procedure.

예를 들어, 장치(30)는 시술 전 시점에서의 왼쪽 눈 끝 및 오른쪽 눈 끝 사이의 표면 거리와 시술 후 시점에서의 왼쪽 눈 끝 및 오른쪽 눈 끝 사이의 표면 거리를 비교하고, 시술 전 시점에서의 왼쪽 눈 끝 및 오른쪽 눈 끝 사이의 표면 거리와 및 시술 후 시점에서의 왼쪽 눈 끝 및 오른쪽 눈 끝 사이의 표면 거리의 차이 값을 산출하여 정면 얼굴 변화 값을 생성할 수 있다.For example, the device 30 compares the surface distance between the tips of the left eye and the tip of the right eye before the procedure and the surface distance between the tips of the left eye and the right eye at the time point after the procedure, and at the time before the procedure A front face change value may be generated by calculating the difference between the surface distance between the ends of the left eye and the tip of the right eye and the surface distance between the tips of the left eye and the right eye at the time point after the procedure.

예를 들어, 장치(30)는 시술 전 시점에서의 미간 및 인중 사이의 표면 거리와 시술 후 시점에서의 미간 및 인중 사이의 표면 거리를 비교하고, 시술 전 시점에서의 미간 및 인중 사이의 표면 거리와 및 시술 후 시점에서의 미간 및 인중 사이의 표면 거리의 차이 값을 산출하여 정면 얼굴 변화 값을 생성할 수 있다.For example, the device 30 compares the surface distance between the eyebrows and the philtrum before the procedure with the surface distance between the eyebrows and the philtrum after the procedure, and compares the surface distance between the eyebrows and the philtrum before the procedure. A frontal face change value may be generated by calculating a difference value of the surface distance between the forehead and the philtrum at the point of time and after the procedure.

S304 단계에서, 장치(30)는 측면 이미지의 측면 기준점을 생성하고, 측면 이미지로부터 측면 기준점 사이의 측면 표면 거리를 산출할 수 있다. 이때, 측면 기준점은 이마 끝, 아래 턱 끝, 광대 및 양쪽 턱 끝을 포함할 수 있다.In step S304, the device 30 may generate side reference points of the side image, and calculate a side surface distance between the side reference points from the side image. In this case, the side reference point may include the tip of the forehead, the tip of the lower chin, the cheekbones, and the tips of both chins.

예를 들어, 장치(30)는 시술 전 및 시술 후 시점에서의 양쪽 턱 끝 사이의 표면 거리, 이마 끝 및 아래 턱 끝 사이의 표면 거리, 광대 및 이마 끝 사이의 표면 거리 등을 포함하는 측면 표면 거리를 산출할 수 있다.For example, the device 30 may include a surface distance between the tips of both chins before and after the procedure, a surface distance between the tip of the forehead and the tip of the lower jaw, a surface distance between the cheekbones and the tip of the forehead, and the like. distance can be calculated.

S305 단계에서, 장치(30)는 시술 전 시점 및 시술 후 시점에서의 측면 표면 거리를 비교하여, 측면 얼굴 변화 값을 생성할 수 있다.In step S305, the device 30 may generate a lateral face change value by comparing distances of the lateral surface at a time point before and after the procedure.

예를 들어, 장치(30)는 시술 전 시점에서의 양쪽 턱 끝 사이의 표면 거리와 및 시술 후 시점에서의 양쪽 턱 끝 사이의 표면 거리를 비교하고, 시술 전 시점에서의 양쪽 턱 끝 사이의 표면 거리와 시술 후 시점에서의 양쪽 턱 끝 사이의 표면 거리의 차이 값을 산출하여 측면 얼굴 변화 값을 생성할 수 있다.For example, the device 30 compares the surface distance between the jaw tips before the procedure and the surface distance between the jaw tips after the procedure, and compares the surface distance between the jaw tips before the procedure. The lateral face change value can be generated by calculating the difference between the distance and the surface distance between the tips of both chins at the time point after the procedure.

예를 들어, 장치(30)는 시술 전 시점에서의 이마 끝 및 아래 턱 끝 사이의 표면 거리와 시술 후 시점에서의 이마 끝 및 아래 턱 끝 사이의 표면 거리를 비교하고, 시술 전 시점에서의 이마 끝 및 아래 턱 끝 사이의 표면 거리와 및 시술 후 시점에서의 이마 끝 및 아래 턱 끝 사이의 표면 거리의 차이 값을 산출하여 측면 얼굴 변화 값을 생성할 수 있다.For example, the device 30 compares the surface distance between the tip of the forehead and the tip of the lower jaw before the procedure and the surface distance between the tip of the forehead and the tip of the lower jaw at the point after the procedure, and compares the surface distance between the tip of the forehead and the tip of the lower jaw before the procedure. A side face change value may be generated by calculating a difference value between the surface distance between the tip of the forehead and the tip of the lower jaw and the surface distance between the tip of the forehead and the tip of the lower jaw at the time point after the procedure.

예를 들어, 장치(30)는 시술 전 시점에서의 광대 및 이마 끝 사이의 표면 거리와 시술 후 시점에서의 광대 및 이마 끝 사이의 표면 거리를 비교하고, 시술 전 시점에서의 광대 및 이마 끝 사이의 표면 거리와 및 시술 후 시점에서의 광대 및 이마 끝 사이의 표면 거리의 차이 값을 산출하여 측면 얼굴 변화 값을 생성할 수 있다.For example, the device 30 compares the surface distance between the cheekbones and the tip of the forehead before the procedure and the surface distance between the cheekbones and the tip of the forehead after the procedure, and compares the surface distance between the cheekbones and the tip of the forehead before the procedure. A lateral face change value may be generated by calculating a difference between the surface distance of and the surface distance between the cheekbones and the tip of the forehead at the time point after the procedure.

S306 단계에서, 장치(30)는 측면 기준점을 기준으로 얼굴의 영역을 분리할 수 있다.In step S306, the device 30 may separate face regions based on the side reference points.

일실시예에 따르면, 장치(30)는 이마 끝, 아래 턱 끝, 광대 및 양쪽 턱 끝의 측면 기준점을 기준으로 평행선을 그어 얼굴의 영역을 분리할 수 있다.According to one embodiment, the device 30 may separate facial regions by drawing parallel lines based on side reference points of the tip of the forehead, the tip of the lower chin, the cheekbones, and the tips of both chins.

장치(30)는 이마 끝부터 광대, 광대부터 양쪽 턱 끝, 양쪽 턱 끝부터 아래 턱 끝의 영역으로 얼굴의 영역을 분리할 수 있다.The device 30 may divide the face region into regions from the forehead to the cheekbones, from the cheekbones to both chin tips, and from both chin tips to the lower chin.

S307 단계에서, 장치(30)는 분리된 영역의 면적을 산출할 수 있다.In step S307, the device 30 may calculate the area of the separated region.

일실시예에 따르면, 장치(30)는 이마 끝부터 광대, 광대부터 양쪽 턱 끝, 양쪽 턱 끝부터 아래 턱 끝의 영역에 대하여 분리된 영역 각각의 면적을 산출할 수 있다.According to an embodiment, the device 30 may calculate the area of each of the separated regions from the forehead to the cheekbones, from the cheekbones to both chin tips, and from both chin tips to the lower chin tip.

S308 단계에서, 장치(30)는 시술 전 시점 및 시술 후 시점에서의 면적을 비교하여, 얼굴 면적 변화 값을 생성할 수 있다.In step S308, the device 30 may generate a face area change value by comparing the areas at the time points before and after the procedure.

S309 단계에서, 장치(30)는 정면 얼굴 변화 값, 측면 얼굴 변화 값 및 얼굴 면적 변화 값을 결합하여 사용자의 얼굴 변화 값을 생성할 수 있다.In step S309, the device 30 may generate the user's face change value by combining the front face change value, the side face change value, and the face area change value.

도 4는 일실시예에 따른 얼굴 스캔 이미지 및 얼굴 변화 값을 사용자 단말에 전송하는 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a process of transmitting a face scan image and a face change value to a user terminal according to an exemplary embodiment.

도 4를 참조하면, 먼저 S401 단계에서, 장치(30)는 얼굴 변화 값과 미리 설정된 제1 기준 값을 비교할 수 있다. 이때, 제1 기준 값은 실시예에 따라 상이하게 설정될 수 있다.Referring to FIG. 4 , first, in step S401, the device 30 may compare a face change value with a preset first reference value. In this case, the first reference value may be set differently according to embodiments.

S402 단계에서, 장치(30)는 얼굴 변화 값이 제1 기준 값 이상인 부위를 최상 효과 부위로 결정할 수 있다.In step S402, the device 30 may determine a region having a facial change value greater than or equal to a first reference value as the most effective region.

S403 단계에서, 장치(30)는 얼굴 스캔 이미지에서 최상 효과 부위의 얼굴 변화 값을 표시하고, 최상 효과 부위에 제1 색상을 적용할 수 있다.In step S403, the device 30 may display the face change value of the best effect part in the face scan image, and apply a first color to the best effect part.

예를 들어, 장치(30)는 얼굴 스캔 이미지에서 최상 효과 부위에 빨간색을 적용할 수 있다.For example, the device 30 may apply a red color to the most effective region in the face scan image.

S404 단계에서, 얼굴 변화 값이 제1 기준 값 미만인 경우, 장치(30)는 얼굴 변화 값과 미리 설정된 제2 기준 값을 비교할 수 있다. 이때, 제2 기준 값은 실시예에 따라 상이하게 설정될 수 있다.In step S404, when the face change value is less than the first reference value, the device 30 may compare the face change value with a preset second reference value. In this case, the second reference value may be set differently according to embodiments.

S405 단계에서, 장치(30)는 얼굴 변화 값이 제2 기준 값 이상인 부위를 기본 효과 부위로 결정할 수 있다.In step S405, the device 30 may determine a region having a facial change value greater than or equal to a second reference value as a basic effect region.

S406 단계에서, 장치(30)는 얼굴 스캔 이미지에서 기본 효과 부위의 얼굴 변화 값을 표시하고, 기본 효과 부위에 제2 색상을 적용할 수 있다.In step S406, the device 30 may display the face change value of the basic effect part in the face scan image and apply a second color to the basic effect part.

예를 들어, 장치(30)는 얼굴 스캔 이미지에서 기본 효과 부위에 노란색을 적용할 수 있다.For example, the device 30 may apply yellow color to the basic effect area in the face scan image.

S407 단계에서, 장치(30)는 얼굴 변화 값이 제2 기준 값 미만인 부위를 비효과 부위로 결정할 수 있다.In step S407, the device 30 may determine a region having a facial change value less than the second reference value as an ineffective region.

S408 단계에서, 장치(30)는 얼굴 스캔 이미지에서 비효과 부위의 얼굴 변화 값을 표시하고, 비효과 부위에 제3 색상을 적용할 수 있다.In step S408, the device 30 may display the face change value of the ineffective part in the face scan image and apply a third color to the ineffective part.

예를 들어, 장치(30)는 얼굴 스캔 이미지에서 비효과 부위에 파란색을 적용할 수 있다.For example, the device 30 may apply blue color to non-effect areas in the face scan image.

S409 단계에서, 장치(30)는 최상 효과 부위, 기본 효과 부위 및 비효과 부위의 결정에 따른 얼굴 변화 값 및 제1 색상 내지 제3 색상이 적용된 얼굴 스캔 이미지를 사용자 단말(10)에 전송할 수 있다.In step S409, the device 30 may transmit, to the user terminal 10, a facial scan image to which face change values and first to third colors are applied according to the determination of the best effective part, the basic effective part, and the non-effective part. .

도 5는 일실시예에 따른 비효과 부위의 추가 시술 필요 여부를 판단하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of determining whether an additional treatment is required for an ineffective area according to an embodiment.

도 5를 참조하면, 먼저 S501 단계에서, 장치(30)는 비효과 부위의 대칭 정도를 산출할 수 있다.Referring to FIG. 5 , first in step S501, the device 30 may calculate the degree of symmetry of the ineffective part.

예를 들어, 비효과 부위가 광대인 경우, 사용자의 얼굴의 양쪽 광대에 대하여, 광대의 크기, 길이, 면적 및 색상 중 적어도 어느 하나를 비교하여 비효과 부위의 대칭 정도를 산출할 수 있다.For example, when the non-effect part is a cheekbone, the degree of symmetry of the non-effect part may be calculated by comparing at least one of the size, length, area, and color of both cheekbones of the user's face.

S502 단계에서, 장치(30)는 비효과 부위의 대칭 정도와 미리 설정된 기준 정도를 비교할 수 있다. 이때, 기준 정도는 실시예에 따라 상이하게 설정될 수 있다.In step S502, the device 30 may compare the degree of symmetry of the ineffective part with a preset reference degree. In this case, the reference degree may be set differently according to embodiments.

S503 단계에서, 비효과 부위의 대칭 정도가 기준 정도 이상인 경우, 장치(30)는 비효과 부위의 추가 시술이 필요 없는 것으로 판단할 수 있다.In step S503, if the degree of symmetry of the ineffective area is greater than or equal to the reference level, the device 30 may determine that no additional treatment is required for the ineffective area.

S504 단계에서, 장치(30)는 얼굴 스캔 이미지에서 추가 시술이 필요 없는 것으로 판단된 비효과 부위에 제1 밝기를 적용하고, 제1 밝기가 적용된 얼굴 스캔 이미지를 사용자 단말(10)로 전송할 수 있다.In step S504, the device 30 may apply a first brightness to an ineffective part of the face scan image that does not require additional treatment, and transmit the face scan image to which the first brightness is applied to the user terminal 10. .

즉, 장치(30)는 비효과 부위의 대칭 정도가 기준 정도 이상인 비효과 부위에 대하여 추가 시술이 필요 없는 것으로 판단하고, 해당 비효과 부위에 제1 밝기를 적용한 얼굴 스캔 이미지를 사용자 단말(10)로 전송할 수 있다.That is, the device 30 determines that additional treatment is not required for the non-effect area where the degree of symmetry of the ineffective area is equal to or greater than the reference level, and transmits a face scan image to which the first brightness is applied to the ineffective area to the user terminal 10. can be sent to

S505 단계에서, 비효과 부위의 대칭 정도가 기준 정도 미만인 경우, 장치(30)는 비효과 부위의 추가 시술이 필요한 것으로 판단할 수 있다.In step S505, if the degree of symmetry of the ineffective area is less than the reference level, the device 30 may determine that additional treatment is required for the ineffective area.

S506 단계에서, 장치(30)는 얼굴 스캔 이미지에서 추가 시술이 필요한 것으로 판단된 비효과 부위에 제2 밝기를 적용하고, 제2 밝기가 적용된 얼굴 스캔 이미지를 사용자 단말(10)로 전송할 수 있다.In step S506, the device 30 may apply a second brightness to an ineffective part of the face scan image determined to require additional treatment, and transmit the face scan image to which the second brightness is applied to the user terminal 10.

즉, 장치(30)는 비효과 부위의 대칭 정도가 기준 정도 미만인 비효과 부위에 대하여 추가 시술이 필요한 것으로 판단하고, 해당 비효과 부위에 제2 밝기를 적용한 얼굴 스캔 이미지를 사용자 단말(10)로 전송할 수 있다.That is, the device 30 determines that additional treatment is required for the non-effective area where the degree of symmetry of the ineffective area is less than the reference level, and transmits the face scan image to the user terminal 10 by applying the second brightness to the ineffective area. can transmit

도 6은 일실시예에 따른 추가 시술 강도를 설정하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of setting an additional treatment intensity according to an embodiment.

도 6을 참조하면, 먼저 S601 단계에서, 장치(30)는 얼굴 변화 값이 목표 값에 도달하지 않은 비효과 부위에 대해 얼굴 변화 값과 목표 값 사이의 차이값을 산출할 수 있다.Referring to FIG. 6 , first, in step S601 , the apparatus 30 may calculate a difference value between a face change value and a target value for an ineffective part where the face change value does not reach the target value.

S602 단계에서, 장치(30)는 차이값에 비례하여 비효과 부위의 추가 시술 강도를 설정할 수 있다.In step S602, the device 30 may set the additional treatment intensity of the ineffective part in proportion to the difference value.

일실시예에 따르면, 장치(30)는 비효과 부위에 대해 얼굴 변화 값과 목표 값 사이의 차이값이 클수록, 비효과 부위의 추가 시술 강도를 강하게 설정할 수 있고, 비효과 부위에 대해 얼굴 변화 값과 목표 값 사이의 차이값이 작을수록, 비효과 부위의 추가 시술 강도를 약하게 설정할 수 있다.According to one embodiment, the device 30 may set the additional treatment intensity of the ineffective part as the difference between the face change value and the target value for the ineffective part increases, and the face change value for the ineffective part. As the difference between the target value and the smaller value is smaller, the additional treatment intensity of the non-effective part can be set weakly.

S603 단계에서, 장치(30)는 비효과 부위 및 추가 시술 강도를 포함하는 추가 시술 안내 메시지를 사용자 단말(10)로 전송할 수 있다.In step S603, the device 30 may transmit an additional treatment guide message including an ineffective area and additional treatment intensity to the user terminal 10.

도 7은 일실시예에 따른 관리 지수에 기반하여 사용자 단말의 화면에 표시될 크기에 대한 비율을 생성하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of generating a ratio to a size to be displayed on a screen of a user terminal based on a management index according to an embodiment.

도 7을 참조하면, 먼저 S701 단계에서, 장치(30)는 미리 설정된 기준 기간 동안 특정 얼굴 부위에 대한 얼굴 변화 값을 수집할 수 있다. 이때, 기준 기간은 실시예에 따라 상이하게 설정될 수 있다. 예를 들어, 기준 기간이 30일인 경우, 장치(30)는 30일 동안 특정 얼굴 부위에 대한 얼굴 변화 값을 수집할 수 있다.Referring to FIG. 7 , in step S701, the device 30 may collect face change values for a specific face part during a preset reference period. In this case, the reference period may be set differently according to embodiments. For example, when the reference period is 30 days, the device 30 may collect face change values for a specific face part for 30 days.

S702 단계에서, 장치(30)는 기준 기간 동안 특정 얼굴 부위에 대하여 최상 효과 부위 및 비효과 부위로 설정된 횟수를 추출할 수 있다.In step S702, the device 30 may extract the number of times set as the most effective and non-effective parts for a specific facial part during the reference period.

예를 들어, 기준 기간이 30일인 경우, 장치(30)는 30일 동안 특정 얼굴 부위에 대하여 최상 효과 부위 및 비효과 부위로 설정된 횟수를 추출할 수 있다.For example, if the reference period is 30 days, the device 30 may extract the number of times set as the most effective and non-effective parts for a specific face part for 30 days.

S703 단계에서, 장치(30)는 최상 효과 부위로 설정된 횟수에 제1 가중치를 적용하여 제1 수치를 산출할 수 있다.In step S703, the device 30 may calculate a first value by applying a first weight to the number of times set as the most effective part.

S704 단계에서, 장치(30)는 비효과 부위로 설정된 횟수에 제2 가중치를 적용하여 제2 수치를 산출할 수 있다. 이때, 제2 가중치는 제1 가중치보다 크게 설정될 수 있다.In step S704, the device 30 may calculate a second value by applying a second weight to the number of times set as ineffective parts. In this case, the second weight may be set higher than the first weight.

S705 단계에서, 장치(30)는 제1 수치 및 제2 수치를 합산하여, 특정 얼굴 부위의 관리 지수를 산출할 수 있다.In step S705, the device 30 may calculate a management index for a specific facial part by summing the first value and the second value.

S706 단계에서, 장치(30)는 관리 지수에 기반하여, 특정 얼굴 부위에 대한 얼굴 스캔 이미지가 사용자 단말(10)의 화면에 표시될 크기에 대한 비율을 생성할 수 있다.In step S706 , the device 30 may generate a ratio of a face scan image for a specific face part to a size to be displayed on the screen of the user terminal 10 based on the management index.

일실시예에 따르면, 장치(30)는 특정 얼굴 부위에 대한 관리 지수가 높을수록, 얼굴 스캔 이미지가 사용자 단말(10)의 화면에 표시될 크기에 대한 비율을 높게 설정할 수 있다.According to an embodiment, the device 30 may set the ratio of the face scan image to the size to be displayed on the screen of the user terminal 10 higher as the management index for a specific face part increases.

예를 들어, 제1 부위에 대한 관리 지수가 30점이고, 제2 부위에 대한 관리 지수가 70점인 경우, 장치(30)는 제1 부위에 대한 얼굴 스캔 이미지가 사용자 단말(10)의 화면에 표시될 크기에 대한 비율을 30%로, 제2 부위에 대한 얼굴 스캔 이미지가 사용자 단말(10)의 화면에 표시될 크기에 대한 비율을 70%로 설정할 수 있다.For example, when the management index for the first part is 30 points and the management index for the second part is 70 points, the device 30 displays the face scan image of the first part on the screen of the user terminal 10. The ratio to the size to be displayed on the screen of the user terminal 10 and the ratio to the size to be displayed on the screen of the user terminal 10 may be set to 30% and the ratio to 70%.

S707 단계에서, 장치(30)는 생성된 비율이 적용된 얼굴 스캔 이미지를 사용자 단말(10)로 전송할 수 있다.In step S707, the device 30 may transmit the face scan image to which the generated ratio is applied to the user terminal 10.

예를 들어, 장치(30)는 제1 부위에 대하여 생성된 비율이 30%이고, 제2 부위에 대하여 생성된 비율이 70%인 경우, 생성된 비율이 각각 적용된 얼굴 스캔 이미지를 사용자 단말(10)로 전송할 수 있다.For example, when the ratio generated for the first part is 30% and the ratio generated for the second part is 70%, the device 30 transmits face scan images to which the generated ratios are respectively applied to the user terminal 10 ) can be transmitted.

도 8은 일실시예에 따른 장치의 구성의 예시도이다.8 is an exemplary diagram of a configuration of a device according to an embodiment.

일실시예에 따른 장치(30)는 프로세서(31) 및 메모리(32)를 포함한다. 일실시예에 따른 장치(30)는 상술한 서버 또는 단말일 수 있다. 프로세서(31)는 도 1 내지 도 7을 통하여 전술한 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 7을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(32)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(32)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.Device 30 according to one embodiment includes a processor 31 and a memory 32 . Device 30 according to an embodiment may be the above-described server or terminal. The processor 31 may include at least one device described above with reference to FIGS. 1 to 7 or may perform at least one method described above with reference to FIGS. 1 to 7 . The memory 32 may store information related to the above method or store a program in which the above method is implemented. Memory 32 may be volatile memory or non-volatile memory.

프로세서(31)는 프로그램을 실행하고, 장치(30)를 제어할 수 있다. 프로세서(31)에 의하여 실행되는 프로그램의 코드는 메모리(32)에 저장될 수 있다. 장치(30)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.The processor 31 may execute a program and control the device 30 . Program codes executed by the processor 31 may be stored in the memory 32 . The device 30 may be connected to an external device (eg, a personal computer or network) through an input/output device (not shown) and exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (3)

장치에 의해 수행되는 방법에 있어서,
시술 전 시점에서의 사용자의 얼굴을 3차원으로 스캔한 제1 스캔 데이터를 획득하는 단계;
상기 제1 스캔 데이터를 이용하여 제1 얼굴 모델을 생성하는 단계;
시술 후 시점에서의 상기 사용자의 얼굴을 3차원으로 스캔한 제2 스캔 데이터를 획득하는 단계;
상기 제2 스캔 데이터를 이용하여 제2 얼굴 모델을 생성하는 단계;
상기 제1 얼굴 모델 및 상기 제2 얼굴 모델을 비교하는 단계;
상기 비교 결과에 기반하여, 상기 시술에 따른 상기 사용자의 얼굴 변화 값을 생성하는 단계;
상기 얼굴 변화 값과 미리 설정된 목표 값을 비교하는 단계;
상기 얼굴 변화 값이 상기 목표 값에 도달한 경우, 상기 제1 얼굴 모델 및 상기 제2 얼굴 모델을 포함하는 얼굴 스캔 이미지 및 상기 얼굴 변화 값을 상기 사용자의 사용자 단말에 전송하는 단계;
상기 얼굴 변화 값이 상기 목표 값에 도달하지 않은 경우, 상기 얼굴 변화 값이 상기 목표 값에 도달하지 않은 부위를 추출하는 단계; 및
상기 얼굴 스캔 이미지, 상기 얼굴 변화 값 및 상기 추출된 부위에 대하여 추가 시술을 제안하는 추가 시술 제안 메시지를 상기 사용자 단말에 전송하는 단계;
를 포함하고,
상기 얼굴 스캔 이미지 및 상기 얼굴 변화 값을 상기 사용자 단말에 전송하는 단계는,
상기 얼굴 변화 값과 미리 설정된 제1 기준 값을 비교하는 단계,
상기 얼굴 변화 값이 상기 제1 기준 값 이상인 부위를 최상 효과 부위로 결정하는 단계,
상기 얼굴 스캔 이미지에서 상기 최상 효과 부위의 얼굴 변화 값을 표시하고, 상기 최상 효과 부위에 제1 색상을 적용하는 단계,
상기 얼굴 변화 값이 상기 제1 기준 값 미만인 경우, 상기 얼굴 변화 값과 미리 설정된 제2 기준 값을 비교하는 단계,
상기 얼굴 변화 값이 상기 제2 기준 값 이상인 부위를 기본 효과 부위로 결정하는 단계,
상기 얼굴 스캔 이미지에서 상기 기본 효과 부위의 얼굴 변화 값을 표시하고, 상기 기본 효과 부위에 제2 색상을 적용하는 단계,
상기 얼굴 변화 값이 상기 제2 기준 값 미만인 부위를 비효과 부위로 결정하는 단계,
상기 얼굴 스캔 이미지에서 상기 비효과 부위의 얼굴 변화 값을 표시하고, 상기 비효과 부위에 제3 색상을 적용하는 단계, 및
상기 최상 효과 부위, 상기 기본 효과 부위 및 상기 비효과 부위의 결정에 따른 얼굴 변화 값 및 상기 제1 색상 내지 상기 제3 색상이 적용된 얼굴 스캔 이미지를 상기 사용자 단말에 전송하는 단계
를 포함하고,
상기 얼굴 변화 값이 상기 목표 값에 도달하지 않은 비효과 부위에 대해 얼굴 변화 값과 상기 목표 값 사이의 차이값을 산출하는 단계;
상기 차이값에 비례하여 상기 비효과 부위의 추가 시술 강도를 설정하는 단계;
상기 비효과 부위 및 상기 추가 시술 강도를 포함하는 추가 시술 안내 메시지를 상기 사용자 단말로 전송하는 단계
를 더 포함하고,
상기 비효과 부위의 추가 시술 필요 여부를 판단하는 단계;를 더 포함하고,
상기 비효과 부위의 추가 시술 필요 여부를 판단하는 단계는,
상기 비효과 부위의 대칭 정도를 산출하는 단계,
상기 비효과 부위의 대칭 정도와 미리 설정된 기준 정도를 비교하는 단계,
상기 비효과 부위의 대칭 정도가 상기 기준 정도 이상인 경우, 상기 비효과 부위의 추가 시술이 필요 없는 것으로 판단하는 단계,
상기 얼굴 스캔 이미지에서 상기 추가 시술이 필요 없는 것으로 판단된 비효과 부위에 제1 밝기를 적용하고, 상기 제1 밝기가 적용된 얼굴 스캔 이미지를 상기 사용자 단말로 전송하는 단계,
상기 비효과 부위의 대칭 정도가 상기 기준 정도 미만인 경우, 상기 비효과 부위의 추가 시술이 필요한 것으로 판단하는 단계, 및
상기 얼굴 스캔 이미지에서 상기 추가 시술이 필요한 것으로 판단된 비효과 부위에 제2 밝기를 적용하고, 상기 제2 밝기가 적용된 얼굴 스캔 이미지를 상기 사용자 단말로 전송하는 단계
를 포함하는
3차원 얼굴 스캐닝 방법.
In the method performed by the device,
Obtaining first scan data obtained by scanning a user's face in three dimensions at a time point before the procedure;
generating a first face model using the first scan data;
obtaining second scan data obtained by scanning the user's face in 3D at the point of view after the procedure;
generating a second face model using the second scan data;
comparing the first face model and the second face model;
based on the comparison result, generating a face change value of the user according to the procedure;
comparing the face change value with a preset target value;
transmitting a face scan image including the first face model and the second face model and the face change value to a user terminal of the user when the face change value reaches the target value;
extracting a region where the face change value does not reach the target value when the face change value does not reach the target value; and
Transmitting an additional treatment suggestion message for suggesting an additional treatment for the face scan image, the face change value, and the extracted region to the user terminal;
including,
Transmitting the face scan image and the face change value to the user terminal,
Comparing the face change value with a preset first reference value;
Determining a region where the face change value is equal to or greater than the first reference value as the most effective region;
Displaying a face change value of the best effect part in the face scan image and applying a first color to the best effect part;
Comparing the face change value with a preset second reference value when the face change value is less than the first reference value;
Determining a region where the face change value is equal to or greater than the second reference value as a basic effect region;
displaying a face change value of the basic effect part in the face scan image and applying a second color to the basic effect part;
Determining a region where the face change value is less than the second reference value as an ineffective region;
displaying a face change value of the non-effect part in the face scan image and applying a third color to the non-effect part; and
Transmitting, to the user terminal, a face change value according to the determination of the best effect part, the basic effect part, and the non-effect part, and a face scan image to which the first color to the third color are applied.
including,
calculating a difference value between the face change value and the target value for an ineffective part where the face change value does not reach the target value;
setting an additional treatment intensity of the ineffective part in proportion to the difference value;
Transmitting an additional treatment guide message including the ineffective area and the additional treatment intensity to the user terminal
Including more,
Further comprising: determining whether additional treatment is required for the ineffective area;
The step of determining whether additional treatment is required for the ineffective area,
Calculating the degree of symmetry of the ineffective area;
Comparing the degree of symmetry of the ineffective part with a preset reference degree;
If the degree of symmetry of the ineffective area is equal to or greater than the reference level, determining that no additional treatment is required for the ineffective area;
Applying a first brightness to an ineffective part of the face scan image that is determined not to require the additional treatment, and transmitting the face scan image to which the first brightness is applied to the user terminal;
If the degree of symmetry of the ineffective area is less than the reference level, determining that additional treatment is required for the ineffective area, and
Applying a second brightness to an ineffective part determined to require the additional treatment in the face scan image, and transmitting the face scan image to which the second brightness is applied to the user terminal.
containing
3D face scanning method.
제1항에 있어서,
상기 사용자의 얼굴 변화 값을 생성하는 단계는,
상기 얼굴 스캔 이미지로부터 상기 사용자의 얼굴의 정면 이미지 및 측면 이미지를 추출하는 단계,
상기 정면 이미지의 미간, 인중, 왼쪽 눈 끝 및 오른쪽 눈 끝을 포함하는 정면 기준점을 생성하고, 상기 정면 이미지로부터 상기 정면 기준점 사이의 정면 표면 거리를 산출하는 단계,
상기 시술 전 시점 및 상기 시술 후 시점에서의 정면 표면 거리를 비교하여, 정면 얼굴 변화 값을 생성하는 단계,
상기 측면 이미지의 이마 끝, 아래 턱 끝, 광대 및 양쪽 턱 끝을 포함하는 측면 기준점을 생성하고, 상기 측면 이미지로부터 상기 측면 기준점 사이의 측면 표면 거리를 산출하는 단계,
상기 시술 전 시점 및 상기 시술 후 시점에서의 측면 표면 거리를 비교하여, 측면 얼굴 변화 값을 생성하는 단계,
상기 측면 기준점을 기준으로 얼굴의 영역을 분리하는 단계,
상기 분리된 영역의 면적을 산출하는 단계,
상기 시술 전 시점 및 상기 시술 후 시점에서의 면적을 비교하여, 얼굴 면적 변화 값을 생성하는 단계, 및
상기 정면 얼굴 변화 값, 상기 측면 얼굴 변화 값 및 상기 얼굴 면적 변화 값을 결합하여 상기 사용자의 얼굴 변화 값을 생성하는 단계
를 포함하는
3차원 얼굴 스캐닝 방법.
According to claim 1,
The step of generating the user's face change value,
Extracting a front image and a side image of the user's face from the face scan image;
generating a frontal reference point including the middle of the forehead, the middle of the philtrum, the tips of the left eye and the tip of the right eye of the frontal image, and calculating a frontal surface distance between the frontal reference points from the frontal image;
Comparing the frontal surface distance at the time point before the procedure and the time point after the procedure to generate a front face change value;
generating side surface reference points including the tip of the forehead, the tip of the lower chin, the cheekbones, and the tips of both chins of the side image, and calculating the side surface distance between the side reference points from the side image;
Comparing the side surface distances at the time before the procedure and the time after the procedure to generate a side face change value;
Separating a face region based on the side reference point;
Calculating the area of the separated region;
Comparing the area at the time point before the procedure and the time point after the procedure to generate a face area change value, and
generating a face change value of the user by combining the front face change value, the side face change value, and the face area change value;
containing
3D face scanning method.
삭제delete
KR1020220121273A 2022-09-26 2022-09-26 3d face scanning method, apparatus and system KR102486197B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220121273A KR102486197B1 (en) 2022-09-26 2022-09-26 3d face scanning method, apparatus and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220121273A KR102486197B1 (en) 2022-09-26 2022-09-26 3d face scanning method, apparatus and system

Publications (1)

Publication Number Publication Date
KR102486197B1 true KR102486197B1 (en) 2023-01-09

Family

ID=84892817

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220121273A KR102486197B1 (en) 2022-09-26 2022-09-26 3d face scanning method, apparatus and system

Country Status (1)

Country Link
KR (1) KR102486197B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130008236A (en) * 2011-07-12 2013-01-22 (주)쓰리디아이티 Image matching data creation method for orthognathic surgery and method for the orthognathic simulation surgery using the same
KR101510312B1 (en) 2013-09-13 2015-04-10 인하대학교 산학협력단 3D face-modeling device, system and method using Multiple cameras
KR20180103672A (en) * 2017-03-10 2018-09-19 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for providing result information about a procedure
KR101930851B1 (en) 2016-06-21 2018-12-19 (주)옵토바이오메드 A skin analysis and diagnosis system for 3D face modeling
KR20210156796A (en) 2020-06-18 2021-12-27 주식회사 디엠에프 Method for providing medical procedure result comparing service using 3-diementional face scan data
KR102434038B1 (en) 2022-05-20 2022-08-19 주식회사 패스트레인 Skin analysis system and method using camera module based on cloud service

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130008236A (en) * 2011-07-12 2013-01-22 (주)쓰리디아이티 Image matching data creation method for orthognathic surgery and method for the orthognathic simulation surgery using the same
KR101510312B1 (en) 2013-09-13 2015-04-10 인하대학교 산학협력단 3D face-modeling device, system and method using Multiple cameras
KR101930851B1 (en) 2016-06-21 2018-12-19 (주)옵토바이오메드 A skin analysis and diagnosis system for 3D face modeling
KR20180103672A (en) * 2017-03-10 2018-09-19 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for providing result information about a procedure
KR20210156796A (en) 2020-06-18 2021-12-27 주식회사 디엠에프 Method for providing medical procedure result comparing service using 3-diementional face scan data
KR102434038B1 (en) 2022-05-20 2022-08-19 주식회사 패스트레인 Skin analysis system and method using camera module based on cloud service

Similar Documents

Publication Publication Date Title
JP6585838B2 (en) Image distortion processing method and apparatus, and computer storage medium
EP3885967A1 (en) Object key point positioning method and apparatus, image processing method and apparatus, and storage medium
WO2019184749A1 (en) Trajectory tracking method and apparatus, and computer device and storage medium
KR101870689B1 (en) Method for providing information on scalp diagnosis based on image
KR102267319B1 (en) Apparatus and method for recommending cosmetics for skin type
KR102046134B1 (en) Neural network training method for utilizing differences between a plurality of images, and method thereof
CN114187633B (en) Image processing method and device, and training method and device for image generation model
KR20190112894A (en) Method and apparatus for 3d rendering
KR20200053232A (en) Method and apparatus for generating and providing avatar
US20230354979A1 (en) Scalp and hair management system
JP6769475B2 (en) Information processing system, management method for authentication, and program
US20200118349A1 (en) Information processing apparatus, information processing method, and program
KR20230015430A (en) Method and apparatus for processing face information, electronic device and storage medium
CN112925412A (en) Control method and device of intelligent mirror and storage medium
US20140198177A1 (en) Realtime photo retouching of live video
KR102486197B1 (en) 3d face scanning method, apparatus and system
CN110431838B (en) Method and system for providing dynamic content of face recognition camera
KR102272975B1 (en) Method for simulating the realistic rendering of a makeup product
TWI731447B (en) Beauty promotion device, beauty promotion system, beauty promotion method, and beauty promotion program
KR102300500B1 (en) Method, device and system for processing three-dimensional cut image of product
AU2018421183A1 (en) Systems and methods for blink action recognition based on facial feature points
CN114333018A (en) Shaping information recommendation method and device and electronic equipment
KR102537144B1 (en) Head molding helmet design method, device and system using ray casting
CN111259695A (en) Method and device for acquiring information
TW201945898A (en) Information processing device and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant