KR20230161907A - Apparatus for providing coronary analysis and face image according to face recognition - Google Patents

Apparatus for providing coronary analysis and face image according to face recognition Download PDF

Info

Publication number
KR20230161907A
KR20230161907A KR1020230073500A KR20230073500A KR20230161907A KR 20230161907 A KR20230161907 A KR 20230161907A KR 1020230073500 A KR1020230073500 A KR 1020230073500A KR 20230073500 A KR20230073500 A KR 20230073500A KR 20230161907 A KR20230161907 A KR 20230161907A
Authority
KR
South Korea
Prior art keywords
eyebrow
distance
feature point
ratio
processor
Prior art date
Application number
KR1020230073500A
Other languages
Korean (ko)
Inventor
박정신
Original Assignee
박정신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박정신 filed Critical 박정신
Priority to KR1020230073500A priority Critical patent/KR20230161907A/en
Publication of KR20230161907A publication Critical patent/KR20230161907A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치는 사용자의 안면 이미지를 입력받는 입력부; 및 상기 안면 이미지에 기초하여 사용자의 안면의 형상에 대한 특징을 나타내는 복수의 특징점 각각의 특징점 좌표와 눈썹의 외곽선을 나타내는 눈썹 외곽선 함수를 생성하는 프로세서;를 포함하고, 상기 프로세서는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 사용자의 이목구비 각각의 유형을 나타내는 이목구비 유형 정보를 결정하는데 이용되고 상기 이목구비의 형상이 반영된 수치 정보를 산출하고, 상기 수치 정보에 기초하여 상기 이목구비 유형 정보를 결정할 수 있다.An apparatus for providing physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention includes an input unit that receives a user's facial image; And a processor that generates feature point coordinates of each of a plurality of feature points representing characteristics of the user's facial shape based on the facial image and an eyebrow outline function representing the outline of the eyebrow, wherein the processor generates a plurality of feature point coordinates and One or more of the eyebrow outline functions are used to determine feature type information indicating each type of user's facial features, and numerical information reflecting the shape of the facial features is calculated, and the facial features type information is determined based on the numerical information. You can.

Description

안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치{Apparatus for providing coronary analysis and face image according to face recognition}Apparatus for providing coronary analysis and face image according to face recognition}

본 발명은 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치에 관한 것으로서, 더욱 상세하게는 사용자의 안면 이미지로부터 복수의 특징점들을 추출하고, 복수의 특징점들을 이용하여 안면의 특징을 나타내는 다양한 정보를 산출하여 눈썹 유형 정보, 전택궁 유형 정보, 미간 유형 정보, 전체인중 유형 정보, 턱인중 유형 정보 및 턱선 유형 정보를 제공할 수 있는 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치에 관한 것이다.The present invention relates to a device that provides facial analysis and facial images according to facial recognition. More specifically, it extracts a plurality of feature points from the user's facial image and provides various information representing facial features using the plurality of feature points. It relates to a device that provides facial analysis and facial images based on facial recognition that can calculate eyebrow type information, frontal arch type information, eyebrow type information, overall philtrum type information, chin philtrum type information, and jaw line type information. .

일반적으로, 동양철학에서 의미하는 사주(四柱)는 생년, 생월, 생일 및 생시 각각에 대한 기둥인 년주(年柱), 월주(月柱), 일주(日柱) 및 시주(時柱)를 말한다.Generally, the four pillars in Eastern philosophy refer to the yearly pillars, monthly pillars, daily pillars, and hourly pillars, which are the pillars for the year, month, birthday, and time of birth, respectively. .

그리고, 한 주(柱)는 간지(干支)의 두 글자로 되어 있으므로 사주는 총 여덟자가 되니 이를 사주팔자라 한다.Also, since one pillar (柱) is made up of the two characters of the kanji (干支), the four main characters are eight characters in total, which is called the four main characters.

따라서, 사주팔자에 대한 풀이란 음양오행(陰陽五行)을 바탕으로 나의 오행(木火土金水)과 나의 사주팔자는 어떤 관계가 있으며 이로부터 나의 행운은 어떻게 진행이 될 것인지를 알아보는 것을 말한다.Therefore, the interpretation of the four pillars of the four pillars refers to finding out what the relationship is between my five elements (wood, fire, earth, metal, water) and my four pillars, based on the five elements of yin and yang, and how my luck will progress from this.

또한, 사람의 얼굴, 손, 발등의 신체부위를 보고 그 사람의 재수나 운명 등을 판단하는 일을 관상(觀相)이라 한다.Additionally, looking at body parts such as a person's face, hands, and feet and judging that person's fortune or fate is called contemplation.

이와 같은 사주 또는 관상은 오랜 기간동안 심도 있는 공부를 하여야만 알 수 있거나 역술인과 같은 전문가를 통해서만 알 수 있는 것으로, 자신의 관상에 대해 궁금함을 갖는 많은 사람들은 이러한 궁금증을 해소하기 위해 무속인 등을 찾아 그 해 또는 평생의 사주와 자신의 관상을 점쳐 궁금증을 해소하거나 각 일간지나 잡지 등에 서비스로 제공되는 역술을 통해 그 궁금증을 해소하여 왔다.Such fortune-telling or meditation can only be known through in-depth study over a long period of time or through experts such as fortune tellers. Many people who are curious about their own meditation seek out shamans to resolve these questions. They have solved their curiosity by predicting the fortunes of the year or the rest of their lives and their physiognomy, or through fortune-telling provided as a service in each daily newspaper or magazine.

이처럼, 관상에 대한 관심과 외모의 아름다움에 대한 관심이 증가하면서, 자신의 관상과 외모를 바꾸기 위한 성형술에 대한 관심과 수요 또한 증가하고 있다. As interest in physiognomy and beauty of appearance increases, interest in and demand for plastic surgery to change one's physiognomy and appearance is also increasing.

하지만, 종래에는 대중화된 인터넷 서비스를 통해 사용자의 안면 이미지에 대한 서비스 제공자(관상학자)의 주관적 및 경험적 분석 의견을 관상학 정보로 제공하는 실정이다.However, conventionally, the subjective and empirical analysis opinion of a service provider (a physiognomist) regarding a user's facial image is provided as physiognomy information through a popular Internet service.

이에 따라, 동일한 사용자의 안면 이미지 더라도, 서비스 제공자 마다 관상학 정보가 다른 문제점이 발생한다.Accordingly, a problem arises where physiognomy information is different for each service provider, even if it is a facial image of the same user.

따라서, 사용자의 안면 이미지에 대한 객관적인 관상학 분석을 위해 안면 이미지에 대한 특징점과 외곽선을 추출하여 수치적 데이터를 제공하는 기술이 필요하다.Therefore, for objective physiognomy analysis of the user's facial image, a technology is needed to extract feature points and outlines of the facial image and provide numerical data.

한국공개특허 제10-2016-0062429호Korean Patent Publication No. 10-2016-0062429

본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율 중 하나 이상에 기초하여 사용자의 눈썹 유형 정보를 결정할 수 있는 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치를 제공함에 있다.The purpose of the present invention is to provide physiognomy analysis based on facial recognition that can determine the user's eyebrow type information based on one or more of a plurality of eyebrow mountain relative positions, eyebrow slope, eyebrow curvature, and eyebrow thickness ratio calculated from the user's facial image. and provides a device that provides facial images.

또한, 본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율 중 하나 이상에 기초하여 사용자의 전택궁 유형 정보 및 미간 유형 정보를 결정할 수 있는 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치를 제공함에 있다.In addition, an object of the present invention is to determine the user's front arch type information and eyebrow type information based on one or more of a plurality of eyebrow peak relative positions, eyebrow slope, eyebrow curvature, and eyebrow thickness ratio calculated from the user's facial image. The aim is to provide a device that provides physiognomy analysis and facial images based on facial recognition.

또한, 본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 전체인중 비율에 기초하여 전체인중 유형 정보를 결정할 수 있는 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치를 제공함에 있다.In addition, the purpose of the present invention is to provide a device that provides facial analysis and facial images based on facial recognition that can determine total population type information based on the total population ratio calculated from the user's facial image.

또한, 본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 턱인중 비율에 기초하여 턱인중 유형 정보를 결정할 수 있는 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치를 제공함에 있다.Additionally, the purpose of the present invention is to provide a device that provides facial images and facial analysis based on facial recognition that can determine chin philtrum type information based on the chin philtrum ratio calculated from the user's facial image.

또한, 본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 턱선 비율에 기초하여 턱선 유형 정보를 결정할 수 있는 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치를 제공함에 있다.Additionally, the purpose of the present invention is to provide a device that provides facial analysis and facial images through facial recognition that can determine jaw line type information based on the jaw line ratio calculated from the user's facial image.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.

본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치는 사용자의 안면 이미지를 입력받는 입력부; 및 상기 안면 이미지에 기초하여 사용자의 안면의 형상에 대한 특징을 나타내는 복수의 특징점 각각의 특징점 좌표와 눈썹의 외곽선을 나타내는 눈썹 외곽선 함수를 생성하는 프로세서;를 포함하고, 상기 프로세서는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 사용자의 이목구비 각각의 유형을 나타내는 이목구비 유형 정보를 결정하는데 이용되고 상기 이목구비의 형상이 반영된 수치 정보를 산출하고, 상기 수치 정보에 기초하여 상기 이목구비 유형 정보를 결정할 수 있다.An apparatus for providing physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention includes an input unit that receives a user's facial image; And a processor that generates feature point coordinates of each of a plurality of feature points representing characteristics of the user's facial shape based on the facial image and an eyebrow outline function representing the outline of the eyebrow, wherein the processor generates a plurality of feature point coordinates and One or more of the eyebrow outline functions are used to determine feature type information indicating each type of user's facial features, and numerical information reflecting the shape of the facial features is calculated, and the facial features type information is determined based on the numerical information. You can.

바람직하게, 상기 프로세서는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 눈 및 눈썹 중 하나 이상의 위치 대비 상기 사용자의 눈썹산의 상대 위치를 나타내는 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율을 상기 수치 정보로써 산출하고, 상기 복수의 눈썹산 상대 위치, 상기 눈썹 기울기, 상기 눈썹 곡률 및 상기 눈썹 두께 비율 중 하나 이상에 기초하여 상기 사용자의 눈썹의 유형을 나타내는 눈썹 유형 정보를 상기 이목구비 유형 정보 중 하나로 결정할 수 있다.Preferably, the processor uses one or more of a plurality of feature point coordinates and the eyebrow outline function to provide a plurality of eyebrow peak relative positions, eyebrow tilt, and eyebrows indicating the relative position of the user's eyebrow peaks compared to the positions of one or more of the eyes and eyebrows. Eyebrow type information that calculates the curvature and eyebrow thickness ratio as the numerical information and indicates the type of the user's eyebrows based on one or more of the plurality of eyebrow mountain relative positions, the eyebrow tilt, the eyebrow curvature, and the eyebrow thickness ratio. can be determined as one of the above facial features type information.

바람직하게, 상기 프로세서는 상기 복수의 특징점 중에서 사용자의 안면 상단과 안면 하단을 각각 나타내는 상단 특징점과 하단 특징점을 잇는 직선을 수직축으로 설정하고 상기 수직축에 수직한 수평축을 설정할 수 있다.Preferably, the processor may set a straight line connecting an upper feature point and a lower feature point representing the top and bottom of the user's face, respectively, among the plurality of feature points as the vertical axis, and set a horizontal axis perpendicular to the vertical axis.

바람직하게, 상기 프로세서는 상기 복수의 특징점 중에서 눈머리를 나타내는 눈머리 특징점을 지나는 제1 수직선 및 상기 눈썹의 외곽선 중에서 상부 외곽선이 교차되는 제1 교차점을 추출하고, 상기 복수의 특징점 중에서 상기 눈썹산을 나타내는 눈썹산 특징점 및 상기 제1 교차점을 잇는 제1 직선의 기울기를 상기 눈썹 기울기로 산출할 수 있다.Preferably, the processor extracts a first intersection point where an upper outline of the outlines of the eyebrows and a first vertical line passing through the eye crown feature points representing the eyelids from among the plurality of feature points, and selects the eyebrow peaks from the plurality of feature points. The slope of the first straight line connecting the indicated eyebrow peak feature point and the first intersection point can be calculated as the eyebrow slope.

바람직하게, 상기 프로세서는 상기 수평축 상에서의 상기 눈썹산 특징점 및 상기 제1 교차점 간에 제1 거리를 산출하고, 상기 수직축 상에서의 상기 상부 외곽선 및 상기 제1 직선 간에 제2 거리를 산출하며, 상기 제1 거리 대비 상기 제2 거리의 제1 거리 비율을 상기 눈썹 곡률로 산출할 수 있다.Preferably, the processor calculates a first distance between the eyebrow peak feature point and the first intersection point on the horizontal axis, calculates a second distance between the upper outline and the first straight line on the vertical axis, and calculates the first distance between the upper outline and the first straight line on the vertical axis. The ratio of the first distance to the second distance can be calculated as the eyebrow curvature.

바람직하게, 상기 프로세서는 상기 제1 수직선 및 상기 눈썹의 외곽선 중에서 하부 외곽선이 교차되는 제2 교차점을 추출하고, 상기 제1 교차점 및 상기 제2 교차점 간에 제3 거리를 산출하고, 상기 눈썹산 특징점을 지나는 제2 수직선 및 상기 하부 외곽선이 교차되는 제3 교차점을 추출하고, 상기 눈썹산 특징점 및 상기 제3 교차점 간에 제4 거리를 산출하고, 상기 제3 거리 대비 상기 제4 거리의 제2 거리 비율을 상기 눈썹 두께 비율로 산출할 수 있다.Preferably, the processor extracts a second intersection point where a lower outline intersects among the first vertical line and the outline of the eyebrow, calculates a third distance between the first intersection point and the second intersection point, and determines the eyebrow peak feature point. Extract a third intersection point where the passing second vertical line and the lower outline intersect, calculate a fourth distance between the eyebrow peak feature point and the third intersection point, and calculate a second distance ratio of the fourth distance to the third distance. It can be calculated using the eyebrow thickness ratio.

바람직하게, 상기 프로세서는 상기 복수의 특징점 중에서 눈머리를 나타내는 눈머리 특징점 및 눈썹꼬리를 나타내는 눈썹꼬리 특징점 간에 상기 수평축 상에서의 제1 중점을 추출하고, 상기 복수의 특징점 중에서 눈썹산을 나타내는 눈썹산 특징점 및 상기 수직축 간에 상기 수평축 상에서의 제5 거리를 산출하고, 상기 수평축 상에서의 상기 제1 중점 및 상기 수직축 간에 제6 거리를 산출하고, 상기 제5 거리 및 상기 제6 거리 간에 제1 거리 차를 상기 복수의 눈썹산 상대 위치 중에서 제1 눈썹산 상대 위치로 산출할 수 있다.Preferably, the processor extracts a first midpoint on the horizontal axis between an eye head feature point representing the eye head and an eyebrow tail feature point representing the eyebrow tail among the plurality of feature points, and an eyebrow peak feature point representing the eyebrow peak among the plurality of feature points. and calculating a fifth distance on the horizontal axis between the vertical axes, calculating a sixth distance between the first midpoint on the horizontal axis and the vertical axis, and calculating a first distance difference between the fifth distance and the sixth distance. Among the plurality of relative positions of the eyebrow peaks, the relative position of the first eyebrow peak can be calculated.

바람직하게, 상기 프로세서는 상기 복수의 특징점 중에서 눈썹머리를 나타내는 눈썹머리 특징점 및 상기 눈썹꼬리 특징점 간에 상기 수평축 상에서의 제2 중점을 추출하고, 상기 수평축 상에서의 상기 눈썹머리 특징점 및 상기 수직축 간에 제7 거리를 산출하고, 상기 수평축 상에서의 상기 제2 중점 및 상기 수직축 간에 제8 거리를 산출하고, 상기 제7 거리 및 상기 제8 거리 간에 거리 합을 산출하고, 상기 제5 거리 및 상기 거리 합 간에 제2 거리 차를 상기 복수의 눈썹산 상대 위치 중에서 제2 눈썹산 상대 위치로 산출할 수 있다.Preferably, the processor extracts a second midpoint on the horizontal axis between the eyebrow head feature point representing the eyebrow head and the eyebrow tail feature point among the plurality of feature points, and a seventh distance between the eyebrow head feature point on the horizontal axis and the vertical axis. Calculate an eighth distance between the second midpoint on the horizontal axis and the vertical axis, calculate a distance sum between the seventh distance and the eighth distance, and calculate a second distance between the fifth distance and the distance sum. The distance difference may be calculated as the second eyebrow peak relative position among the plurality of eyebrow peak relative positions.

바람직하게, 상기 프로세서는 상기 눈썹 기울기가 제1 기준 기울기 이하이고 상기 눈썹 두께 비율이 기준 두께 비율 이상이고 상기 복수의 눈썹산 상대 위치 중에서 제1 눈썹산 상대 위치가 기준 상대 위치 이상이면 상기 눈썹 유형 정보를 일자형 눈썹 유형으로 결정하고, 상기 눈썹 기울기가 제1 기준 기울기 이하이고, 상기 눈썹 두께 비율이 기준 두께 비율 이하이면 상기 눈썹 유형 정보를 세미아치형 눈썹 유형으로 결정할 수 있다.Preferably, the processor provides the eyebrow type information if the eyebrow slope is less than or equal to the first reference slope, the eyebrow thickness ratio is greater than or equal to the reference thickness ratio, and the first eyebrow peak relative position among the plurality of eyebrow peak relative positions is greater than or equal to the reference relative position. is determined to be a straight eyebrow type, and if the eyebrow slope is less than or equal to the first reference slope and the eyebrow thickness ratio is less than or equal to the standard thickness ratio, the eyebrow type information may be determined to be a semi-arch eyebrow type.

바람직하게, 상기 프로세서는 상기 눈썹 기울기가 제1 기준 기울기 이상이고 상기 눈썹 곡률이 기준 곡률 이상이면 상기 눈썹 유형 정보를 아치형 눈썹 유형으로 결정하고, 상기 눈썹 기울기가 제1 기준 기울기 이상이고 상기 눈썹 곡률이 기준 곡률 미만이면 상기 눈썹 유형 정보를 각진형 눈썹 유형으로 결정할 수 있다.Preferably, the processor determines the eyebrow type information as an arched eyebrow type if the eyebrow slope is greater than or equal to the first reference slope and the eyebrow curvature is greater than or equal to the reference curvature, and if the eyebrow slope is greater than or equal to the first reference slope and the eyebrow curvature is greater than or equal to the reference curvature, the processor determines the eyebrow type information as an arched eyebrow type. If the curvature is less than the standard curvature, the eyebrow type information may be determined as an angular eyebrow type.

바람직하게, 상기 프로세서는 상기 눈썹 기울기가 제1 기준 기울기를 초과하고 상기 제1 기준 기울기 보다 큰 제2 기준 기울기 미만이면 상기 눈썹 유형 정보를 표준형 눈썹 유형으로 결정하고, 상기 눈썹 기울기가 제2 기준 기울기 이상이고 상기 복수의 눈썹산 상대 위치 중에서 제2 눈썹산 상대 위치가 기준 상대 위치 이상이면 상기 눈썹 유형 정보를 상승형 눈썹 유형으로 결정할 수 있다.Preferably, the processor determines the eyebrow type information as a standard eyebrow type if the eyebrow slope exceeds the first reference slope and is less than the second reference slope that is greater than the first reference slope, and the eyebrow slope is the second reference slope. If the second eyebrow peak relative position among the plurality of eyebrow peak relative positions is greater than or equal to the reference relative position, the eyebrow type information may be determined as a raised eyebrow type.

본 발명에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치는, 사용자의 안면 이미지로부터 산출된 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율 중 하나 이상에 기초하여 사용자의 눈썹 유형 정보를 결정함으로써, 사용자의 눈썹 유형에 대한 수치적이고 객관적인 정보를 제공할 수 있다.The device for providing physiognomy analysis and facial images according to facial recognition according to the present invention is based on one or more of a plurality of eyebrow peak relative positions, eyebrow slope, eyebrow curvature, and eyebrow thickness ratio calculated from the user's facial image. By determining eyebrow type information, numerical and objective information about the user's eyebrow type can be provided.

또한, 본 발명에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치는, 사용자의 안면 이미지로부터 산출된 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율 중 하나 이상에 기초하여 사용자의 전택궁 유형 정보 및 미간 유형 정보를 결정함으로써, 사용자의 전택궁 유형과 미간 유형에 대한 수치적이고 객관적인 정보를 제공할 수 있다.In addition, the device for providing physiognomy analysis and facial images according to facial recognition according to the present invention is based on one or more of a plurality of eyebrow peak relative positions, eyebrow slope, eyebrow curvature, and eyebrow thickness ratio calculated from the user's facial image. By determining the user's frontal arch type and eyebrow type information, it is possible to provide numerical and objective information about the user's frontal arch type and eyebrow type.

또한, 본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 전체인중 비율에 기초하여 전체인중 유형 정보를 결정함으로써, 사용자의 전체인중 유형에 대한 수치적이고 객관적인 정보를 제공할 수 있다.In addition, the purpose of the present invention is to determine the total crowd type information based on the total crowd ratio calculated from the user's facial image, thereby providing numerical and objective information about the user's total crowd type.

또한, 본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 턱인중 비율에 기초하여 턱인중 유형 정보를 결정함으로써, 사용자의 턱인중 유형에 대한 수치적이고 객관적인 정보를 제공할 수 있다.Additionally, the purpose of the present invention is to provide numerical and objective information about the user's chin philtrum type by determining chin philtrum type information based on the chin philtrum ratio calculated from the user's facial image.

또한, 본 발명의 목적은, 사용자의 안면 이미지로부터 산출된 턱선 비율에 기초하여 턱선 유형 정보를 결정함으로써, 사용자의 턱선 유형에 대한 수치적이고 객관적인 정보를 제공할 수 있다.Additionally, the purpose of the present invention is to provide numerical and objective information about the user's jawline type by determining the jawline type information based on the jawline ratio calculated from the user's facial image.

도 1은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 사용자의 안면 이미지를 입력받는 모습을 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치의 구성 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 복수의 특징점 좌표 및 눈썹 외곽선 함수를 생성하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 눈썹 기울기를 산출하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 눈썹 곡률을 산출하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 눈썹 두께 비율을 산출하는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 복수의 눈썹 상대 위치 중에서 제1 눈썹 상대 위치를 산출하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 복수의 눈썹 상대 위치 중에서 제2 눈썹 상대 위치를 산출하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 전택궁 유형 정보를 결정하는 과정을 설명하기 위한 도면이다.
도 10는 본 발명의 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 미간 유형 정보를 결정하는 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 전체인중 유형 정보 및 턱인중 유형 정보를 결정하는 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 턱선 유형 정보를 결정하는 과정을 설명하기 위한 도면이다.
Figure 1 is a diagram illustrating a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention, receiving a user's facial image.
Figure 2 is a block diagram of a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a process in which a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention generates a plurality of feature point coordinates and an eyebrow outline function.
Figure 4 is a diagram illustrating the process of calculating the eyebrow slope by a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a process for calculating eyebrow curvature by a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention.
Figure 6 is a diagram illustrating a process by which a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention calculates the eyebrow thickness ratio.
FIG. 7 is a diagram illustrating a process in which a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention calculates a first eyebrow relative position among a plurality of eyebrow relative positions.
FIG. 8 is a diagram illustrating a process in which a device that provides facial analysis and facial images based on facial recognition according to an embodiment of the present invention calculates a second eyebrow relative position among a plurality of eyebrow relative positions.
Figure 9 is a diagram illustrating a process in which a device that provides physiognomy analysis and facial images based on facial recognition according to another embodiment of the present invention determines information on the type of facial expression.
FIG. 10 is a diagram illustrating a process in which a device that provides facial analysis and facial images based on facial recognition determines type information between the eyebrows according to another embodiment of the present invention.
FIG. 11 is a diagram illustrating a process in which a device that provides physiognomy analysis and facial images based on facial recognition determines overall philtrum type information and chin philtrum type information according to another embodiment of the present invention.
FIG. 12 is a diagram illustrating a process in which a device that provides facial analysis and facial images based on facial recognition determines jaw line type information according to another embodiment of the present invention.

이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형 태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대 해서는 유사한 참조 부호가 사용될 수 있다. Hereinafter, various embodiments of the present invention are described with reference to the accompanying drawings. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives to the embodiments of the present invention. In connection with the description of the drawings, similar reference signs may be used for similar components.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현 은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는 (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다. In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, or (3) It can refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중 요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.As used herein, expressions such as "first", "second", "first", or "second" may modify various elements in any order and/or importance, and may refer to one element. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, a first component may be renamed a second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed to the first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성 요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다. A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When “connected to” is mentioned, it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is referred to as being “directly connected” or “directly connected” to another component (e.g., a second component), it is said that the component and the other component are It may be understood that no other components (e.g., third components) exist between components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합 한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것 만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성 (또는 설정)된 제어부"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. The expression "configured to" used in this document may be used depending on the context, for example, "suitable for," "having the capacity to." )", "designed to", "adapted to", "made to", or "capable of". . The term “configured (or set) to” may not necessarily mean “specifically designed to” in hardware. Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "control configured (or set) to perform A, B, and C" means that a dedicated processor (e.g., an embedded processor) to perform the operations, or by executing one or more software programs stored in memory, , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

특히, 본 명세서에서, “~장치”는 중앙처리장치(Central Processing Unit (CPU)), 애플리케이션 프로세서(Application Processor (AP)) 및 커뮤니케이션 프로세서(Communication Processor (CP)) 중 하나 이상을 포함할 수 있다. In particular, in this specification, “~device” may include one or more of a central processing unit (CPU), an application processor (AP), and a communication processor (CP). .

본 명세서에서, “~장치”는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, “~장치”는 웨어러블 장치, 스마트폰, 태블릿 PC 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, “˜device” refers to all types of hardware devices including at least one processor, and depending on the embodiment, it may be understood as encompassing software configurations that operate on the hardware device. For example, “~device” can be understood as including wearable devices, smartphones, tablet PCs, and user clients and applications running on each device, but is not limited thereto.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한 정하려는 의도가 아닐 수 있다. 단수의 표현은 컨텍스트 상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 컨텍스트 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다. Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, they may be interpreted in an ideal or excessively formal sense. It is not interpreted. In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

도 1은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 사용자의 안면 이미지를 입력받는 모습을 도시한 도면이고, 도 2는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치의 구성 블록도이고, 도 3은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 복수의 특징점 좌표 및 눈썹 외곽선 함수를 생성하는 과정을 설명하기 위한 도면이다.Figure 1 is a diagram showing a device that provides facial analysis and facial images according to facial recognition according to an embodiment of the present invention, and Figure 2 is a diagram showing a device receiving a user's facial image according to an embodiment of the present invention. It is a block diagram of a device that provides facial analysis and facial images according to facial recognition, and Figure 3 shows a device that provides facial analysis and facial images according to facial recognition according to an embodiment of the present invention. This is a drawing to explain the process of creating an outline function.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 사용자의 안면을 촬영하여 생성된 안면 이미지로부터 사용자의 안면의 형상에 대한 특징을 나타내는 복수의 특징점을 추출하고, 눈썹의 외곽선을 추출할 수 있다.Referring to Figures 1 to 3, the device 100 for providing physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention determines the shape of the user's face from the facial image generated by photographing the user's face. A plurality of feature points representing the characteristics of can be extracted, and the outline of the eyebrow can be extracted.

이후, 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 복수의 특징점 각각의 특징점 좌표와 눈썹의 외곽선의 눈썹 외곽선 함수를 생성하고, 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 수치 정보를 산출하고, 수치 정보에 기초하여 상기 이목구비 유형 정보를 결정할 수 있다.Afterwards, the device 100, which provides physiognomy analysis and a face image according to facial recognition, generates an eyebrow outline function of the feature point coordinates of each of the plurality of feature points and the outline of the eyebrow, and at least one of the plurality of feature point coordinates and the eyebrow outline function. Numerical information can be calculated using , and the facial feature type information can be determined based on the numerical information.

여기서, 수치 정보는 사용자의 이목구비 각각의 유형을 나타내는 이목구비 유형 정보를 결정하는데 이용되고 상기 이목구비의 형상이 반영된 정보일 수 있다.Here, the numerical information is used to determine feature type information indicating each type of user's features and may be information that reflects the shape of the features.

예를 들어, 수치 정보는 후술되는 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률, 눈썹 두께 비율, 전체인중 비율, 턱인중 비율 및 턱선 비율일 수 있다.For example, the numerical information may be the relative positions of a plurality of eyebrow peaks, eyebrow inclination, eyebrow curvature, eyebrow thickness ratio, total philtrum ratio, chin philtrum ratio, and chin line ratio, which will be described later.

또한, 이목구비 유형 정보는 사용자의 눈썹 유형을 나타내는 눈썹 유형 정보, 사용자의 전택궁 유형을 나타내는 전택궁 유형 정보, 사용자의 미간 유형을 나타내는 미간 유형 정보, 사용자의 전체인중 유형을 나타내는 전체 인중 유형 정보, 사용자의 턱인중 유형을 나타내는 턱인중 유형 정보 및 사용자의 턱선 유형을 나타내는 턱선 유형 정보일 수 있다.In addition, the facial features type information includes eyebrow type information indicating the user's eyebrow type, Jeontaekung type information indicating the user's eyebrow type, eyebrow type information indicating the user's eyebrow type, and overall philtrum type information indicating the user's entire philtrum type. , It may be chin philtrum type information indicating the user's chin philtrum type and jaw line type information indicating the user's jaw line type.

이를 위해, 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 입력부(110), 프로세서(120), 출력부(130), 통신부(140) 및 저장부(150)를 포함할 수 있다.For this purpose, the device 100 that provides physiognomy analysis and facial images according to facial recognition according to an embodiment of the present invention includes an input unit 110, a processor 120, an output unit 130, a communication unit 140, and a storage unit. It may include unit 150.

입력부(110)는 사용자의 안면 이미지를 입력받을 수 있다.The input unit 110 can receive the user's facial image.

이때, 입력부(110)는 촬영 장치와 연결되어 촬영 장치로부터 출력되는 안면 이미지를 입력받을 수 있다. 또한, 입력부(110)는 카메라 모듈을 구비하여 촬영 장치로부터 안면 이미지를 입력받는 대신 사용자의 안면을 촬영하여 안면 이미지를 생성할 수도 있다.At this time, the input unit 110 is connected to a photographing device and can receive a facial image output from the photographing device. Additionally, the input unit 110 may be equipped with a camera module to generate a facial image by photographing the user's face instead of receiving a facial image from a photographing device.

프로세서(120)는 상기 안면 이미지에 기초하여 사용자의 안면의 형상에 대한 특징을 나타내는 복수의 특징점과 눈썹의 외곽선을 추출할 수 있다.The processor 120 may extract a plurality of feature points representing characteristics of the user's facial shape and the outline of the eyebrows based on the facial image.

또한, 프로세서(120)는 상기 안면 이미지에 기초하여 사용자의 안면의 형상에 대한 특징을 나타내는 특징점을 더 추출할 수 있다.Additionally, the processor 120 may further extract feature points representing characteristics of the shape of the user's face based on the facial image.

이를 위해, 프로세서(120)는 통기 기반 모델, 인공 신경망 모델, 연결 구조 모델 및 마르코프 모델 중 하나 이상을 이용하여 복수의 특징점과 눈썹의 외곽선을 안면 이미지로부터 추출할 수 있다.To this end, the processor 120 may extract a plurality of feature points and the outline of the eyebrows from the facial image using one or more of a ventilation-based model, an artificial neural network model, a connection structure model, and a Markov model.

이때, 프로세서(120)는 안면 윤곽, 양쪽 눈썹 중 어느 한 쪽의 눈썹 및 양쪽 눈 중 어느 한쪽의 눈 각각의 특징점과 상술된 어느 한 쪽의 눈썹의 외곽선을 추출할 수 있다.At this time, the processor 120 may extract the facial contour, the feature points of one of both eyebrows, each eye of both eyes, and the outline of one of the eyebrows described above.

구체적으로, 프로세서(120)는 도 3에 도시된 바와 같이, 복수의 특징점으로써, 사용자의 안면 상단을 나타내는 상단 특징점(A), 사용자의 안면 하단을 나타내는 하단 특징점(Q), 사용자의 광대 끝단을 나타내는 광대 특징점(I)을 추출할 수 있다.Specifically, as shown in FIG. 3, the processor 120 uses a plurality of feature points, including an upper feature point (A) representing the top of the user's face, a bottom feature point (Q) representing the bottom of the user's face, and the end of the user's cheekbones. The representing clown feature point (I) can be extracted.

또한, 프로세서(120)는 복수의 특징점으로써, 사용자의 눈썹머리를 나타내는 눈썹머리 특징점(C), 사용자의 눈썹산을 나타내는 눈썹산 특징점(D) 및 사용자의 눈썹꼬리를 나타내는 눈썹꼬리 특징점(E)을 추출할 수 있다.In addition, the processor 120 includes a plurality of feature points, including an eyebrow head feature point (C) representing the user's eyebrow hair, an eyebrow peak feature point (D) representing the user's eyebrow peak, and an eyebrow tail feature point (E) representing the user's eyebrow tail. can be extracted.

또한, 프로세서(120)는 복수의 특징점으로써, 사용자의 눈머리를 나타내는 눈머리 특징점(F), 사용자의 눈산을 나타내는 눈산 특징점(R) 및 사용자의 눈꼬리를 나타내는 눈꼬리 특징점(H)을 추출할 수 있다.In addition, the processor 120 can extract, as a plurality of feature points, an eye-head feature point (F) representing the user's eye head, an eye-mountain feature point (R) representing the user's eye peak, and an eye-tail feature point (H) representing the user's eye corner. there is.

또한, 프로세서(120)는 복수의 특징점으로써, 사용자의 코끝을 나타내는 코끝 특징점(M), 사용자의 윗입술 상단을 나타내는 윗입술 특징점(N) 및 사용자의 아랫입술 하단을 나타내는 아랫입술 특징점(P)을 추출할 수 있다.In addition, the processor 120 extracts, as a plurality of feature points, a nose tip feature point (M) representing the tip of the user's nose, an upper lip feature point (N) representing the top of the user's upper lip, and a lower lip feature point (P) representing the bottom of the user's lower lip. can do.

여기서, 눈썹머리는 눈썹의 외곽 중에서 가장 안쪽 지점을 의미할 수 있다.Here, the eyebrow head may refer to the innermost point among the outer edges of the eyebrows.

여기서, 눈썹꼬리는 눈썹의 외곽 중에서 가장 바깥 지점을 의미할 수 있다.Here, the tail of the eyebrow may refer to the outermost point of the outline of the eyebrow.

여기서, 눈썹산은 눈썹의 외곽 중에서 가장 높은 지점을 의미할 수 있다.Here, the eyebrow mountain may refer to the highest point among the outer edges of the eyebrows.

여기서, 눈머리는 눈의 외곽 중에서 가장 안쪽 지점을 의미할 수 있다.Here, the crown of the eye may refer to the innermost point among the outer edges of the eye.

여기서, 눈꼬리는 눈의 외곽 중에서 가장 바깥 지점을 의미할 수 있다.Here, the corner of the eye may refer to the outermost point of the outer edge of the eye.

여기서, 눈산은 눈의 외곽 중에서 가장 높은 지점을 의미할 수 있다.Here, a snow mountain may mean the highest point among the snow's outskirts.

한편, 프로세서(120)는 도 3에 도시된 바와 같이, 안면 이미지로부터 눈썹의 외곽선을 추출하되, 상부 외곽선(U)과 하부 외곽선(L)으로 나누어 추출할 수 있다.Meanwhile, as shown in FIG. 3, the processor 120 extracts the outline of the eyebrow from the facial image and divides it into an upper outline (U) and a lower outline (L).

여기서, 상부 외곽선(U)은 폐곡선을 이루는 눈썹의 외곽선을 눈썹머리 특징점(C)과 눈썹꼬리 특징점(E)을 기준으로 분리한 2개의 외곽선 중에서 상부에 위치하는 외곽선을 의미할 수 있다. 즉, 상부 외곽선(U)은 눈썹머리 특징점(C)과 눈썹꼬리 특징점(E)을 잇는 눈썹의 외곽선 중에서 상부에 위치하는 외곽선을 의미할 수 있다.Here, the upper outline (U) may refer to an outline located at the top among two outlines that separate the outline of the eyebrow forming a closed curve based on the eyebrow head feature point (C) and the eyebrow tail feature point (E). That is, the upper outline (U) may mean an outline located at the top of the eyebrow outlines connecting the eyebrow head feature point (C) and the eyebrow tail feature point (E).

여기서, 하부 외곽선(L)은 폐곡선을 이루는 눈썹의 외곽선을 눈썹머리 특징점(C)과 눈썹꼬리 특징점(E)을 기준으로 분리한 2개의 외곽선 중에서 하부에 위치하는 외곽선을 의미할 수 있다. 즉, 하부 외곽선(L)은 눈썹머리 특징점(C)과 눈썹꼬리 특징점(E)을 잇는 눈썹의 외곽선 중에서 하부에 위치하는 외곽선을 의미할 수 있다.Here, the lower outline (L) may refer to the outline located at the lower part of the two outlines that separate the outline of the eyebrow forming a closed curve based on the eyebrow head feature point (C) and the eyebrow tail feature point (E). That is, the lower outline (L) may mean an outline located at the lower part of the eyebrow outline connecting the eyebrow head feature point (C) and the eyebrow tail feature point (E).

프로세서(120)는 복수의 특징점 각각의 특징점 좌표를 생성하고, 눈썹의 외곽선을 나타내는 눈썹 외곽선 함수를 생성할 수 있다.The processor 120 may generate feature point coordinates for each of the plurality of feature points and generate an eyebrow outline function representing the outline of the eyebrow.

이때, 프로세서(120)는 안면 이미지 상에 좌표 평면을 설정하고, 설정된 좌표 평면을 기준으로 복수의 특징점 좌표과 눈썹 외곽선 함수를 생성할 수 있다.At this time, the processor 120 may set a coordinate plane on the facial image and generate a plurality of feature point coordinates and an eyebrow outline function based on the set coordinate plane.

프로세서(120)는 눈썹 외곽선 함수로써 눈썹의 외곽선 중에서 상부 외곽선(U)을 나타내는 눈썹 상부 외곽선 함수(U(x))와 하부 외곽선(L)을 나타내는 눈썹 상부 외곽선 함수(L(x))를 생성할 수 있다.The processor 120 generates an eyebrow upper outline function (U(x)) representing the upper outline (U) and an eyebrow upper outline function (L(x)) representing the lower outline (L) among the eyebrow outlines as an eyebrow outline function. can do.

이를 위해, 프로세서(120)는 도 3에 도시된 바와 같이, 상기 복수의 특징점 중에서 사용자의 안면 상단과 안면 하단을 각각 나타내는 상단 특징점(A)과 하단 특징점(Q)을 잇는 직선을 수직축(Y축)으로 설정하고 상기 수직축(Y축)에 수직한 수평축(X축)을 설정할 수 있다.To this end, as shown in FIG. 3, the processor 120 uses a straight line connecting the upper feature point (A) and the lower feature point (Q) representing the upper and lower face of the user, respectively, among the plurality of feature points along the vertical axis (Y axis). ) and you can set the horizontal axis (X-axis) perpendicular to the vertical axis (Y-axis).

이에 따라, 프로세서(120)는 하단 특징점(Q)의 특징점 좌표를 (0, 0)으로 생성하고, 상단 특징점(A)의 특징점 좌표를 (0, 100)으로 생성할 수 있다.Accordingly, the processor 120 may generate the feature point coordinates of the lower feature point (Q) as (0, 0) and the feature point coordinates of the upper feature point (A) as (0, 100).

이후, 프로세서(120)는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 눈 및 눈썹 중 하나 이상의 위치 대비 상기 사용자의 눈썹산의 상대 위치를 나타내는 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율을 산출할 수 있다.Thereafter, the processor 120 uses one or more of a plurality of feature point coordinates and the eyebrow outline function to provide a plurality of eyebrow peak relative positions, eyebrow tilt, and Eyebrow curvature and eyebrow thickness ratio can be calculated.

도 4는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 눈썹 기울기를 산출하는 과정을 설명하기 위한 도면이다.Figure 4 is a diagram illustrating the process of calculating the eyebrow slope by a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention.

도 4를 더 참조하면, 프로세서(120)는 상기 복수의 특징점 중에서 눈머리를 나타내는 눈머리 특징점(F)을 지나는 제1 수직선 및 상기 눈썹의 외곽선 중에서 상부 외곽선(U)이 교차되는 제1 교차점(Z1)을 추출할 수 있다.Referring further to FIG. 4, the processor 120 generates a first intersection point ( Z1) can be extracted.

이후, 프로세서(120)는 상기 복수의 특징점 중에서 상기 눈썹산을 나타내는 눈썹산 특징점(D) 및 상기 제1 교차점(Z1)을 잇는 제1 직선의 기울기를 상기 눈썹 기울기로 산출할 수 있다.Thereafter, the processor 120 may calculate the slope of a first straight line connecting the eyebrow peak feature point (D) representing the eyebrow peak and the first intersection point (Z1) among the plurality of feature points as the eyebrow slope.

이때, 프로세서(120)는 하기의 수학식 1을 이용하여 눈썹 기울기를 산출할 수 있다.At this time, the processor 120 can calculate the eyebrow slope using Equation 1 below.

<수학식 1><Equation 1>

여기서, C1은 눈썹 기울기고, G는 제1 직선의 기울기고, yd는 눈썹산 특징점(D)의 수직축 상의 좌표이고, U(xf)는 제1 교차점(Z1)의 수직축 상의 좌표이고, xd는 눈썹산 특징점(D)의 수평축 상의 좌표이고, xf는 제1 교차점(Z1)의 수평축 상의 좌표이다.Here, C1 is the eyebrow slope, G is the slope of the first straight line, y d is the coordinate on the vertical axis of the eyebrow peak feature point (D), U(x f ) is the coordinate on the vertical axis of the first intersection point (Z1), x d is the coordinate on the horizontal axis of the eyebrow peak feature point (D), and x f is the coordinate on the horizontal axis of the first intersection point (Z1).

도 5는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 눈썹 곡률을 산출하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a process for calculating eyebrow curvature by a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention.

도 5를 더 참조하면, 프로세서(120)는 수평축 상에서의 상기 눈썹산 특징점(D) 및 상기 제1 교차점(Z1) 간에 제1 거리를 산출하고, 상기 수직축 상에서의 상기 상부 외곽선(U) 및 상술된 제1 직선 간에 제2 거리를 산출할 수 있다.Referring further to FIG. 5, the processor 120 calculates a first distance between the eyebrow peak feature point (D) and the first intersection point (Z1) on the horizontal axis, the upper outline (U) on the vertical axis, and the above-mentioned A second distance can be calculated between the first straight lines.

이후, 프로세서(120)는 상기 제1 거리 대비 상기 제2 거리의 제1 거리 비율을 상기 눈썹 곡률로 산출할 수 있다.Thereafter, the processor 120 may calculate a first distance ratio of the second distance to the first distance as the eyebrow curvature.

이때, 프로세서(120)는 하기의 수학식 2를 이용하여 눈썹 곡률을 산출할 수 있다.At this time, the processor 120 can calculate the eyebrow curvature using Equation 2 below.

<수학식 2><Equation 2>

여기서, C2는 눈썹 곡률이고, R1은 제1 거리 비율이고, L1은 제1 거리이고, L2는 제2 거리이고, U((xf+xd)/2)는 수평축 상에서의 눈앞 특징점(F)과 눈썹산 특징점(D)의 중점을 지나는 수직선 및 상부 외곽선(U)의 교차점의 수직축 상의 좌표이고, yd는 눈썹산 특징점(D)의 수직축 상의 좌표이고, U(xf)는 제1 교차점(Z1)의 수직축 상의 좌표이고, xd는 눈썹산 특징점(D)의 수평축 상의 좌표이고, xf는 제1 교차점(Z1)의 수평축 상의 좌표이다.Here, C2 is the eyebrow curvature, R1 is the first distance ratio, L1 is the first distance, L2 is the second distance, and U((x f +x d )/2) is the frontal feature point on the horizontal axis (F ) is the coordinate on the vertical axis of the intersection of the vertical line passing through the midpoint of the eyebrow feature point (D) and the upper outline (U), y d is the coordinate on the vertical axis of the eyebrow feature point (D), and U (x f ) is the first is the coordinate on the vertical axis of the intersection point (Z1), x d is the coordinate on the horizontal axis of the eyebrow peak feature point (D), and x f is the coordinate on the horizontal axis of the first intersection point (Z1).

도 6은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 눈썹 두께 비율을 산출하는 과정을 설명하기 위한 도면이다.Figure 6 is a diagram illustrating a process by which a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention calculates the eyebrow thickness ratio.

도 6을 더 참조하면, 프로세서(120)는 상술된 제1 수직선 및 상기 눈썹의 외곽선 중에서 하부 외곽선(L)이 교차되는 제2 교차점(Z2)을 추출할 수 있다.Referring further to FIG. 6 , the processor 120 may extract a second intersection point Z2 where the lower outline L intersects among the above-described first vertical line and the outline of the eyebrow.

또한, 프로세서(120)는 상기 눈썹산 특징점(D)을 지나는 제2 수직선 및 상기 하부 외곽선(L)이 교차되는 제3 교차점(Z3)을 추출할 수 있다.Additionally, the processor 120 may extract a third intersection point Z3 where the second vertical line passing through the eyebrow peak feature point D and the lower outline line L intersect.

이후, 프로세서(120)는 제1 교차점(Z1) 및 상기 제2 교차점(Z2) 간에 제3 거리를 산출하고, 상기 눈썹산 특징점(D) 및 상기 제3 교차점(Z1) 간에 제4 거리를 산출할 수 있다.Thereafter, the processor 120 calculates a third distance between the first intersection point (Z1) and the second intersection point (Z2), and calculates a fourth distance between the eyebrow peak feature point (D) and the third intersection point (Z1). can do.

최종적으로, 프로세서(120)는 상기 제3 거리 대비 상기 제3 거리의 제2 거리 비율을 상기 눈썹 두께 비율로 산출할 수 있다.Finally, the processor 120 may calculate a second distance ratio of the third distance to the third distance as the eyebrow thickness ratio.

이때, 프로세서(120)는 하기의 수학식 3을 이용하여 눈썹 두께 비율을 산출할 수 있다.At this time, the processor 120 can calculate the eyebrow thickness ratio using Equation 3 below.

<수학식 3><Equation 3>

여기서, C3은 눈썹 두께 비율이고, R2는 제2 거리 비율이고, L3는 제3 거리이고, L4는 제4 거리이고, U(xd)는 눈썹산 특징점(D)의 수직축 상의 좌표이고, L(xd)는 제3 교차점(Z3)의 수직축 상의 좌표이고, U(xf)는 제1 교차점(Z1)의 수직축 상의 좌표이고, L(xf)는 제2 교차점(Z2)의 수직축 상의 좌표이다.Here, C3 is the eyebrow thickness ratio, R2 is the second distance ratio, L3 is the third distance, L4 is the fourth distance, U(x d ) is the coordinate on the vertical axis of the eyebrow peak feature point D, and L (x d ) is the coordinate on the vertical axis of the third intersection (Z3), U(x f ) is the coordinate on the vertical axis of the first intersection (Z1), and L(x f ) is the coordinate on the vertical axis of the second intersection (Z2). These are coordinates.

도 7은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 복수의 눈썹 상대 위치 중에서 제1 눈썹 상대 위치를 산출하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating a process in which a device that provides physiognomy analysis and facial images based on facial recognition according to an embodiment of the present invention calculates a first eyebrow relative position among a plurality of eyebrow relative positions.

도 7을 더 참조하면, 프로세서(120)는 상기 복수의 특징점 중에서 눈머리를 나타내는 눈머리 특징점(F) 및 눈썹꼬리를 나타내는 눈썹꼬리 특징점(E) 간에 상기 수평축 상에서의 제1 중점을 추출할 수 있다.Referring further to FIG. 7, the processor 120 may extract the first midpoint on the horizontal axis between the eye head feature point (F) representing the eye head and the eyebrow tail feature point (E) representing the eyebrow tail among the plurality of feature points. there is.

이후, 프로세서(120)는 상기 복수의 특징점 중에서 눈썹산을 나타내는 눈썹산 특징점(D) 및 상기 수직축 간에 상기 수평축 상에서의 제5 거리를 산출하고, 상기 수평축 상에서의 상기 제1 중점 및 상기 수직축 간에 제6 거리를 산출할 수 있다.Thereafter, the processor 120 calculates a fifth distance on the horizontal axis between the vertical axis and the eyebrow peak feature point (D) representing the eyebrow peak among the plurality of feature points, and a fifth distance between the first midpoint on the horizontal axis and the vertical axis. 6 Distance can be calculated.

최종적으로, 프로세서(120)는 상기 제5 거리 및 상기 제6 거리 간에 제1 거리 차를 상기 복수의 눈썹산 상대 위치 중에서 제1 눈썹산 상대 위치로 산출할 수 있다.Finally, the processor 120 may calculate a first distance difference between the fifth distance and the sixth distance as a first eyebrow peak relative position among the plurality of eyebrow peak relative positions.

이때, 프로세서(120)는 하기의 수학식 4를 이용하여 제1 눈썹산 상대 위치를 산출할 수 있다.At this time, the processor 120 may calculate the relative position of the first eyebrow peak using Equation 4 below.

<수학식 4><Equation 4>

여기서, C4는 제1 눈썹산 상대 위치이고, D1은 제1 거리 차이고, L5는 제5 거리이고, L6는 제6 거리이고, xd는 눈썹산 특징점(D)의 수평축 상의 좌표이고, xf는 눈머리 특징점(F)의 수평축 상의 좌표이고, xe는 눈썹꼬리 특징점(E)의 수평축 상의 좌표이다.Here, C4 is the first eyebrow peak relative position, D1 is the first distance difference, L5 is the fifth distance, L6 is the sixth distance, x d is the coordinate on the horizontal axis of the eyebrow peak feature point (D), and x f is the coordinate on the horizontal axis of the eye head feature point (F), and x e is the coordinate on the horizontal axis of the eyebrow tail feature point (E).

도 8은 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 복수의 눈썹 상대 위치 중에서 제2 눈썹 상대 위치를 산출하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating a process in which a device that provides facial analysis and facial images based on facial recognition according to an embodiment of the present invention calculates a second eyebrow relative position among a plurality of eyebrow relative positions.

도 8을 더 참조하면, 상기 프로세서(120)는 상기 복수의 특징점 중에서 눈썹머리를 나타내는 눈썹머리 특징점(C) 및 상기 눈썹꼬리 특징점(E) 간에 상기 수평축 상에서의 제2 중점을 추출할 수 있다.Referring further to FIG. 8, the processor 120 may extract a second midpoint on the horizontal axis between the eyebrow head feature point (C) representing the eyebrow hair and the eyebrow tail feature point (E) among the plurality of feature points.

이후, 프로세서(120)는 상기 수평축 상에서의 상기 눈썹머리 특징점(C) 및 상기 수직축 간에 제7 거리를 산출하고, 상기 수평축 상에서의 상기 제2 중점 및 상기 수직축 간에 제8 거리를 산출하고, 상기 제7 거리 및 상기 제8 거리 간에 거리 합을 산출할 수 있다.Thereafter, the processor 120 calculates a seventh distance between the eyebrow head feature point C on the horizontal axis and the vertical axis, calculates an eighth distance between the second midpoint on the horizontal axis and the vertical axis, and calculates the seventh distance between the eyebrow head feature point C on the horizontal axis and the vertical axis. The sum of the distances can be calculated between the 7th distance and the 8th distance.

최종적으로, 프로세서(120)는 상기 제7 거리 및 상기 거리 합 간에 제2 거리 차를 상기 복수의 눈썹산 상대 위치 중에서 제2 눈썹산 상대 위치로 산출할 수 있다.Finally, the processor 120 may calculate a second distance difference between the seventh distance and the distance sum as a second eyebrow peak relative position among the plurality of eyebrow peak relative positions.

이때, 프로세서(120)는 하기의 수학식 5를 이용하여 제2 눈썹산 상대 위치를 산출할 수 있다.At this time, the processor 120 may calculate the relative position of the second eyebrow peak using Equation 5 below.

<수학식 5><Equation 5>

여기서, C5는 제2 눈썹산 상대 위치이고, D2는 제2 거리 차이고, L5는 제5 거리이고, L7는 제7 거리이고, L8은 제8 거리이고, xd는 눈썹산 특징점(D)의 수평축 상의 좌표이고, xc는 눈썹머리 특징점(C)의 수평축 상의 좌표이고, xe는 눈썹꼬리 특징점(E)의 수평축 상의 좌표이다.Here, C5 is the second eyebrow peak relative position, D2 is the second distance difference, L5 is the fifth distance, L7 is the seventh distance, L8 is the eighth distance, and x d is the eyebrow peak feature point (D). is the coordinate on the horizontal axis, x c is the coordinate on the horizontal axis of the eyebrow head feature point (C), and x e is the coordinate on the horizontal axis of the eyebrow tail feature point (E).

이후, 프로세서(120)는 상기 복수의 눈썹산 상대 위치, 상기 눈썹 기울기, 상기 눈썹 곡률 및 상기 눈썹 두께 비율 중 하나 이상에 기초하여 상기 사용자의 눈썹의 유형을 나타내는 눈썹 유형 정보를 결정할 수 있다.Thereafter, the processor 120 may determine eyebrow type information indicating the type of the user's eyebrows based on one or more of the relative positions of the plurality of eyebrow peaks, the eyebrow slope, the eyebrow curvature, and the eyebrow thickness ratio.

이때, 프로세서(120)는 사용자의 눈썹 유형 정보를 일자형 눈썹 유형, 세미아치형 눈썹 유형, 아치형 눈썹 유형, 각진형 눈썹 유형, 표준형 눈썹 유형 및 상승형 눈썹 유형 중 하나 이상으로 결정할 수 있다.At this time, the processor 120 may determine the user's eyebrow type information as one or more of a straight eyebrow type, a semi-arch eyebrow type, an arched eyebrow type, an angled eyebrow type, a standard eyebrow type, and a raised eyebrow type.

구체적으로, 프로세서(120)는 상기 눈썹 기울기가 제1 기준 기울기 이하이고 상기 눈썹 두께 비율이 기준 두께 비율 이상이고 상기 복수의 눈썹산 상대 위치 중에서 제1 눈썹산 상대 위치가 기준 상대 위치 이상이면 상기 눈썹 유형 정보를 일자형 눈썹 유형으로 결정할 수 있다. Specifically, the processor 120 operates the eyebrow when the eyebrow slope is less than or equal to the first reference slope, the eyebrow thickness ratio is greater than or equal to the reference thickness ratio, and the first eyebrow peak relative position among the plurality of eyebrow peak relative positions is greater than or equal to the reference relative position. The type information can be determined as a straight eyebrow type.

또한, 프로세서(120)는 상기 눈썹 기울기가 제1 기준 기울기 이하이고, 상기 눈썹 두께 비율이 기준 두께 비율 이하이면 상기 눈썹 유형 정보를 세미아치형 눈썹 유형으로 결정할 수 있다. Additionally, the processor 120 may determine the eyebrow type information to be a semi-arch eyebrow type if the eyebrow slope is less than or equal to the first reference slope and the eyebrow thickness ratio is less than or equal to the standard thickness ratio.

또한, 프로세서(120)는 상기 눈썹 기울기가 제1 기준 기울기 이상이고 상기 눈썹 곡률이 기준 곡률 이상이면 상기 눈썹 유형 정보를 아치형 눈썹 유형으로 결정할 수 있다. Additionally, the processor 120 may determine the eyebrow type information as an arched eyebrow type if the eyebrow slope is greater than or equal to the first reference slope and the eyebrow curvature is greater than or equal to the reference curvature.

또한, 프로세서(120)는 상기 눈썹 기울기가 제1 기준 기울기 이상이고 상기 눈썹 곡률이 기준 곡률 미만이면 상기 눈썹 유형 정보를 각진형 눈썹 유형으로 결정할 수 있다. Additionally, the processor 120 may determine the eyebrow type information as an angular eyebrow type if the eyebrow slope is greater than or equal to the first reference slope and the eyebrow curvature is less than the reference curvature.

또한, 프로세서(120)는 상기 눈썹 기울기가 제1 기준 기울기를 초과하고 상기 제1 기준 기울기 보다 큰 제2 기준 기울기 미만이면 상기 눈썹 유형 정보를 표준형 눈썹 유형으로 결정할 수 있다. Additionally, the processor 120 may determine the eyebrow type information to be a standard eyebrow type if the eyebrow slope exceeds the first reference slope and is less than the second reference slope that is greater than the first reference slope.

또한, 프로세서(120)는 상기 눈썹 기울기가 제2 기준 기울기 이상이고 상기 복수의 눈썹산 상대 위치 중에서 제2 눈썹산 상대 위치가 기준 상대 위치 이상이면 상기 눈썹 유형 정보를 상승형 눈썹 유형으로 결정할 수 있다. Additionally, the processor 120 may determine the eyebrow type information as a raised eyebrow type if the eyebrow slope is greater than or equal to the second reference slope and the second eyebrow peak relative position among the plurality of eyebrow peak relative positions is greater than or equal to the reference relative position.

여기서, 제1 기준 기울기는 0.1일 수 있고, 제2 기준 기울기는 0.3일 수 있다.Here, the first reference slope may be 0.1, and the second reference slope may be 0.3.

여기서, 기준 두께 비율은 2/3일 수 있다.Here, the reference thickness ratio may be 2/3.

여기서, 기준 곡률은 0.05일 수 있다.Here, the reference curvature may be 0.05.

여기서, 기준 상대 위치는 0일 수 있다.Here, the reference relative position may be 0.

이를 통해, 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 복수의 특징점과 눈썹의 외곽선을 이용하여 눈썹의 형태를 수치적으로 나타내는 정보(복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율)를 산출하고, 산출된 정보를 이용하여 눈썹의 유형을 결정할 수 있다.Through this, the device 100, which provides facial analysis and facial images according to facial recognition, uses a plurality of feature points and the outline of the eyebrows to numerically represent the shape of the eyebrows (relative positions of a plurality of eyebrow peaks, eyebrow slope, eyebrow curvature and eyebrow thickness ratio) can be calculated, and the type of eyebrow can be determined using the calculated information.

이러한, 프로세서(120)는 상술된 각 구성 요소의 작동을 수행할 수 있으며, 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 120 can perform the operation of each of the above-described components, and one or more cores (not shown) and a graphics processing unit (not shown) and/or a connection passage for transmitting and receiving signals with other components ( For example, it may include a bus, etc.).

프로세서(120)는 저장부(150)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 상술된 각 구성 요소의 작동을 수행하도록 구성될 수 있다.The processor 120 may be configured to perform the operation of each of the components described above by executing one or more instructions stored in the storage unit 150.

저장부(150)에는 프로세서(120)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 저장부(150)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The storage unit 150 may store programs (one or more instructions) for processing and controlling the processor 120. Programs stored in the storage unit 150 may be divided into a plurality of modules according to their functions.

출력부(130)는 사용자의 안면 이미지, 눈썹의 형태를 수치적으로 나타내는 정보(복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율), 결정된 눈썹 유형 정보를 화면에 표시할 수 있다.The output unit 130 may display the user's facial image, information numerically representing the shape of the eyebrows (relative positions of a plurality of eyebrow peaks, eyebrow slope, eyebrow curvature, and eyebrow thickness ratio), and determined eyebrow type information on the screen. .

이를 위해, 출력부(130)는 디스플레이 모듈을 포함할 수 있다.For this purpose, the output unit 130 may include a display module.

안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 스마트폰, 태블릿 PC, 데스크톱 및 노트북 중 어느 하나일 수 있으며, 바람직하게, 스마트폰일 수 있다.The device 100 that provides physiognomy analysis and facial images based on facial recognition may be any one of a smartphone, tablet PC, desktop, and laptop, and is preferably a smartphone.

이하, 본 발명의 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)가 전택궁 유형 정보 및 미간 유형 정보를 결정하는 과정에 대해 설명하도록 한다.Hereinafter, the process by which the device 100, which provides facial analysis and facial images based on facial recognition according to another embodiment of the present invention, determines the frontal arch type information and the eyebrow type information will be described.

본 발명의 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100) 대비 프로세서(120)의 역할만이 상이하므로, 반복되는 설명은 생략하도록 한다.The device 100 for providing physiognomy analysis and facial images according to facial recognition according to another embodiment of the present invention is compared to the device 100 for providing facial analysis and facial images according to facial recognition according to an embodiment of the present invention. Since only the role of the processor 120 is different, repeated descriptions will be omitted.

도 9는 본 발명의 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 전택궁 유형 정보를 결정하는 과정을 설명하기 위한 도면이고, 도 10는 본 발명의 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 미간 유형 정보를 결정하는 과정을 설명하기 위한 도면이다.Figure 9 is a diagram illustrating a process in which a device that provides physiognomy analysis and facial images according to facial recognition according to another embodiment of the present invention determines the type information of the front door, and Figure 10 shows another embodiment of the present invention. This is a diagram to explain the process by which a device that provides physiognomy analysis and facial images according to facial recognition determines the type information between the eyebrows.

도 9를 더 참조하면, 본 발명의 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)의 프로세서(120)는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 전택궁 비율을 산출하고, 전택궁 비율에 기초하여 사용자의 전택궁의 유형을 나타내는 전택궁 유형 정보를 결정할 수 있다.Referring further to FIG. 9, the processor 120 of the device 100 that provides facial analysis and facial images according to facial recognition according to another embodiment of the present invention uses one or more of a plurality of feature point coordinates and the eyebrow outline function. Using this, the Jeontaekung ratio can be calculated, and based on the Jeontaekung ratio, Jeontaekung type information indicating the type of the user's Jeontaekung can be determined.

구체적으로, 프로세서(120)는 복수의 특징점 중에서 눈산을 나타내는 눈산 특징점(R)을 지나는 제3 수직선 및 상기 하부 외곽선(L)이 교차되는 제4 교차점(Z4)을 추출할 수 있다.Specifically, the processor 120 may extract, from among the plurality of feature points, a fourth intersection point Z4 where the third vertical line passing through the snowy mountain feature point R representing a snowy mountain and the lower outline line L intersect.

이후, 프로세서(120)는 복수의 특징점 중에서 눈꼬리를 나타내는 눈꼬리 특징점(H) 및 눈머리 특징점(F) 간에 수평선 상에서의 제9 거리를 산출하고, 눈산 특징점(R) 및 제4 교차점(Z4) 간에 제10 거리를 산출할 수 있다.Thereafter, the processor 120 calculates the ninth distance on the horizon between the eye tail feature point (H) and the eye corner feature point (F) representing the outer corners of the eyes among the plurality of feature points, and between the eye ridge feature point (R) and the fourth intersection point (Z4). The 10th distance can be calculated.

최종적으로, 프로세서(120)는 상기 제9 거리 대비 상기 제10 거리의 제3 거리 비율을 전택궁 비율로 산출할 수 있다.Finally, the processor 120 may calculate the third distance ratio of the tenth distance to the ninth distance as the Jeontaekung ratio.

이때, 프로세서(120)는 하기의 수학식 6을 이용하여 전택궁 비율을 산출할 수 있다.At this time, the processor 120 can calculate the battle arch ratio using Equation 6 below.

<수학식 6><Equation 6>

여기서, C6은 전택궁 비율이고, R3는 제3 거리 비율이고, L9는 제9 거리이고, L10는 제10 거리이고, L(xr)는 제4 교차점(Z4)의 수직축 상의 좌표이고, yr은 눈산 특징점(R)의 수직축 상의 좌표이고, xh은 눈꼬리 특징점(H)의 수평축 상의 좌표이고, xr은 눈머리 특징점(R)의 수평축 상의 좌표이다.Here, C6 is the cross-section ratio, R3 is the third distance ratio, L9 is the ninth distance, L10 is the tenth distance, L(x r ) is the coordinate on the vertical axis of the fourth intersection (Z4), and y r is the coordinate on the vertical axis of the eye peak feature point (R), x h is the coordinate on the horizontal axis of the eye tail feature point (H), and x r is the coordinate on the horizontal axis of the eye cap feature point (R).

이후, 프로세서(120)는 전택궁 비율에 기초하여 전택궁 유형 정보를 소전택궁 유형 및 대전택궁 유형 중 어느 하나로 결정할 수 있다.Thereafter, the processor 120 may determine the Jeontaekung type information as one of the small Taekung type and the large Taekung type based on the Jeontaekung ratio.

여기서, 소전택궁 유형은 전택궁이 좁음을 나타내는 전택궁 유형이고, 대전택궁 유형은 전택궁이 넒음을 나타내는 전택궁 유형일 수 있다.Here, the Small Taekung Palace type may be a Jeontaekung Palace type indicating that the Jeontaekung Palace is narrow, and the Daejeon Taekung Type may be a Jeontaekung Type indicating a wide Jeontaekung Palace.

구제적으로, 프로세서(120)는 전택궁 비율이 제1 기준 전택궁 비율 미만이면 상기 전택궁 유형 정보를 소전택궁 유형으로 결정할 수 있다. Specifically, the processor 120 may determine the Jeontaekung type information as a small Jeontaekung type if the Jeontaekung ratio is less than the first standard Jeontaekung ratio.

또한, 프로세서(120)는 전택궁 비율이 제2 기준 전택궁 비율을 초과하면 상기 전택궁 유형 정보를 대전택궁 유형으로 결정할 수 있다. Additionally, the processor 120 may determine the battle arch type information as the battle arch arch type if the battle arch ratio exceeds the second standard battle arch ratio.

여기서, 제1 기준 전택궁 비율은 0.1일 수 있고, 제2 기준 전택궁 비율은 0.5일 수 있다.Here, the first standard all-out arch ratio may be 0.1, and the second standard all-out arch ratio may be 0.5.

도 10을 더 참조하면, 프로세서(120)는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 복수의 미간 상대 길이를 산출하고, 복수의 미간 상대 길이에 기초하여 사용자의 미간의 유형을 나타내는 미간 유형 정보를 결정할 수 있다.Referring further to FIG. 10, the processor 120 calculates a plurality of relative lengths between the eyebrows using one or more of a plurality of feature point coordinates and the eyebrow outline function, and determines the type of the user's eyebrows based on the plurality of relative lengths between the eyebrows. The type information between the eyebrows can be determined.

구체적으로, 프로세서(120)는 복수의 미간 상대 길이로써 제1 미간 상대 길이 및 제2 미간 상대 길이를 산출할 수 있다.Specifically, the processor 120 may calculate a first relative length between the eyebrows and a second relative length between the eyebrows as a plurality of relative lengths between the eyebrows.

우선, 프로세서(120)가 제1 미간 상대 길이를 산출하는 과정을 설명하도록 한다.First, the process by which the processor 120 calculates the first relative length between the eyebrows will be described.

프로세서(120)는 상기 복수의 특징점 중에서 눈썹머리를 나타내는 눈썹머리 특징점(C) 및 상기 수직축 간에 상기 수평축 상에서의 제11 거리를 산출하고, 상기 복수의 특징점 중에서 눈썹꼬리를 나타내는 눈썹꼬리 특징점(E) 및 눈머리를 나타내는 눈머리 특징점(F) 간에 수평축 상에서의 제12 거리를 산출할 수 있다.The processor 120 calculates an 11th distance on the horizontal axis between the eyebrow hair feature point (C) representing the eyebrow hair among the plurality of feature points and the vertical axis, and an eyebrow tail feature point (E) representing the eyebrow tail among the plurality of feature points. and the twelfth distance on the horizontal axis between the eye head feature points (F) representing the eye head can be calculated.

이후, 프로세서(120)는 제12 거리를 미리 설정된 배율만큼 축소시켜 보정 거리로 산출할 수 있다.Thereafter, the processor 120 may calculate the correction distance by reducing the twelfth distance by a preset magnification factor.

최종적으로, 프로세서(120)는 제11 거리 및 보정 거리 간에 제3 거리 차를 상기 복수의 미간 상대 길이 중에서 제1 미간 상대 길이로 산출할 수 있다.Finally, the processor 120 may calculate the third distance difference between the eleventh distance and the correction distance as the first relative length between the eyebrows among the plurality of relative lengths between the eyebrows.

이때, 프로세서(120)는 하기의 수학식 7을 이용하여 제1 미간 상대 길이를 산출할 수 있다.At this time, the processor 120 may calculate the first relative length between the eyebrows using Equation 7 below.

<수학식 7><Equation 7>

여기서, C7은 제1 미간 상대 길이이고, D3은 제3 거리 차이고, L11은 제11 거리이고, L12'은 보정 거리이고, L12는 제12 거리이고, j는 미리 설정된 배율(예를 들어, 3)이고, xc는 눈썹머리 특징점(C)의 수평축 상의 좌표이고, xe는 눈썹꼬리 특징점(E)의 수평축 상의 좌표이고, xf는 눈머리 특징점(F)의 수평축 상의 좌표이다.Here, C7 is the first relative length between the eyebrows, D3 is the third distance difference, L11 is the eleventh distance, L12' is the correction distance, L12 is the twelfth distance, and j is a preset magnification (e.g., 3 ), x c is the coordinate on the horizontal axis of the eyebrow head feature point (C), x e is the coordinate on the horizontal axis of the eyebrow tail feature point (E), and x f is the coordinate on the horizontal axis of the eye head feature point (F).

다음으로, 프로세서(120)가 제2 미간 상대 길이를 산출하는 과정을 설명하도록 한다.Next, the process by which the processor 120 calculates the second relative length between the eyebrows will be described.

프로세서(120)는 상술된 제11 거리를 산출하고, 제1 교차점(Z1) 및 수평축 간에 수직축 상에서의 제13 거리를 산출할 수 있다.The processor 120 may calculate the above-described 11th distance and calculate the 13th distance on the vertical axis between the first intersection Z1 and the horizontal axis.

최종적으로, 프로세서(120)는 제11 거리 및 제13 거리 간에 제4 거리 차를 상기 복수의 미간 상대 길이 중에서 제2 미간 상대 길이로 산출할 수 있다.Finally, the processor 120 may calculate the fourth distance difference between the 11th distance and the 13th distance as the second relative length between the eyebrows among the plurality of relative lengths between the eyebrows.

이때, 프로세서(120)는 하기의 수학식 8을 이용하여 제2 미간 상대 길이를 산출할 수 있다.At this time, the processor 120 may calculate the second relative length between the eyebrows using Equation 8 below.

<수학식 8><Equation 8>

여기서, C8은 제2 미간 상대 길이이고, D4은 제4 거리 차이고, L11은 제11 거리이고, L13은 제13 거리이고, xc는 눈썹머리 특징점(C)의 수평축 상의 좌표이고, U(xf)는 제1 교차점(Z1)의 수직축 상의 좌표이다.Here, C8 is the second relative length between the eyebrows, D4 is the fourth distance difference, L11 is the eleventh distance, L13 is the thirteenth distance, x c is the coordinate on the horizontal axis of the eyebrow head feature point (C), and U(x f ) is the coordinate on the vertical axis of the first intersection (Z1).

프로세서(120)는 복수의 미간 상대 길이 중에서 제1 미간 상대 길이에 기초하여 미간 유형 정보를 소미간 유형으로 결정하고, 복수의 미간 상대 길이 중에서 제2 미간 상대 길이에 기초하여 미간 유형 정보를 대미간 유형으로 결정할 수 있다.The processor 120 determines the type information between the eyebrows as the small-brow type based on the first relative length between the eyebrows among the plurality of relative lengths between the eyebrows, and sets the type information between the eyebrows to the large-brow type based on the second relative length between the eyebrows among the plurality of relative lengths between the eyebrows. It can be determined by type.

여기서, 소미간 유형은 미간이 좁음을 나타내는 미간 유형이고, 대미간 유형은 미간이 넒음을 나타내는 미간 유형일 수 있다.Here, the small glabella type may be a glabella type indicating a narrow glabella, and the large glabella type may be a glabellar type indicating a wide glabella.

구제적으로, 프로세서(120)는 제1 미간 상대 길이가 기준 상대 길이를 초과하면 상기 미간 유형 정보를 소미간 유형으로 결정할 수 있다. Specifically, the processor 120 may determine the type information between the eyebrows as the type between the eyebrows when the first relative length between the eyebrows exceeds the reference relative length.

또한, 프로세서(120)는 제2 미간 상대 길이가 기준 상대 길이를 초과하면 상기 미간 유형 정보를 대미간 유형으로 결정할 수 있다. Additionally, the processor 120 may determine the type information between the eyebrows as the type between the eyebrows when the second relative length between the eyebrows exceeds the reference relative length.

여기서, 기준 상대 길이는 0일 수 있다.Here, the reference relative length may be 0.

이하, 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)가 전체인중 유형 정보 및 턱인중 유형 정보를 결정하는 과정에 대해 설명하도록 한다.Hereinafter, a process in which the device 100, which provides physiognomy analysis and facial images based on facial recognition according to another embodiment of the present invention, determines overall philtrum type information and chin philtrum type information will be described.

본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100) 대비 프로세서(120)의 역할만이 상이하므로, 반복되는 설명은 생략하도록 한다.A device 100 for providing physiognomy analysis and facial images according to facial recognition according to another embodiment of the present invention is a device 100 for providing facial analysis and facial images according to facial recognition according to an embodiment of the present invention. Since only the role of the comparison processor 120 is different, repeated descriptions will be omitted.

도 11은 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 전체인중 유형 정보 및 턱인중 유형 정보를 결정하는 과정을 설명하기 위한 도면이다.FIG. 11 is a diagram illustrating a process in which a device that provides physiognomy analysis and facial images based on facial recognition determines overall philtrum type information and chin philtrum type information according to another embodiment of the present invention.

도 11을 더 참조하면, 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)의 프로세서(120)는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 전체인중 비율을 산출하고, 전체인중 비율에 기초하여 사용자의 전체인중 유형을 나타내는 전체인중 유형 정보를 결정할 수 있다.Referring further to FIG. 11, the processor 120 of the device 100 that provides physiognomy analysis and facial images according to facial recognition according to another embodiment of the present invention uses one or more of a plurality of feature point coordinates and the eyebrow outline function. The total audience ratio can be calculated using and based on the total audience ratio, total audience type information indicating the user's total audience type can be determined.

구체적으로, 프로세서(120)는 상단 특징점(A) 및 하단 특징점(Q) 간에 수직선 상에서의 제14 거리를 산출하고, 코끝 특징점(M) 및 윗입술 특징점(N) 간에 수직선 상에서의 제15 거리를 산출할 수 있다.Specifically, the processor 120 calculates the 14th distance on the vertical line between the upper feature point (A) and the lower feature point (Q), and calculates the 15th distance on the vertical line between the tip of the nose feature point (M) and the upper lip feature point (N) can do.

최종적으로, 프로세서(120)는 상기 제14 거리 대비 상기 제15 거리의 제4 거리 비율을 전체인중 비율로 산출할 수 있다.Finally, the processor 120 may calculate the fourth distance ratio of the 15th distance to the 14th distance as the total crowd ratio.

이때, 프로세서(120)는 하기의 수학식 9를 이용하여 전체인중 비율을 산출할 수 있다.At this time, the processor 120 can calculate the total population ratio using Equation 9 below.

<수학식 9><Equation 9>

여기서, C9는 전체인중 비율이고, R4는 제4 거리 비율이고, L14는 제14 거리이고, L15는 제15 거리이고, ya는 상단 특징점(A)의 수직축 상의 좌표이고, yq는 하단 특징점(Q)의 수직축 상의 좌표이고, ym는 코끝 특징점(M)의 수직축 상의 좌표이고, yn는 윗입술 특징점(N)의 수직축 상의 좌표이다.Here, C9 is the total philtrum ratio, R4 is the 4th distance ratio, L14 is the 14th distance, L15 is the 15th distance, y a is the coordinate on the vertical axis of the top feature point (A), and y q is the bottom is the coordinate on the vertical axis of the feature point (Q), y m is the coordinate on the vertical axis of the nose tip feature point (M), and y n is the coordinate on the vertical axis of the upper lip feature point (N).

이후, 프로세서(120)는 전체인중 비율에 기초하여 전체인중 유형 정보를 장 전체인중 유형으로 결정할 수 있다.Thereafter, the processor 120 may determine the total audience type information as the total audience type based on the total audience ratio.

여기서, 장 전체인중 유형은 얼굴의 세로 길이 대비 인중이 김을 나타내는 전체인중 유형일 수 있다.Here, the full philtrum type may be a full philtrum type that indicates the length of the philtrum compared to the vertical length of the face.

구제적으로, 프로세서(120)는 전체인중 비율이 기준 전체인중 비율 이상이면 상기 전체인중 유형 정보를 장 전체인중 유형으로 결정할 수 있다. Specifically, the processor 120 may determine the total audience type information as the total audience type if the total audience ratio is greater than or equal to the standard total audience ratio.

여기서, 기준 전체인중 비율은 0.1일 수 있다.Here, the standard total population ratio may be 0.1.

한편, 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)의 프로세서(120)는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 턱인중 비율을 산출하고, 턱인중 비율에 기초하여 사용자의 턱인중 유형을 나타내는 턱인중 유형 정보를 결정할 수 있다.Meanwhile, the processor 120 of the device 100 that provides physiognomy analysis and facial images according to facial recognition according to another embodiment of the present invention uses one or more of a plurality of feature point coordinates and the eyebrow outline function to determine chin impression. The ratio can be calculated, and based on the chin philtrum ratio, chin philtrum type information indicating the user's chin philtrum type can be determined.

구체적으로, 프로세서(120)는 아랫입술 특징점(P) 및 하단 특징점(Q) 간에 수직선 상에서의 제16 거리를 산출할 수 있다.Specifically, the processor 120 may calculate the 16th distance on a vertical line between the lower lip feature point (P) and the bottom feature point (Q).

최종적으로, 프로세서(120)는 상기 제16 거리 대비 상기 제15 거리의 제5 거리 비율을 턱인중 비율로 산출할 수 있다.Finally, the processor 120 may calculate the fifth distance ratio of the 15th distance to the 16th distance as the tuck-in ratio.

이때, 프로세서(120)는 하기의 수학식 10을 이용하여 턱인중 비율을 산출할 수 있다.At this time, the processor 120 can calculate the chin pull ratio using Equation 10 below.

<수학식 10><Equation 10>

여기서, C10은 턱인중 비율이고, R5는 제5 거리 비율이고, L15는 제15 거리이고, L16는 제16 거리이고, ya는 상단 특징점(A)의 수직축 상의 좌표이고, yp는 아랫입술 특징점(P)의 수직축 상의 좌표이고, ym는 코끝 특징점(M)의 수직축 상의 좌표이고, yn는 윗입술 특징점(N)의 수직축 상의 좌표이다.Here, C10 is the chin paw ratio, R5 is the 5th distance ratio, L15 is the 15th distance, L16 is the 16th distance, y a is the coordinate on the vertical axis of the upper feature point (A), and y p is the lower lip. is the coordinate on the vertical axis of the feature point (P), y m is the coordinate on the vertical axis of the nose tip feature point (M), and y n is the coordinate on the vertical axis of the upper lip feature point (N).

이후, 프로세서(120)는 턱인중 비율에 기초하여 턱인중 유형 정보를 장 턱인중 유형으로 결정할 수 있다.Thereafter, the processor 120 may determine the chin philtrum type information as the long chin philtrum type based on the chin philtrum ratio.

여기서, 장 턱인중 유형은 아랫입술 하단부터 얼굴의 최하단까지의 세로 길이 대비 인중이 김을 나타내는 턱인중 유형일 수 있다.Here, the long chin philtrum type may be a chin philtrum type in which the philtrum is longer compared to the vertical length from the bottom of the lower lip to the bottom of the face.

구제적으로, 프로세서(120)는 턱인중 비율이 기준 턱인중 비율 이상이면 상기 턱인중 유형 정보를 장 턱인중 유형으로 결정할 수 있다. Specifically, the processor 120 may determine the chin philtrum type information as a long chin philtrum type if the chin philtrum ratio is greater than or equal to the standard chin philtrum ratio.

여기서, 기준 턱인중 비율은 1일 수 있다.Here, the standard jaw traction ratio may be 1.

이하, 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)가 턱선 유형 정보를 결정하는 과정에 대해 설명하도록 한다.Hereinafter, a process in which the device 100, which provides facial analysis and facial images based on facial recognition according to another embodiment of the present invention, determines jaw line type information will be described.

본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 본 발명의 일 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100) 대비 프로세서(120)의 역할만이 상이하므로, 반복되는 설명은 생략하도록 한다.A device 100 for providing physiognomy analysis and facial images according to facial recognition according to another embodiment of the present invention is a device 100 for providing facial analysis and facial images according to facial recognition according to an embodiment of the present invention. Since only the role of the comparison processor 120 is different, repeated descriptions will be omitted.

도 12는 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치가 턱선 유형 정보를 결정하는 과정을 설명하기 위한 도면이다.FIG. 12 is a diagram illustrating a process in which a device that provides facial analysis and facial images based on facial recognition determines jaw line type information according to another embodiment of the present invention.

도 12를 더 참조하면, 본 발명의 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)의 프로세서(120)는 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 턱선 비율을 산출하고, 턱선 비율에 기초하여 사용자의 턱선 유형을 나타내는 턱선 유형 정보를 결정할 수 있다.Referring further to FIG. 12, the processor 120 of the device 100 that provides physiognomy analysis and facial images according to facial recognition according to another embodiment of the present invention uses one or more of a plurality of feature point coordinates and the eyebrow outline function. The jawline ratio can be calculated using and jawline type information indicating the user's jawline type can be determined based on the jawline ratio.

구체적으로, 프로세서(120)는 수평축 상에서의 광대 특징점(I)과 하단 특징점(Q)의 중점을 지나는 수직선 및 턱선이 교차되는 제5 교차점(O)을 검출할 수 있다.Specifically, the processor 120 may detect a fifth intersection point (O) where the jaw line and the vertical line passing through the midpoints of the cheek feature point (I) and the bottom feature point (Q) on the horizontal axis intersect.

이후, 프로세서(120)는 광대 특징점(I)과 하단 특징점(Q)을 잇는 직선과 수직하는 수직선 중에서 제5 교차점(O)을 지나는 수직선을 직교선으로 검출할 수 있다.Thereafter, the processor 120 may detect a vertical line passing through the fifth intersection (O) as an orthogonal line among the vertical lines perpendicular to the straight line connecting the upper feature point (I) and the lower feature point (Q).

다음으로, 프로세서(120)는 광대 특징점(I)과 하단 특징점(Q)을 잇는 직선 및 직교선이 교차되는 제6 교차점(V)을 검출할 수 있다.Next, the processor 120 may detect a sixth intersection point (V) where a straight line and a perpendicular line connecting the upper feature point (I) and the lower feature point (Q) intersect.

프로세서(120)는 광대 특징점(I)과 하단 특징점(Q) 간에 제17 거리를 산출하고, 제5 교차점(O)과 제6 교차점(V) 간에 제18 거리를 산출할 수 있다.The processor 120 may calculate a 17th distance between the upper feature point (I) and the lower feature point (Q), and may calculate an 18th distance between the fifth intersection point (O) and the sixth intersection point (V).

최종적으로, 프로세서(120)는 상기 제17 거리 대비 상기 제18 거리의 제6 거리 비율을 턱선 비율로 산출할 수 있다.Finally, the processor 120 may calculate the sixth distance ratio of the 18th distance to the 17th distance as the chin line ratio.

이때, 프로세서(120)는 하기의 수학식 11을 이용하여 턱선 비율을 산출할 수 있다.At this time, the processor 120 can calculate the jaw line ratio using Equation 11 below.

<수학식 11><Equation 11>

여기서, C11은 턱선 비율이고, R6는 제6 거리 비율이고, L17은 제17 거리이고, L18은 제18 거리이고, yo는 제6 교차점(O)의 수직축 상의 좌표이고, yv는 제7 교차점(V)의 수직축 상의 좌표이고, yq는 하단 특징점(Q)의 수직축 상의 좌표이고, yi는 광대 특징점(I)의 수직축 상의 좌표이고, xo는 제6 교차점(O)의 수평축 상의 좌표이고, xv는 제7 교차점(V)의 수평축 상의 좌표이고, xq는 하단 특징점(Q)의 수평축 상의 좌표이고, xi는 광대 특징점(I)의 수평축 상의 좌표이다.Here, C11 is the jaw line ratio, R6 is the 6th distance ratio, L17 is the 17th distance, L18 is the 18th distance, y o is the coordinate on the vertical axis of the 6th intersection (O), and y v is the 7th distance. is the coordinate on the vertical axis of the intersection point (V), y q is the coordinate on the vertical axis of the lower feature point (Q), y i is the coordinate on the vertical axis of the cheek feature point (I), and x o is the coordinate on the horizontal axis of the sixth intersection point (O) coordinates, x v is the coordinate on the horizontal axis of the seventh intersection (V), x q is the coordinate on the horizontal axis of the lower feature point (Q), and x i is the coordinate on the horizontal axis of the cheek feature point (I).

이후, 프로세서(120)는 턱선 비율에 기초하여 턱선 유형 정보를 뾰족 턱선 유형으로 결정할 수 있다.Thereafter, the processor 120 may determine the jawline type information as a sharp jawline type based on the jawline ratio.

여기서, 뾰족 턱선 유형은 턱선이 뾰족함을 나타내는 턱선 유형일 수 있다.Here, the sharp jawline type may be a jawline type that indicates a sharp jawline.

구제적으로, 프로세서(120)는 턱선 비율이 기준 턱선 비율 이하이면 상기 턱선 유형 정보를 장 턱선 유형으로 결정할 수 있다. Specifically, the processor 120 may determine the jawline type information as a long jawline type if the jawline ratio is less than or equal to the reference jawline ratio.

여기서, 기준 턱선 비율은 0.1일 수 있다.Here, the reference jaw line ratio may be 0.1.

한편, 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)의 프로세서(120)는 변형 유형 정보에 기초하여 사용자의 안면 이미지를 보정할 수 있다.Meanwhile, the processor 120 of the device 100 that provides physiognomy analysis and facial images according to facial recognition according to another embodiment may correct the user's facial image based on deformation type information.

이를 위해, 또 다른 실시 예에 따른 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치(100)는 현재의 안면 이미지에 따른 눈썹 유형 정보, 전택궁 유형 정보 및 미간 유형 정보 중에서 변경하고자 하는 유형을 나타내는 변형 유형 정보를 획득할 수 있다.To this end, the device 100, which provides physiognomy analysis and facial images according to facial recognition according to another embodiment, selects the type to be changed among eyebrow type information, frontal arch type information, and eyebrow type information according to the current facial image. Information on the type of transformation indicated can be obtained.

예를 들어, 현재의 안면 이미지에 따라 결정된 눈썹 유형 정보가 일자형 눈썹 유형인 경우, 변형 유형 정보는 눈썹 유형 정보와 상이한 표준형 눈썹 유형일 수 있다.For example, if the eyebrow type information determined according to the current facial image is a straight eyebrow type, the modified type information may be a standard eyebrow type that is different from the eyebrow type information.

이때, 프로세서(120)는 안면 이미지가 변형 유형 정보가 나타내는 유형이 되도록 눈의 위치, 눈의 형상, 눈썹의 위치 및 눈썹의 형상 중 하나 이상을 변경하여 안면 이미지를 보정할 수 있다.At this time, the processor 120 may correct the facial image by changing one or more of the eye position, eye shape, eyebrow position, and eyebrow shape so that the facial image is of the type indicated by the deformation type information.

상술된 예를 이어서 설명하면, 일자형 눈썹 유형으로 눈썹 유형 정보가 결정된 안면 이미지의 눈썹 기울기는 제1 기준 기울기 이하이지만, 변형 유형 정보로써 표준형 눈썹 유형이 획득되는 경우, 프로세서(120)는 눈썹 기울기가 제1 기준 기울기를 초과하고 제2 기준 기울기 미만이 되도록 눈의 위치, 눈의 형상, 눈썹의 위치 및 눈썹의 형상 중 하나 이상을 변경하여 안면 이미지를 보정할 수 있다.Continuing to explain the above-mentioned example, the eyebrow slope of the facial image whose eyebrow type information is determined as a straight eyebrow type is less than or equal to the first reference slope, but when a standard eyebrow type is obtained as the deformed type information, the processor 120 determines the eyebrow slope The facial image may be corrected by changing one or more of the eye position, eye shape, eyebrow position, and eyebrow shape so that it exceeds the first reference slope and is less than the second reference slope.

이후, 프로세서(120)는 변형 유형 정보에 대응되도록 보정된 안면 이미지가 화면에 출력되도록 출력부(130)를 제어할 수 있다.Thereafter, the processor 120 may control the output unit 130 so that a facial image corrected to correspond to the deformation type information is output on the screen.

이를 통해, 사용자는 성형 수술 및 성형 시술을 수행 전에, 눈썹 유형, 전택궁 유형 및 미간 유형 중에서 변경하고자 하는 유형의 종류에 따라 성형 수술 및 성형 시술의 수행 후 안면 이미지를 미리 확인해볼 수 있다.Through this, before performing plastic surgery or plastic surgery, the user can preview the facial image after performing plastic surgery or plastic surgery according to the type of type to be changed among the eyebrow type, front arch type, and glabella type.

이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.So far, the present invention has been examined with a focus on preferred embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described with limited examples and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following will be understood by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalence of the patent claims to be described.

100 : 안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치
110 : 입력부
120 : 프로세서
130 : 출력부
140 : 통신부
150 : 저장부
100: A device that provides physiognomy analysis and facial images based on facial recognition
110: input unit
120: processor
130: output unit
140: Department of Communications
150: storage unit

Claims (1)

사용자의 안면 이미지를 입력받는 입력부; 및
상기 안면 이미지에 기초하여 사용자의 안면의 형상에 대한 특징을 나타내는 복수의 특징점 각각의 특징점 좌표와 눈썹의 외곽선을 나타내는 눈썹 외곽선 함수를 생성하는 프로세서;를 포함하고,
상기 프로세서는
복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 사용자의 이목구비 각각의 유형을 나타내는 이목구비 유형 정보를 결정하는데 이용되고 상기 이목구비의 형상이 반영된 수치 정보를 산출하고, 상기 수치 정보에 기초하여 상기 이목구비 유형 정보를 결정하고,
상기 프로세서는
상기 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 눈 및 눈썹 중 하나 이상의 위치 대비 상기 사용자의 눈썹산의 상대 위치를 나타내는 복수의 눈썹산 상대 위치, 눈썹 기울기, 눈썹 곡률 및 눈썹 두께 비율을 상기 수치 정보로써 산출하고, 상기 복수의 눈썹산 상대 위치, 상기 눈썹 기울기, 상기 눈썹 곡률 및 상기 눈썹 두께 비율 중 하나 이상에 기초하여 상기 사용자의 눈썹의 유형을 나타내는 눈썹 유형 정보를 상기 이목구비 유형 정보 중 하나로 결정하고,
상기 프로세서는
상기 복수의 특징점 중에서 사용자의 안면 상단과 안면 하단을 각각 나타내는 상단 특징점과 하단 특징점을 잇는 직선을 수직축으로 설정하고 상기 수직축에 수직한 수평축을 설정하고,
상기 프로세서는
상기 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 전택궁 비율을 산출하고, 상기 전택궁 비율에 기초하여 사용자의 전택궁의 유형을 나타내는 전택궁 유형 정보를 결정하고,
상기 프로세서는
상기 복수의 특징점 중에서 눈산을 나타내는 눈산 특징점을 지나는 제3 수직선 및 상기 눈썹의 외곽선 중에서 하부 외곽선이 교차되는 제4 교차점을 추출하고, 상기 복수의 특징점 중에서 눈꼬리를 나타내는 눈꼬리 특징점 및 눈머리를 나타내는 눈머리 특징점 간에 상기 수평축 상에서의 제9 거리를 산출하고, 상기 눈산 특징점 및 제4 교차점 간에 제10 거리를 산출하고, 상기 제9 거리 대비 상기 제10 거리의 제3 거리 비율을 상기 전택궁 비율로 산출하되, 하기의 수학식 6을 이용하여 상기 전택궁 비율을 산출하고,
상기 프로세서는
상기 전택궁 비율이 제1 기준 전택궁 비율 미만이면, 상기 전택궁 유형 정보를 전택궁이 좁음을 나타내는 소전택궁 유형으로 결정하고, 상기 전택궁 비율이 제2 기준 전택궁 비율을 초과하면, 상기 전택궁 유형 정보를 전택궁이 넓음을 나타내는 대전택궁 유형으로 결정하고,
상기 프로세서는
상기 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 복수의 미간 상대 길이를 산출하되, 상기 복수의 미간 상대 길이로서, 제1 미간 상대 길이 및 제2 미간 상대 길이를 산출하고, 상기 복수의 미간 상대 길이에 기초하여 사용자의 미간의 유형을 나타내는 미간 유형 정보를 결정하고,
상기 프로세서는
상기 복수의 특징점 중에서 눈썹머리를 나타내는 눈썹머리 특징점 및 상기 수직축 간에 상기 수평축 상에서의 제11 거리를 산출하고, 상기 복수의 특징점 중에서 눈썹꼬리를 나타내는 눈썹꼬리 특징점 및 상기 눈머리 특징점 간에 상기 수평축 상에서의 제12 거리를 산출하고, 상기 제12 거리를 미리 설정된 배율만큼 축소시켜 보정 거리로 산출하고, 상기 제11 거리 및 상기 보정 거리 간에 제3 거리 차를 상기 제1 미간 상대 길이로 산출하되, 하기의 수학식 7을 이용하여 상기 제1 미간 상대 길이를 산출하고,
상기 프로세서는
상기 복수의 특징점 중에서 상기 눈머리 특징점을 지나는 제1 수직선 및 상기 눈썹의 외곽선 중에서 상부 외곽선이 교차되는 제1 교차점을 추출하고 상기 제1 교차점 및 상기 수평축 간에 상기 수직축 상에서의 제13 거리를 산출하고, 상기 제11 거리 및 상기 제13 거리 간에 제4 거리 차를 상기 제2 미간 상대 길이로 산출하되, 하기의 수학식 8을 이용하여 상기 제2 미간 상대 길이를 산출하고,
상기 프로세서는
상기 제1 미간 상대 길이가 기준 상대 길이를 초과하면 상기 미간 유형 정보를 미간이 좁음을 나타내는 소미간 유형으로 결정하고, 상기 제2 미간 상대 길이가 상기 기준 상대 길이를 초과하면 상기 미간 유형 정보를 미간이 넓음을 나타내는 대미간 유형으로 결정하고
상기 프로세서는
상기 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 전체인중 비율을 산출하고, 상기 전체인중 비율에 기초하여 사용자의 전체인중 유형을 나타내는 전체인중 유형 정보를 결정하고,
상기 프로세서는
상기 상단 특징점 및 상기 하단 특징점 간에 상기 수직축 상에서의 제14 거리를 산출하고, 상기 복수의 특징점 중에서 사용자의 코끝을 나타내는 코끝 특징점 및 사용자의 윗입술 상단을 나타내는 윗입술 특징점 간에 상기 수직축 상에서의 제15 거리를 산출하고, 상기 제14 거리 대비 상기 제15 거리의 제4 거리 비율을 상기 전체인중 비율로 산출하되, 하기의 수학식 9를 이용하여 상기 전체인중 비율을 산출하고,
상기 프로세서는
상기 전체인중 비율이 기준 전체인중 비율 이상이면 상기 전체인중 유형 정보를 사용자의 얼굴의 세로 길이 대비 인중이 김을 나타내는 장 전체인중 유형으로 결정하고,
상기 프로세서는
상기 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 턱인중 비율을 산출하고, 상기 턱인중 비율에 기초하여 사용자의 턱인중 유형을 나타내는 턱인중 유형 정보를 결정하고,
상기 프로세서는
상기 복수의 특징점 중에서 사용자의 아랫입술 하단을 나타내는 아랫입술 특징점 및 상기 하단 특징점 간에 상기 수직축 상에서의 제16 거리를 산출하고, 상기 제16 거리 대비 상기 제15 거리의 제5 거리 비율을 상기 턱인중 비율로 산출하고,
상기 프로세서는
상기 턱인중 비율이 기준 턱인중 비율 이상이면 상기 턱인중 유형 정보를 사용자의 아랫입술 하단부터 얼굴의 최하단까지의 세로 길이 대비 인중이 김을 나타내는 장 턱인중 유형으로 결정하고,
상기 프로세서는
결정된 상기 눈썹 유형 정보, 상기 전택궁 유형 정보 및 상기 미간 유형 정보 중에서 변경하고자 하는 유형을 나타내는 변형 유형 정보를 획득하고,
상기 프로세서는
상기 변형 유형 정보에 기초하여 사용자의 상기 안면 이미지를 보정하되, 상기 안면 이미지가 상기 변형 유형 정보가 나타내는 유형이 되도록 눈의 위치, 눈의 형상, 눈썹의 위치 및 눈썹의 형상 중 하나 이상을 변경하여 상기 안면 이미지를 보정하고,
상기 프로세서는
성형 수술 및 성형 시술의 수행 후의 안면 이미지를 사용자가 미리 확인할 수 있도록, 보정된 상기 안면 이미지가 화면에 출력되도록 출력부를 제어하고,
상기 프로세서는
상기 눈썹 기울기가 제1 기준 기울기를 초과하고 상기 제1 기준 기울기 보다 큰 제2 기준 기울기 미만이면 상기 눈썹 유형 정보를 표준형 눈썹 유형으로 결정하고, 상기 눈썹 기울기가 제2 기준 기울기 이상이고 상기 복수의 눈썹산 상대 위치 중에서 제2 눈썹산 상대 위치가 기준 상대 위치 이상이면 상기 눈썹 유형 정보를 상승형 눈썹 유형으로 결정하고,
상기 프로세서는
상기 복수의 특징점 좌표 및 상기 눈썹 외곽선 함수 중 하나 이상을 이용하여 턱선 비율을 산출하고, 상기 턱선 비율에 기초하여 상기 사용자의 턱선 유형을 나타내는 턱선 유형 정보를 결정하고,
상기 프로세서는
상기 사용자의 광대 끝단을 나타내는 광대 특징점과 상기 하단 특징점 간의 상기 수평축 상에서 중점을 지나는 수직선 및 턱선이 교차되는 제5 교차점을 검출하고, 상기 광대 특징점과 상기 하단 특징점을 잇는 직선과 수직하는 수직선 중에서 상기 제5 교차점을 지나는 수직선을 직교선으로 검출하고, 상기 광대 특징점과 상기 하단 특징점을 잇는 직선 및 상기 직교선이 교차되는 제6 교차점을 검출하고, 상기 광대 특징점과 상기 하단 특징점 간에 제17 거리를 산출하고, 상기 제5 교차점과 상기 제6 교차점 간에 제18 거리를 산출하고, 상기 제17 거리 대비 상기 제18 거리의 제6 거리 비율을 상기 턱선 비율로 산출하고,
상기 프로세서는
상기 턱선 비율이 기준 턱선 비율 이하이면 상기 턱선 유형 정보를 장 턱선 유형으로 결정하는 것을 특징으로 하는
안면인식에 따른 관상분석과 얼굴이미지를 제공하는 장치.

<수학식 6>

여기서, C6은 전택궁 비율이고, R3는 제3 거리 비율이고, L9는 제9 거리이고, L10는 제10 거리이고, L(xr)는 제4 교차점(Z4)의 수직축 상의 좌표이고, yr은 눈산 특징점(R)의 수직축 상의 좌표이고, xh은 눈꼬리 특징점(H)의 수평축 상의 좌표이고, xr은 눈머리 특징점(R)의 수평축 상의 좌표이다.
<수학식 7>

여기서, C7은 제1 미간 상대 길이이고, D3은 제3 거리 차이고, L11은 제11 거리이고, L12'은 보정 거리이고, L12는 제12 거리이고, j는 미리 설정된 배율(예를 들어, 3)이고, xc는 눈썹머리 특징점(C)의 수평축 상의 좌표이고, xe는 눈썹꼬리 특징점(E)의 수평축 상의 좌표이고, xf는 눈머리 특징점(F)의 수평축 상의 좌표이다.
<수학식 8>

여기서, C8은 제2 미간 상대 길이이고, D4은 제4 거리 차이고, L11은 제11 거리이고, L13은 제13 거리이고, xc는 눈썹머리 특징점(C)의 수평축 상의 좌표이고, U(xf)는 제1 교차점(Z1)의 수직축 상의 좌표이다.
<수학식 9>

여기서, C9는 전체인중 비율이고, R4는 제4 거리 비율이고, L14는 제14 거리이고, L15는 제15 거리이고, ya는 상단 특징점(A)의 수직축 상의 좌표이고, yq는 하단 특징점(Q)의 수직축 상의 좌표이고, ym는 코끝 특징점(M)의 수직축 상의 좌표이고, yn는 윗입술 특징점(N)의 수직축 상의 좌표이다.
An input unit that receives the user's facial image; and
A processor that generates feature point coordinates of each of a plurality of feature points representing characteristics of the user's face shape based on the facial image and an eyebrow outline function representing the outline of the eyebrows;
The processor is
One or more of a plurality of feature point coordinates and the eyebrow outline function is used to determine feature type information indicating each type of feature of the user, and numerical information reflecting the shape of the feature is calculated, and based on the numerical information, the Determine facial features type information,
The processor is
A plurality of eyebrow peak relative positions, eyebrow tilt, eyebrow curvature, and eyebrow thickness ratio indicating the relative position of the user's eyebrow peaks compared to the position of one or more of the eyes and eyebrows using one or more of the plurality of feature point coordinates and the eyebrow outline function. is calculated as the numerical information, and eyebrow type information indicating the type of the user's eyebrows is provided based on one or more of the relative positions of the plurality of eyebrow peaks, the eyebrow slope, the eyebrow curvature, and the eyebrow thickness ratio, and the facial features type information. Decide on one of the
The processor is
Among the plurality of feature points, a straight line connecting the top feature point and the bottom feature point representing the top and bottom of the user's face, respectively, is set as the vertical axis, and a horizontal axis perpendicular to the vertical axis is set,
The processor is
Calculating a ratio of the arch of the plurality of features using one or more of the coordinates of the plurality of feature points and the eyebrow outline function, and determining type of arch of the user based on the ratio of the arch of the arch, and determining type information of the arch of the user,
The processor is
Among the plurality of feature points, a third vertical line passing through a snowy mountain feature point representing a snowy mountain and a fourth intersection point where a lower outline of the outlines of the eyebrows intersect are extracted, and among the plurality of feature points, an eyetail feature point representing an eye corner and an eye head representing an eye head are extracted. Calculate the 9th distance on the horizontal axis between feature points, calculate the 10th distance between the Nunsan feature point and the fourth intersection, and calculate the third distance ratio of the 10th distance to the 9th distance as the Jeontaekung ratio, , Calculate the above-mentioned arch ratio using Equation 6 below,
The processor is
If the Jeontaekung ratio is less than the first standard Jeontaekung ratio, the Jeontaekung type information is determined as a small Jeontaekung type indicating that the Jeontaekung is narrow, and if the Jeontaekung ratio exceeds the second standard Jeontaekung ratio, The Jeontaekung type information is determined as the Daejeontaekung type, which indicates the width of the Jeontaekung palace.
The processor is
A plurality of relative lengths between the eyebrows are calculated using one or more of the plurality of feature point coordinates and the eyebrow outline function, and as the plurality of relative lengths between the eyebrows, a first relative length between the eyebrows and a second relative length between the eyebrows are calculated, and the plurality of relative lengths between the eyebrows are calculated. Determine the type information between the eyebrows indicating the type of the user's eyebrows based on the relative length between the eyebrows,
The processor is
An 11th distance on the horizontal axis is calculated between an eyebrow hair feature point representing the eyebrow head among the plurality of feature points and the vertical axis, and an 11th distance on the horizontal axis is calculated between the eyebrow tail feature point representing the eyebrow tail among the plurality of feature points and the eye head feature point. 12 distance is calculated, the 12th distance is reduced by a preset magnification to calculate the correction distance, and the 3rd distance difference between the 11th distance and the correction distance is calculated as the first relative length between the eyebrows, using the following math Calculate the first relative length between the eyebrows using Equation 7,
The processor is
Extracting a first intersection point where the upper outline of the first vertical line passing through the eye head feature point and the outline of the eyebrows intersects among the plurality of feature points, and calculating a 13th distance on the vertical axis between the first intersection point and the horizontal axis, The fourth distance difference between the 11th distance and the 13th distance is calculated as the second relative length between the eyebrows, and the second relative length between the eyebrows is calculated using Equation 8 below,
The processor is
If the first relative length between the eyebrows exceeds the standard relative length, the glabella type information is determined as a small glabella type indicating that the glabella is narrow, and if the second relative length between the eyebrows exceeds the reference relative length, the glabella type information is determined as the glabella type information. Decide on the type between the eyes that represents this wideness.
The processor is
Calculating a total crowd ratio using one or more of the plurality of feature point coordinates and the eyebrow outline function, and determining total crowd type information indicating the user's overall crowd type based on the total crowd ratio,
The processor is
Calculating a 14th distance on the vertical axis between the upper feature point and the lower feature point, and calculating a 15th distance on the vertical axis between a nose tip feature point representing the tip of the user's nose and an upper lip feature point representing the top of the user's upper lip among the plurality of feature points. And, the fourth distance ratio of the 15th distance to the 14th distance is calculated as the total crowd ratio, and the total crowd ratio is calculated using Equation 9 below,
The processor is
If the total people ratio is more than the standard total people ratio, the total people type information is determined as a long total people type indicating the length of the philtrum compared to the vertical length of the user's face,
The processor is
Calculating a chin philtrum ratio using one or more of the plurality of feature point coordinates and the eyebrow outline function, and determining chin philtrum type information indicating the user's chin philtrum type based on the chin philtrum ratio,
The processor is
Among the plurality of feature points, a 16th distance on the vertical axis is calculated between a lower lip feature point representing the bottom of the user's lower lip and the bottom feature point, and a fifth distance ratio of the 15th distance to the 16th distance is calculated as the chin paw ratio. Calculated as,
The processor is
If the chin philtrum ratio is more than the standard chin philtrum ratio, the chin philtrum type information is determined as a long chin philtrum type indicating the length of the philtrum compared to the vertical length from the bottom of the user's lower lip to the bottom of the face,
The processor is
Obtaining transformation type information indicating a type to be changed among the determined eyebrow type information, the Jeontaekung type information, and the eyebrow type information,
The processor is
The facial image of the user is corrected based on the deformation type information, and one or more of the eye position, eye shape, eyebrow position, and eyebrow shape is changed so that the facial image is the type indicated by the deformation type information. Correcting the facial image,
The processor is
Controlling the output unit so that the corrected facial image is displayed on the screen so that the user can check the facial image after plastic surgery and cosmetic procedures in advance,
The processor is
If the eyebrow inclination exceeds the first reference inclination and is less than the second reference inclination greater than the first reference inclination, the eyebrow type information is determined as a standard eyebrow type, and if the eyebrow inclination is more than the second reference inclination and the plurality of eyebrows If the second eyebrow mountain relative position among the mountain relative positions is greater than or equal to the reference relative position, the eyebrow type information is determined as a raised eyebrow type,
The processor is
Calculate a jawline ratio using one or more of the plurality of feature point coordinates and the eyebrow outline function, and determine jawline type information indicating the user's jawline type based on the jawline ratio,
The processor is
Detecting a fifth intersection point where a vertical line passing through the midpoint on the horizontal axis between the cheek feature point indicating the tip of the user's cheekbone and the lower feature point intersects the jaw line, and detecting the fifth intersection point among the vertical lines perpendicular to a straight line connecting the cheekbone feature point and the lower feature point 5 Detecting a vertical line passing through an intersection as an orthogonal line, detecting a sixth intersection where a straight line connecting the wide feature point and the bottom feature point, and the orthogonal line intersect, calculating a 17th distance between the wide feature point and the bottom feature point, , calculating an 18th distance between the 5th intersection and the 6th intersection, calculating a 6th distance ratio of the 18th distance to the 17th distance as the jaw line ratio,
The processor is
If the jawline ratio is less than or equal to the reference jawline ratio, the jawline type information is determined as a long jawline type.
A device that provides physiognomy analysis and facial images based on facial recognition.

<Equation 6>

Here, C6 is the cross-section ratio, R3 is the third distance ratio, L9 is the ninth distance, L10 is the tenth distance, L(x r ) is the coordinate on the vertical axis of the fourth intersection (Z4), and y r is the coordinate on the vertical axis of the eye peak feature point (R), x h is the coordinate on the horizontal axis of the eye tail feature point (H), and x r is the coordinate on the horizontal axis of the eye cap feature point (R).
<Equation 7>

Here, C7 is the first relative length between the eyebrows, D3 is the third distance difference, L11 is the eleventh distance, L12' is the correction distance, L12 is the twelfth distance, and j is a preset magnification (e.g., 3 ), x c is the coordinate on the horizontal axis of the eyebrow head feature point (C), x e is the coordinate on the horizontal axis of the eyebrow tail feature point (E), and x f is the coordinate on the horizontal axis of the eye head feature point (F).
<Equation 8>

Here, C8 is the second relative length between the eyebrows, D4 is the fourth distance difference, L11 is the eleventh distance, L13 is the thirteenth distance, x c is the coordinate on the horizontal axis of the eyebrow head feature point (C), and U(x f ) is the coordinate on the vertical axis of the first intersection (Z1).
<Equation 9>

Here, C9 is the total philtrum ratio, R4 is the 4th distance ratio, L14 is the 14th distance, L15 is the 15th distance, y a is the coordinate on the vertical axis of the top feature point (A), and y q is the bottom is the coordinate on the vertical axis of the feature point (Q), y m is the coordinate on the vertical axis of the nose tip feature point (M), and y n is the coordinate on the vertical axis of the upper lip feature point (N).
KR1020230073500A 2022-05-19 2023-06-08 Apparatus for providing coronary analysis and face image according to face recognition KR20230161907A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230073500A KR20230161907A (en) 2022-05-19 2023-06-08 Apparatus for providing coronary analysis and face image according to face recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220061457A KR102543427B1 (en) 2022-05-19 2022-05-19 Apparatus for analyzing face facial features
KR1020230073500A KR20230161907A (en) 2022-05-19 2023-06-08 Apparatus for providing coronary analysis and face image according to face recognition

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220061457A Division KR102543427B1 (en) 2022-05-19 2022-05-19 Apparatus for analyzing face facial features

Publications (1)

Publication Number Publication Date
KR20230161907A true KR20230161907A (en) 2023-11-28

Family

ID=86744576

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220061457A KR102543427B1 (en) 2022-05-19 2022-05-19 Apparatus for analyzing face facial features
KR1020230073500A KR20230161907A (en) 2022-05-19 2023-06-08 Apparatus for providing coronary analysis and face image according to face recognition

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220061457A KR102543427B1 (en) 2022-05-19 2022-05-19 Apparatus for analyzing face facial features

Country Status (1)

Country Link
KR (2) KR102543427B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160062429A (en) 2014-11-25 2016-06-02 대전과학기술대학교 산학협력단 System and method for generating caricature using physiognomy features

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040106844A (en) * 2003-06-11 2004-12-18 이응주 System and method for offer physiognomy information and the other sex information using on-line analysis face physiognomy
KR20040100876A (en) * 2004-03-29 2004-12-02 이진근 System for offering physiognomy information service
KR101081494B1 (en) * 2008-08-28 2011-11-09 동명대학교산학협력단 facial physiognomic judgment of fortune and face avatar generation method using a face recognition and system thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160062429A (en) 2014-11-25 2016-06-02 대전과학기술대학교 산학협력단 System and method for generating caricature using physiognomy features

Also Published As

Publication number Publication date
KR102543427B1 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
US20160125229A1 (en) Facial structural shaping
KR101259662B1 (en) Face classifying method face classifying device classification map face classifying program recording medium where this program is recorded
KR101743763B1 (en) Method for providng smart learning education based on sensitivity avatar emoticon, and smart learning education device for the same
CN107452049B (en) Three-dimensional head modeling method and device
CN105184249A (en) Method and device for processing face image
KR102102944B1 (en) Display method for recommending eyebrow style and electronic apparatus thereof
US10600226B2 (en) System and method for manipulating a facial image and a system for animating a facial image
US8997757B1 (en) Golden ratio eyebrow shaping method
KR102114369B1 (en) Online shopping mall banner design generation method, apparatus and system
CN101925345A (en) Makeup method, makeup simulation device, and makeup simulation program
WO2007079009A1 (en) Handwriting recognition training and synthesis
CN109426767A (en) Informer describes guidance device and its method
CN111475667A (en) Mechanical arm regular script style calligraphy writing method based on handwritten Chinese characters
WO2022111001A1 (en) Face image processing method and apparatus, and electronic device and storage medium
US11631154B2 (en) Method, apparatus, device and storage medium for transforming hairstyle
WO2020224136A1 (en) Interface interaction method and device
CN111667588A (en) Person image processing method, person image processing device, AR device and storage medium
KR20170002097A (en) Method for providing ultra light-weight data animation type based on sensitivity avatar emoticon
Mattos et al. Improving CNN-based viseme recognition using synthetic data
CN115662388A (en) Avatar face driving method, apparatus, electronic device and medium
CN114399424A (en) Model training method and related equipment
KR20230161907A (en) Apparatus for providing coronary analysis and face image according to face recognition
US20230177756A1 (en) Method of generating 3d video, method of training model, electronic device, and storage medium
CN114445528B (en) Virtual image generation method and device, electronic equipment and storage medium
CN114332365A (en) Virtual character generation method and device, electronic equipment and storage medium