KR102477338B1 - Method, apparatus and program for providing facial mood diagnosis platform using image - Google Patents

Method, apparatus and program for providing facial mood diagnosis platform using image Download PDF

Info

Publication number
KR102477338B1
KR102477338B1 KR1020220023628A KR20220023628A KR102477338B1 KR 102477338 B1 KR102477338 B1 KR 102477338B1 KR 1020220023628 A KR1020220023628 A KR 1020220023628A KR 20220023628 A KR20220023628 A KR 20220023628A KR 102477338 B1 KR102477338 B1 KR 102477338B1
Authority
KR
South Korea
Prior art keywords
facial
mood
adjectives
user
category
Prior art date
Application number
KR1020220023628A
Other languages
Korean (ko)
Inventor
김상이
Original Assignee
주식회사 블랙탠저린
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 블랙탠저린 filed Critical 주식회사 블랙탠저린
Priority to KR1020220023628A priority Critical patent/KR102477338B1/en
Priority to KR1020220171048A priority patent/KR20230126635A/en
Application granted granted Critical
Publication of KR102477338B1 publication Critical patent/KR102477338B1/en
Priority to JP2023565229A priority patent/JP2024516627A/en
Priority to PCT/KR2023/002427 priority patent/WO2023163477A1/en
Priority to US18/492,965 priority patent/US20240054680A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method, a device, and a program for providing a facial mood diagnosis platform using images. The present invention analyzes facial features using images taken of a user's face, diagnoses adjectives that correspond to the user's facial mood, and provides the same to the user. The method for providing a facial mood diagnosis platform using images according to an embodiment of the present invention comprises the steps of: obtaining an image of a face from a user; setting a reference point that defines a face within the obtained image; and determining facial features using set reference points, and determining an adjective corresponding to the facial mood of the user using the results of determining the facial features.

Description

이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램{METHOD, APPARATUS AND PROGRAM FOR PROVIDING FACIAL MOOD DIAGNOSIS PLATFORM USING IMAGE}Method, apparatus and program for providing facial mood diagnosis platform using image {METHOD, APPARATUS AND PROGRAM FOR PROVIDING FACIAL MOOD DIAGNOSIS PLATFORM USING IMAGE}

본 발명은 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램에 관한 것으로, 보다 자세하게는 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램에 관한 것이다.The present invention relates to a method, apparatus, and program for providing a platform for diagnosing facial mood using images. The present invention relates to a method, apparatus, and program for providing a facial mood diagnosis platform using an image provided to a user.

최근 현대사회에서는 미용에 대한 관심이 급증하면서 뷰티 산업(beauty industry)이 발전하고 있다. 뷰티 산업의 발전에 따라, 사용자는 메이크업, 의류, 헤어 등에 대한 관심이 증가하고 있는 추세이다. BACKGROUND ART [0002] Recently, as interest in beauty has rapidly increased in modern society, a beauty industry is developing. As the beauty industry develops, users tend to show increased interest in makeup, clothing, hair, and the like.

그러나, 사용자 개인마다 피부 색상, 얼굴형, 이목구비의 생김새 등이 다양하기 때문에 개인에게 어울리는 메이크업, 의류, 헤어 등이 다 다를 수 있다. 따라서, 사용자는 자신에게 어울리는 메이크업, 의류, 헤어 디자인을 찾기를 원하는데, 자신에게 어울리는 디자인을 찾기 위해서는 많은 시행착오를 겪어야하며, 이로 인해 많은 시간과 비용이 소요되었다.However, since skin color, face shape, features, etc., of each user are diverse, makeup, clothes, hair, etc. suitable for each individual may be different. Therefore, users want to find makeup, clothes, and hair designs that suit them, but in order to find a design that suits them, they have to go through a lot of trial and error, which takes a lot of time and money.

이와 같이, 자신에게 어울리는 디자인을 찾기 위해서는 사용자 개인의 얼굴에서 풍기는 이미지를 객관화하는 것이 중요한데, 사용자들의 시선에 따라 주관적 의견이 반영되기 쉬어 이미지를 객관화하는 데 많은 어려움을 겪고 있다.In this way, in order to find a design that suits oneself, it is important to objectify the image from the user's individual face, but it is difficult to objectify the image because subjective opinions are easily reflected according to the user's gaze.

본 발명이 해결하고자 하는 과제는 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to analyze facial characteristics using an image of a user's face, diagnose adjectives corresponding to the user's facial mood, and provide a facial mood diagnosis platform using images provided to the user; To provide devices and programs.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법은 사용자로부터 얼굴을 촬영한 이미지를 획득하는 단계와, 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정하는 단계와, 설정된 기준점들을 이용하여 얼굴의 특징을 판단하는 단계와, 얼굴의 특징을 판단한 결과를 이용하여, 상기 사용자의 얼굴 분위기에 해당하는 형용사를 결정하는 단계를 포함할 수 있다.A method for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention for solving the above problems includes acquiring an image of a face taken from a user, and setting a reference point defining a face in the obtained image. The method may include determining facial features using set reference points, and determining an adjective corresponding to the facial mood of the user using a result of determining the facial features.

또한, 상기 얼굴의 특징을 판단하는 단계는, 얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득하는 단계와, 기준점 그룹에 해당하는 기준점들간의 위치관계를 판단하는 단계와, 판단된 결과를 기초로 이목구비 형태를 정의하는 단계를 포함할 수 있다.In addition, the step of determining the feature of the face may include obtaining a reference point group designating each feature of the face, determining a positional relationship between the reference points corresponding to the reference point group, and determining the facial features based on the determined result. It may include defining a shape.

또한, 상기 사용자의 얼굴 분위기에 해당하는 형용사를 결정하는 단계는, 얼굴 분위기에 따른 복수의 카테고리를 설정하는 단계와, 복수의 카테고리 각각에 해당하는 형용사를 매칭하여 저장하는 단계와, 상기 복수의 카테고리 중 상기 얼굴의 특징에 해당하는 카테고리를 선정하는 단계와, 선정된 카테고리에 포함된 형용사를 기초로, 상기 사용자의 얼굴 분위기에 가장 매칭되는 대표 형용사, 상기 사용자의 얼굴 분위기를 강화하는 강화 형용사 및 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사 중 적어도 하나의 형용사를 결정하는 단계를 포함할 수 있다.In addition, the step of determining the adjective corresponding to the facial mood of the user may include setting a plurality of categories according to the facial mood, matching and storing adjectives corresponding to each of the plurality of categories, and storing the adjective corresponding to the plurality of categories. The step of selecting a category corresponding to the feature of the face, and based on the adjectives included in the selected category, a representative adjective that best matches the facial mood of the user, a reinforcing adjective that reinforces the facial mood of the user, and the The method may include determining at least one adjective among complementary adjectives that complement the user's face mood.

또한, 상기 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면을 설정하는 단계와, 상기 형용사 각각의 좌표값을 지정하는 단계 및 상기 좌표평면 상에 복수의 카테고리 영역을 설정하는 단계를 포함할 수 있다.The method may also include setting a coordinate plane in which regions are set according to characteristics of the plurality of categories, designating coordinate values of each of the adjectives, and setting a plurality of category regions on the coordinate plane. .

또한, 정의된 이목구비 모양 각각에 대해 x값 및 y값을 산출하는 단계와, 산출된 x값 및 y값에 해당하는 좌표를 상기 좌표평면에 특정하는 단계와, 특정된 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정하는 단계를 포함할 수 있다.In addition, calculating x and y values for each of the defined features, specifying coordinates corresponding to the calculated x and y values on the coordinate plane, and the closest distance to the specified coordinate values A step of selecting a category to be located may be included.

또한, 선정된 카테고리에 해당하는 형용사들을 추출하는 단계와, 추출된 형용사들 중 카테고리의 특성에 따라 x값 또는 y값이 특정 기준을 만족하는 형용사를 추출하는 단계와, 추출된 형용사를 상기 사용자의 얼굴 분위기에 해당하는 형용사로 제공하는 단계를 포함할 수 있다.In addition, the step of extracting adjectives corresponding to the selected category, the step of extracting adjectives whose x value or y value satisfies a specific criterion according to the characteristics of the category among the extracted adjectives, and the extracted adjectives to the user A step of providing an adjective corresponding to the facial mood may be included.

또한, 정의된 이목구비 모양 각각에 대해 추출되는 복수의 형용사 중 상기 특정된 좌표값과 가장 가까운 위치의 좌표값을 가지는 순서로 상기 추출된 형용사의 순서를 매기는 단계와, 상기 형용사의 순서를 기초로 대표 형용사를 선정하는 단계와, 순서가 매겨진 형용사 중 특정 순위까지의 형용사 및 대표 형용사 중 적어도 하나를 상기 사용자에게 제공하는 단계를 포함할 수 있다.In addition, the step of arranging the order of the extracted adjectives in the order of having the coordinate value of the position closest to the specified coordinate value among the plurality of adjectives extracted for each of the defined features, and based on the order of the adjectives The method may include selecting a representative adjective and providing the user with at least one of the adjectives up to a specific rank among the adjectives in the order and the representative adjective.

또한, 상기 사용자의 얼굴 분위기에 해당하는 형용사의 x값 및 y값을 기초로, x축, y축 및 원점을 기준으로 대칭되는 x값 및 y값을 산출하는 단계와, 산출된 x값 및 y값에 해당하는 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정하는 단계와, 상기 카테고리 또는 상기 카테고리에 해당하는 형용사를 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사로 제공하는 단계를 포함할 수 있다.In addition, based on the x-value and y-value of the adjective corresponding to the facial mood of the user, calculating an x-value and a y-value that are symmetrical about the x-axis, y-axis and the origin, and the calculated x-value and y-value The method may include selecting a category located closest to a coordinate value corresponding to the value, and providing the category or an adjective corresponding to the category as a supplementary adjective that complements the user's facial atmosphere.

또한, 쇼핑몰로부터 의류 정보를 획득하는 단계, 상기 의류 정보를 기초로, 의류의 분위기를 추출하는 단계 및 상기 사용자에게 어울리는 분위기의 의류를 상기 사용자에게 제공하는 단계를 포함할 수 있다.The method may also include acquiring clothing information from a shopping mall, extracting clothing atmosphere based on the clothing information, and providing clothing with an atmosphere suitable for the user to the user.

상술한 과제를 해결하기 위한 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 장치는 하나 이상의 인스트럭션을 저장하는 메모리와, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행할 수 있다.An apparatus for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention for solving the above problems includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, The processor may perform the method of providing a platform for diagnosing facial mood using an image by executing the one or more instructions.

상술한 과제를 해결하기 위한 본 발명의 일 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 프로그램은 하드웨어인 컴퓨터와 결합하여, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장될 수 있다.A program for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention for solving the above problems is combined with a computer, which is hardware, and is readable by a computer to perform a method for providing a facial mood diagnosis platform using an image. It can be stored on a recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명은 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공할 수 있다.According to the present invention, facial features may be analyzed using an image of a user's face, and adjectives corresponding to the mood of the user's face may be diagnosed and provided to the user.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템을 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 플랫폼 제공 장치의 하드웨어 구성도이다.
도 3은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 나타내는 도면이다.
도 4는 본 발명의 실시 예에 따른 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면의 예시를 나타내는 도면이다.
도 5는 본 발명의 실시 예에 따른 이목구비 모양에 대한 좌표값을 특정한 예시를 나타낸 도면이다.
도 6은 본 발명의 실시 예에 따른 보완 형용사를 선정하는 예시를 나타내는 도면이다.
1 is a diagram illustrating a system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention.
2 is a hardware configuration diagram of a platform providing device according to an embodiment of the present invention.
3 is a diagram illustrating a method for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention.
4 is a diagram illustrating an example of a coordinate plane in which areas are set according to characteristics of a plurality of categories according to an embodiment of the present invention.
5 is a diagram showing an example of specifying coordinate values for features according to an embodiment of the present invention.
6 is a diagram illustrating an example of selecting a complementary adjective according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means any kind of hardware device including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to an embodiment. For example, a computer may be understood as including a smartphone, a tablet PC, a desktop computer, a laptop computer, and user clients and applications running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Although each step described in this specification is described as being performed by a computer, the subject of each step is not limited thereto, and at least a part of each step may be performed in different devices according to embodiments.

도 1은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템을 도시한 도면이다.1 is a diagram illustrating a system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템은 플랫폼 제공 장치(100), 사용자 단말(200) 및 외부 서버(300)를 포함할 수 있다.Referring to FIG. 1 , a system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention may include a platform providing device 100 , a user terminal 200 and an external server 300 .

여기서, 도 1에 도시된 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템은 일 실시 예에 따른 것이고, 그 구성 요소가 도 1에 도시된 실시 예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.Here, the system for providing a facial mood diagnosis platform using the image shown in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment shown in FIG. 1, and may be added, changed, or deleted as necessary. can

본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템은 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공할 수 있다. 사용자는 사용자 단말(200)을 통해 이미지를 이용한 얼굴 분위기 진단 플랫폼을 제공받을 수 있으며, 사용자는 사용자 단말(200)을 통해 얼굴을 촬영한 이미지를 플랫폼에 제공할 수 있다.A system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention may analyze facial characteristics using an image of a user's face, diagnose adjectives corresponding to the user's facial mood, and provide the diagnosed adjectives to the user. have. The user may be provided with a platform for diagnosing facial mood using images through the user terminal 200 , and the user may provide the platform with an image of a face captured through the user terminal 200 .

플랫폼 제공 장치(100)는 사용자로부터 얼굴을 촬영한 이미지를 획득하고, 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정하고, 설정된 기준점들을 이용하여 얼굴의 특징을 판단하고, 얼굴의 특징을 판단한 결과를 이용하여, 사용자의 얼굴 분위기에 해당하는 형용사를 결정할 수 있다.The platform providing device 100 acquires an image of a face taken from the user, sets reference points defining the face in the acquired image, determines facial characteristics using the set reference points, and determines the facial characteristics as a result of determining the result. Adjectives corresponding to the facial mood of the user may be determined using .

사용자 단말(200)은 네트워크를 통해 플랫폼 제공 장치(100)와 연결될 수 있으며, 플랫폼 제공 장치(100)로부터 각종 서비스 및 플랫폼을 제공받을 수 있다.The user terminal 200 may be connected to the platform providing device 100 through a network and may receive various services and platforms from the platform providing device 100 .

사용자 단말(200)은 플랫폼 제공 장치(100)가 제공하는 각종 서비스 및 플랫폼에 관한 어플리케이션을 다운로드, 설치 및 실행함으로써, 어플리케이션을 통해 플랫폼 제공 장치(100)가 제공하는 각종 서비스를 제공받을 수 있다. 이를 위해 사용자 단말(200)은 스마트폰과 같이 어플리케이션의 구동이 가능한 운영체제를 탑재할 수 있다. 그러나, 이에 한정되지 않고, 사용자 단말(200)은 어플리케이션의 구동이 가능한 다른 범용적인 장치들이 적용될 수 있다.The user terminal 200 can receive various services provided by the platform providing device 100 through applications by downloading, installing, and executing various services provided by the platform providing device 100 and applications related to the platform. To this end, the user terminal 200 may be equipped with an operating system capable of driving applications like a smart phone. However, the user terminal 200 is not limited thereto, and other general-purpose devices capable of driving applications may be applied.

다양한 실시 예에서, 사용자 단말(200)은 어플리케이션 외에 웹 기반으로도 서비스를 제공할 수 있으며, 사용자 단말(200)이 서비스를 제공하는 방법은 특정한 형식으로 제한되지 않는다.In various embodiments, the user terminal 200 may provide a service based on the web as well as an application, and a method of providing the service by the user terminal 200 is not limited to a specific format.

외부 서버(300)는 네트워크를 통해 플랫폼 제공 장치(100)와 연결될 수 있으며, 플랫폼 제공 장치(100)가 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행하기 위한 각종 정보를 저장 및 관리할 수 있다.The external server 300 may be connected to the platform providing device 100 through a network, and the platform providing device 100 may store and manage various information for performing a method of providing a facial mood diagnosis platform using an image.

또한, 외부 서버(300)는 플랫폼 제공 장치(100)가 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행함에 따라 생성되는 각종 정보 및 데이터를 제공받아 저장할 수 있다. 예를 들어, 외부 서버(300)는 플랫폼 제공 장치(100) 외부에 별도로 구비되는 저장 서버일 수 있다. 도 2를 참조하여, 플랫폼 제공 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.In addition, the external server 300 may receive and store various types of information and data generated as the platform providing device 100 performs a method for providing a facial mood diagnosis platform using an image. For example, the external server 300 may be a storage server provided separately outside the platform providing device 100 . Referring to FIG. 2 , the hardware configuration of the platform providing apparatus 100 will be described.

도 2는 본 발명의 실시 예에 따른 플랫폼 제공 장치의 하드웨어 구성도이다.2 is a hardware configuration diagram of a platform providing device according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 플랫폼 제공 장치(100)(이하, 컴퓨팅 장치)는 하나 이상의 프로세서(110), 프로세서(110)에 의하여 수행되는 컴퓨터 프로그램(151)을 로드(Load)하는 메모리(120), 버스(130), 통신 인터페이스(140) 및 컴퓨터 프로그램(151)을 저장하는 스토리지(150)를 포함할 수 있다. 여기서, 도 2에는 본 발명의 실시예와 관련 있는 구성요소들만 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 2에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 2 , a platform providing device 100 (hereinafter referred to as a computing device) according to an embodiment of the present invention loads one or more processors 110 and a computer program 151 executed by the processor 110. ) may include a memory 120, a bus 130, a communication interface 140, and a storage 150 for storing the computer program 151. Here, in FIG. 2, only components related to the embodiment of the present invention are shown. Therefore, those skilled in the art to which the present invention pertains can know that other general-purpose components may be further included in addition to the components shown in FIG. 2 .

프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.The processor 110 controls the overall operation of each component of the computing device 100 . The processor 110 includes a Central Processing Unit (CPU), a Micro Processor Unit (MPU), a Micro Controller Unit (MCU), a Graphic Processing Unit (GPU), or any type of processor well known in the art of the present invention. It can be.

또한, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있으며, 컴퓨팅 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.Also, the processor 110 may perform an operation for at least one application or program for executing a method according to embodiments of the present invention, and the computing device 100 may include one or more processors.

다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In various embodiments, the processor 110 may temporarily and/or permanently store signals (or data) processed in the processor 110 (RAM: Random Access Memory, not shown) and ROM (ROM: Read -Only Memory, not shown) may be further included. In addition, the processor 110 may be implemented in the form of a system on chip (SoC) including at least one of a graphics processing unit, RAM, and ROM.

메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(120)는 본 발명의 다양한 실시예에 따른 방법/동작을 실행하기 위하여 스토리지(150)로부터 컴퓨터 프로그램(151)을 로드할 수 있다. 메모리(120)에 컴퓨터 프로그램(151)이 로드되면, 프로세서(110)는 컴퓨터 프로그램(151)을 구성하는 하나 이상의 인스트럭션들을 실행함으로써 상기 방법/동작을 수행할 수 있다. 메모리(120)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.Memory 120 stores various data, commands and/or information. Memory 120 may load computer program 151 from storage 150 to execute methods/operations according to various embodiments of the present invention. When the computer program 151 is loaded into the memory 120, the processor 110 may perform the method/operation by executing one or more instructions constituting the computer program 151. The memory 120 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.

버스(130)는 컴퓨팅 장치(100)의 구성 요소 간 통신 기능을 제공한다. 버스(130)는 주소 버스(address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 130 provides a communication function between components of the computing device 100 . The bus 130 may be implemented in various types of buses such as an address bus, a data bus, and a control bus.

통신 인터페이스(140)는 컴퓨팅 장치(100)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(140)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(140)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 몇몇 실시예에서, 통신 인터페이스(140)는 생략될 수도 있다.The communication interface 140 supports wired and wireless Internet communication of the computing device 100 . Also, the communication interface 140 may support various communication methods other than internet communication. To this end, the communication interface 140 may include a communication module well known in the art. In some embodiments, communication interface 140 may be omitted.

스토리지(150)는 컴퓨터 프로그램(151)을 비 임시적으로 저장할 수 있다. 컴퓨팅 장치(100)를 통해 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행하는 경우, 스토리지(150)는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 제공하기 위하여 필요한 각종 정보를 저장할 수 있다.The storage 150 may non-temporarily store the computer program 151 . When the method for providing a facial mood diagnosis platform using an image is performed through the computing device 100, the storage 150 may store various types of information required to provide a method for providing a facial mood diagnosis platform using an image.

스토리지(150)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 150 may be a non-volatile memory such as read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, or the like, a hard disk, a removable disk, or a device well known in the art. It may be configured to include any known type of computer-readable recording medium.

컴퓨터 프로그램(151)은 메모리(120)에 로드될 때 프로세서(110)로 하여금 본 발명의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(110)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 상기 방법/동작을 수행할 수 있다.Computer program 151 may include one or more instructions that when loaded into memory 120 cause processor 110 to perform methods/operations in accordance with various embodiments of the invention. That is, the processor 110 may perform the method/operation according to various embodiments of the present disclosure by executing the one or more instructions.

일 실시예에서, 컴퓨터 프로그램(151)은 사용자로부터 얼굴을 촬영한 이미지를 획득하는 단계, 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정하는 단계, 설정된 기준점들을 이용하여 얼굴의 특징을 판단하는 단계, 얼굴의 특징을 판단한 결과를 이용하여, 사용자의 얼굴 분위기에 해당하는 형용사를 결정하는 단계를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행하도록 하는 하나 이상의 인스트럭션을 포함할 수 있다.In an embodiment, the computer program 151 may perform the steps of obtaining an image of a face taken from a user, setting reference points defining a face in the obtained image, and determining characteristics of the face using the set reference points. , may include one or more instructions for performing a method for providing a platform for diagnosing a facial mood using an image, including determining an adjective corresponding to a facial mood of a user using a result of determining a facial feature.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 3을 참조하여, 컴퓨팅 장치(100)가 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법에 대해 설명하도록 한다.Components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), can be implemented in a programming or scripting language such as assembler (assembler). Functional aspects may be implemented in an algorithm running on one or more processors. Hereinafter, with reference to FIG. 3 , a method for providing a facial mood diagnosis platform using an image provided by the computing device 100 will be described.

도 3은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 나타내는 도면이다.3 is a diagram illustrating a method for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention.

도 3을 참조하면, 컴퓨팅 장치(100)는 사용자로부터 얼굴을 촬영한 이미지를 획득할 수 있다(S100). 컴퓨팅 장치(100)는 사용자 단말(200)을 통해 이미지를 이용한 얼굴 분위기 진단 시스템을 수행하기 위한 인스트럭션을 제공할 수 있고, 사용자는 사용자 단말(200)을 통해 제공되는 인스트럭션을 따라 얼굴을 촬영한 이미지를 컴퓨팅 장치(100)에 제공할 수 있다.Referring to FIG. 3 , the computing device 100 may acquire an image of a user's face (S100). The computing device 100 may provide instructions for performing a facial mood diagnosis system using images through the user terminal 200, and the user may receive an image of a face captured by following the instructions provided through the user terminal 200. may be provided to the computing device 100.

컴퓨팅 장치(100)는 얼굴 분위기 진단 플랫폼을 통해 사용자가 얼굴을 촬영하도록 인스트럭션을 제공할 수 있고, 사용자는 인스트럭션을 따라 본인의 얼굴을 촬영할 수 있다. 사용자 단말(200)을 통해 촬영된 이미지는 얼굴 분위기 진단 플랫폼을 통해 컴퓨팅 장치(100)로 제공될 수 있다.The computing device 100 may provide an instruction for the user to photograph a face through the facial mood diagnosis platform, and the user may photograph his/her own face according to the instruction. An image captured through the user terminal 200 may be provided to the computing device 100 through a facial mood diagnosis platform.

한편, 컴퓨팅 장치(100)는 촬영된 이미지를 얼굴 분위기 진단 플랫폼에 업로드하도록 인스트럭션을 제공할 수 있고, 사용자는 인스트럭션을 따라 본인의 얼굴이 촬영된 이미지를 업로드할 수 있다. 사용자 단말(200)을 통해 업로드된 이미지는 얼굴 분위기 진단 플랫폼을 통해 컴퓨팅 장치(100)로 제공될 수 있다.Meanwhile, the computing device 100 may provide an instruction to upload the photographed image to the facial mood diagnosis platform, and the user may upload the photographed image of his/her own face according to the instruction. An image uploaded through the user terminal 200 may be provided to the computing device 100 through the facial mood diagnosis platform.

컴퓨팅 장치(100)는 획득된 이미지의 색상 및 구도를 확인하고, 이미지의 재촬영을 요청하거나, 다른 이미지의 업로드를 요청할 수 있다. 예를 들어, 이미지가 너무 밝은 경우 사용자의 얼굴이 제대로 인식이 안될 수 있으므로, 이미지를 재촬영하도록 요청하거나, 다른 이미지를 업로드하도록 요청하여 사용자의 얼굴의 인식이 가능한 이미지를 획득할 수 있다.The computing device 100 may check the color and composition of the acquired image, request recapture of the image, or request upload of another image. For example, if the image is too bright, the user's face may not be properly recognized. Therefore, a recapture of the image may be requested or another image may be uploaded to obtain an image capable of recognizing the user's face.

또한, 사용자의 얼굴이 일부만 촬영되었거나, 정면을 보고 있지 않거나, 얼굴이 너무 멀거나 가까이 촬영된 경우, 컴퓨팅 장치(100)는 이미지를 재촬영하도록 요청하거나, 다른 이미지를 업로드하도록 요청하여 사용자의 얼굴의 인식이 가능한 이미지를 획득할 수 있다.In addition, if only a part of the user's face is captured, the user is not facing the front, or the face is captured too far or too close, the computing device 100 requests the image to be recaptured or another image to be uploaded so that the user's face is captured. A recognizable image of can be obtained.

컴퓨팅 장치(100)는 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정할 수 있다(S200). 얼굴을 정의하는 기준점은 눈꼬리, 눈동자, 코끝, 콧볼, 눈썹머리, 눈썹꼬리, 턱 라인, 이마라인, 입술, 인증, 미간 등 얼굴을 정의할 수 있는 모든 지점을 포함할 수 있다. 컴퓨팅 장치(100)는 기준점을 기초로 얼굴의 이목구비를 구분할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 눈꼬리, 눈동자, 눈두덩이에 설정된 기준점을 기초로 눈의 위치 및 모양을 판단할 수 있고, 이를 통해 이목구비를 구분하는 것이 가능할 수 있다.The computing device 100 may set a reference point for defining a face in the acquired image (S200). Reference points for defining the face may include all points that can define the face, such as the tail of the eyes, the pupil, the tip of the nose, the bridge of the nose, the head of the eyebrow, the tail of the eyebrow, the chin line, the forehead line, the lips, the authentication point, and the middle of the forehead. The computing device 100 may classify facial features based on a reference point. For example, the computing device 100 may determine the position and shape of the eyes based on reference points set at the outer corners of the eyes, pupils, and brows, and through this, it may be possible to distinguish features.

예를 들어, 컴퓨팅 장치(100)는 이미지 내에서 얼굴을 정의하는 기준점을 설정할 수 있다. 얼굴을 정의하는 기준점은 눈꼬리, 눈동자, 코끝, 콧볼, 눈썹머리, 눈썹꼬리, 턱 라인, 이마라인, 입술, 인증, 미간 등을 포함할 수 있다.For example, the computing device 100 may set a reference point for defining a face in an image. Reference points defining the face may include the tail of the eyes, the pupil, the tip of the nose, the nostrils, the head of the eyebrows, the tails of the eyebrows, the chin line, the forehead line, the lips, the authentication point, and the eyebrows.

컴퓨팅 장치(100)는 설정된 기준점들을 이용하여 얼굴의 특징을 판단할 수 있다(S300). 컴퓨팅 장치(100)는 얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 눈을 정의하고 있는 기준점들을 추출하여 하나의 기준점 그룹을 생성할 수 있다. 즉, 컴퓨팅 장치(100)는 눈꼬리, 눈동자, 눈두덩이, 눈앞머리 등 눈을 지정하고 있는 기준점들을 포함하는 하나의 그룹을 생성할 수 있다. 컴퓨팅 장치(100)는 얼굴, 눈, 코, 입 위치에 해당하는 기준점들을 포함하는 각각의 기준점 그룹을 생성할 수 있다. The computing device 100 may determine facial features using set reference points (S300). The computing device 100 may obtain a reference point group designating each facial feature. For example, the computing device 100 may create one reference point group by extracting reference points defining the eyes. That is, the computing device 100 may create one group including reference points designating the eyes, such as the tail of the eyes, the pupils, the lids, and the forehead. The computing device 100 may create each reference point group including reference points corresponding to positions of the face, eyes, nose, and mouth.

예를 들어, 컴퓨팅 장치(100)는 얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 눈꼬리, 눈동자, 눈두덩이, 눈앞머리에 설정된 기준점들을 눈을 정의하는 하나의 기준점 그룹(예: G1)으로 생성할 수 있다. 또한, 컴퓨팅 장치(100)는 눈썹머리, 눈썹꼬리, 눈썹 중앙에 설정된 기준점들을 눈썹을 정의하는 하나의 기준점 그룹(예: G2)으로 생성할 수 있다. 또한, 컴퓨팅 장치(100)는 입술 양끝, 입술 동산, 입술 중앙에 설정된 기준점들을 입을 정의하는 하나의 기준점 그룹(예: G3)으로 생성할 수 있다. 상술한 실시 예에서는 눈, 눈썹, 입에 대한 기준점 그룹을 생성하는 것만이 개시되어 있으나, 이에 한정되지 않고, 이마, 얼굴형, 코 등 얼굴의 특징이 되는 모든 구성에 대해 기준점 그룹을 생성할 수 있다.For example, the computing device 100 may obtain a reference point group designating each facial feature. For example, the computing device 100 may create one reference point group (eg, G1) defining the eyes from the reference points set at the corner of the eyes, the pupil, the lids, and the crown of the eyes. In addition, the computing device 100 may generate one reference point group (eg, G2) defining the eyebrows by reference points set at the eyebrow head, the eyebrow tail, and the center of the eyebrow. In addition, the computing device 100 may create one reference point group (eg, G3) defining the mouth with reference points set at both ends of the lips, the corners of the lips, and the center of the lips. In the above-described embodiment, only the creation of reference point groups for the eyes, eyebrows, and mouth is disclosed, but is not limited thereto, and reference point groups can be created for all features of the face, such as the forehead, face shape, and nose. have.

다시 도 3을 참조하면, 컴퓨팅 장치(100)는 기준점 그룹에 해당하는 기준점들간의 거리, 기준점들의 위치를 판단할 수 있다. 예를 들어, 눈을 정의하는 기준점 그룹에 포함되는 기준점 중 눈꼬리에 설정된 기준점과, 눈앞머리에 설정된 기준점까지의 거리, 눈동자를 기준으로 눈의 위, 아래에 설정된 기준점들간의 거리 등을 판단하여 눈의 모양을 판단할 수 있고, 눈을 정의하는 기준점 그룹이 얼굴의 어느 위치에 배치되어 있는지 판단하여 눈의 위치를 판단할 수 있다. 컴퓨팅 장치(100)는 판단된 결과를 기초로 이목구비의 모양을 정의할 수 있으며, 눈, 코, 얼굴형, 이마라인 등 얼굴의 특징이 되는 모든 구성에 대해 모양 및 위치를 정의하는 것이 가능할 수 있다.Referring back to FIG. 3 , the computing device 100 may determine distances between reference points corresponding to a reference point group and locations of the reference points. For example, the distance between the reference point set at the outer corner of the eye and the reference point set at the front of the eye among the reference points included in the group of reference points defining the eyes, the distance between the reference points set above and below the eye based on the pupil, etc. The shape of the eye can be determined, and the position of the eye can be determined by determining at which position on the face the reference point group defining the eye is placed. The computing device 100 may define the shape of the features based on the determined result, and may be able to define the shape and position of all components that are characteristics of the face, such as the eyes, nose, face shape, and forehead line. .

컴퓨팅 장치(100)는 얼굴의 특징을 판단한 결과를 이용하여, 사용자의 얼굴 분위기에 해당하는 형용사를 결정할 수 있다(S400). 구체적으로, 컴퓨팅 장치(100)는 얼굴의 분위기에 따라 구분될 수 있는 이미지에 따라 복수의 카테고리를 설정할 수 있고, 복수의 카테고리는 동안 이미지, 세련 이미지, 친근 이미지 및 활동 이미지를 포함할 수 있으나, 이에 한정되는 것은 아니다.The computing device 100 may determine an adjective corresponding to the facial mood of the user by using the result of determining the facial characteristics (S400). Specifically, the computing device 100 may set a plurality of categories according to images that can be distinguished according to facial moods, and the plurality of categories may include a baby face image, a sophisticated image, a friendly image, and an activity image. It is not limited to this.

컴퓨팅 장치(100)는 복수의 카테고리 각각에 해당하는 형용사를 매칭하여 저장할 수 있다. 즉, 컴퓨팅 장치(100)는 세련 이미지와 관련된 형용사로써, '우아한', '고상한', '도시적인'을 매칭하여 저장할 수 있고, 동안 이미지와 관련된 형용사로써, '귀여운', '소녀같은'을 매칭하여 저장할 수 있다. 각각에 카테고리에 해당하는 형용사는 카테고리마다 각각 다르게 설정될 수 있으며, 상기 기재한 바와 같이 중복되어 설정되는 것도 가능할 수 있다.The computing device 100 may match and store adjectives corresponding to each of a plurality of categories. That is, the computing device 100 may match and store 'elegant', 'classy', and 'urban' as adjectives related to the sophisticated image, and 'cute' and 'girlish' as adjectives related to the childish image. Matching can be saved. Adjectives corresponding to each category may be set differently for each category, and as described above, it may be possible to set them overlappingly.

컴퓨팅 장치(100)는 카테고리와, 카테고리별 형용사를 저장하고 있으며, 이미지를 통해 판단된 얼굴의 특징에 따라 대응되는 카테고리를 판단하고, 카테고리별 형용사를 통해 사용자의 얼굴 분위기를 진단할 수 있다.The computing device 100 stores categories and adjectives for each category, determines a corresponding category according to facial features determined through images, and diagnoses the user's facial mood through the adjectives for each category.

즉, 컴퓨팅 장치(100)는 복수의 카테고리 중 얼굴의 특징에 해당하는 카테고리를 선정할 수 있다. 예를 들어, 얼굴의 특징을 분석한 결과, 얼굴형이 동그란 경우, 동안 이미지에 대한 카테고리를 선정할 수 있다. 한편, 얼굴의 특징을 분석한 결과, 눈꼬리가 쳐진 경우, 친근 이미지에 대한 카테고리를 선정할 수 있다. 컴퓨팅 장치(100)는 얼굴의 특징 각각에 대해 카테고리를 저장하고 있을 수 있고, 특징에 해당하는 카테고리를 추출하여 선정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 친근 이미지에 대한 카테고리에 해당하는 얼굴의 특징으로 눈꼬리가 처진 눈을 저장하고 있을 수 있고, 이미지를 통해 얼굴의 특징이 눈꼬리가 처진 눈으로 판단된 경우 카테고리를 친근 이미지로 선정할 수 있다.That is, the computing device 100 may select a category corresponding to facial features from among a plurality of categories. For example, as a result of analyzing the characteristics of the face, when the face shape is round, a category for a baby face image may be selected. On the other hand, as a result of analyzing the facial features, if the eyebrows are drooping, a category for the friendly image may be selected. The computing device 100 may store categories for each facial feature, and extract and select a category corresponding to the feature. For example, the computing device 100 may store drooping eyes as a facial feature corresponding to a category for a friendly image, and when the facial feature is determined to be eyes with drooping eyelids through an image, the computing device 100 selects a category. You can select a friendly image.

컴퓨팅 장치(100)는 선정된 카테고리에 포함된 형용사를 기초로, 사용자의 얼굴 분위기에 가장 매칭되는 대표 형용사, 사용자의 얼굴 분위기를 강화하는 강화 형용사, 사용자의 얼굴 분위기를 보완하는 보완 형용사 중 적어도 하나의 형용사를 결정할 수 있다. 컴퓨팅 장치(100)는 결정된 형용사를 사용자에게 제공할 수 있다.Based on the adjectives included in the selected category, the computing device 100 selects at least one of a representative adjective that best matches the user's facial mood, a reinforcing adjective that enhances the user's facial mood, and a supplementary adjective that complements the user's facial mood. adjectives can be determined. The computing device 100 may provide the determined adjective to the user.

구체적으로, 컴퓨팅 장치(100)는 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면을 설정할 수 있다. 여기서, 좌표평면은 y값이 큰 제1영역에 제1카테고리를 설정하고, x값 및 y값이 작은 제2영역에 제2카테고리를 설정하고, x값이 큰 제3영역에 제3카테고리를 설정하고, x값이 크고, y값이 작은 제4영역에 제4카테고리를 설정할 수 있다. Specifically, the computing device 100 may set a coordinate plane in which an area is set according to characteristics of a plurality of categories. Here, in the coordinate plane, the first category is set in a first region with a large y value, the second category is set in a second region with small x and y values, and the third category is set in a third region with a large x value. and a fourth category may be set in a fourth region having a large x value and a small y value.

그러나, 카테고리 별 좌표평면에 설정되는 영역은 이에 한정되지 않을 수 있으며, 본 발명의 실시 예에 따르면, 복수의 카테고리의 특성에 따른 영역은 제1사분면에 설정될 수 있으나, 이에 한정되지 않는다. 즉, 복수의 카테고리의 특성에 따른 영역은 제2사분면, 제3사분면 및 제4사분면 각각에 설정될 수 있으며, 각각의 사분면에 설정되는 복수의 카테고리에 따른 영역의 크기 및 위치는 모두 상이할 수 있다.However, the area set on the coordinate plane for each category may not be limited to this, and according to an embodiment of the present invention, the area according to the characteristics of a plurality of categories may be set in the first quadrant, but is not limited thereto. That is, the regions according to the characteristics of the plurality of categories may be set in the second quadrant, the third quadrant, and the fourth quadrant, respectively, and the sizes and positions of the regions according to the plurality of categories set in each quadrant may be different. have.

도 4는 본 발명의 실시 예에 따른 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면의 예시를 나타내는 도면이다.4 is a diagram illustrating an example of a coordinate plane in which areas are set according to characteristics of a plurality of categories according to an embodiment of the present invention.

도 4를 참조하면, 컴퓨팅 장치(100)는 y값이 큰 제1영역에 제1카테고리를 설정하고, x값 및 y값이 작은 제2영역에 제2카테고리를 설정하고, x값이 큰 제3영역에 제3카테고리를 설정하고, x값이 크고, y값이 작은 제4영역에 제4카테고리를 설정할 수 있다. 그러나, 각 카테고리에 따라 지정되는 영역은 이에 한정되지 않으며, 각 영역의 크기 및 위치도 이에 한정되지 않을 수 있다.Referring to FIG. 4 , the computing device 100 sets a first category in a first region having a large y value, sets a second category in a second region having a small x value and a small y value, and sets a second category having a large x value. A third category may be set in region 3, and a fourth category may be set in a fourth region having a large x value and a small y value. However, the area designated according to each category is not limited thereto, and the size and location of each area may not be limited thereto.

또한, 제1영역, 제2영역, 제3영역, 제4영역의 각각의 범위는 지정되어 설정될 수 있으며, 이때, 지정되는 값은 기 설정되지 않을 수 있다. 예를 들어, 제1영역은 y값이 8 이상인 영역으로 지정되고, 제2영역은 x값이 5 미만이고, y값이 5 미만인 영역으로 지정되고, 제3영역은 x값이 10 이상인 영역으로 지정되고, 제4영역은 x값이 7 이상, y값이 3 미만인 영역으로 지정될 수 있다. 그러나, 각 영역에 지정되는 범위는 이에 한정되지 않는다.In addition, each range of the first area, the second area, the third area, and the fourth area may be designated and set. In this case, the designated value may not be preset. For example, the first area is designated as an area where the y value is 8 or more, the second area is designated as an area where the x value is less than 5 and the y value is less than 5, and the third area is designated as an area where the x value is 10 or more. designated, and the fourth region may be designated as a region in which an x value is 7 or more and a y value is less than 3. However, the range designated for each area is not limited thereto.

다시 도 3을 참조하면, 컴퓨팅 장치(100)는 형용사 각각의 좌표값을 지정할 수 있다. 형용사 각각의 좌표값은 상기 복수의 카테고리의 특성별 영역을 기초로 지정될 수 있다. 예를 들어, 형용사 '귀여운'의 경우 동안 이미지 및 친근 이미지에 모두 포함되는 형용사일 수 있다. 한편, 동안 이미지에 대한 카테고리가 제4영역에 설정되고, 친근 이미지에 대한 카테고리가 제3영역에 설정될 경우 형용사 '귀여운'은 x값이 크고, y값이 작은 좌표값이 지정될 수 있다.Referring back to FIG. 3 , the computing device 100 may designate coordinate values of each adjective. Coordinate values of each adjective may be designated based on a region for each characteristic of the plurality of categories. For example, in the case of the adjective 'cute', it may be an adjective included in both a baby image and a friendly image. On the other hand, if the category for baby-faced images is set in the fourth area and the category for friendly images is set in the third area, coordinate values with a large x value and a small y value may be designated for the adjective 'cute'.

컴퓨팅 장치(100)는 정의된 이목구비 모양 각각에 대해 x값 및 y값을 산출할 수 있다. 컴퓨팅 장치(100)는 기준점을 이용하여 얼굴을 구성하는 이목구비 각각의 모양과 위치관계를 나타내는 다양한 지수를 산출하고, 이에 대한 x값 및 y값을 획득할 수 있다. 컴퓨팅 장치(100)는 각각의 기준점 그룹에 포함된 기준점 중 기 설정된 기준점을 통해 각각의 이목구비 모양에 대한 x값 및 y값을 산출할 수 있다. 예를 들어, 눈처짐지수의 경우, 눈두덩이에 설정된 기준점과 눈꼬리에 설정된 기준점을 이용하여 눈처짐지수에 대한 x값 및 y값을 산출할 수 있다.The computing device 100 may calculate an x value and a y value for each of the defined features. The computing device 100 may calculate various indices representing the shape and positional relationship of each of the features constituting the face using the reference point, and may obtain an x value and a y value for the index. The computing device 100 may calculate an x value and a y value for each feature through a preset reference point among reference points included in each reference point group. For example, in the case of the eyelid drooping index, x values and y values for the drooping eyes index may be calculated using a reference point set at the eyelid and a reference point set at the outer corner of the eye.

컴퓨팅 장치(100)는 산출된 x값 및 y값에 해당하는 좌표값을 좌표평면에 특정할 수 있다. 즉, 컴퓨팅 장치(100)는 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면에 각각의 이목구비 모양에 대한 좌표값을 특정할 수 있다. 컴퓨팅 장치(100)는 특정된 좌표값과 가장 가까운 위치에 위치한 카테고리를 선정할 수 있다. 컴퓨팅 장치(100)는 선정된 카테고리를 사용자의 얼굴 분위기에 해당하는 카테고리로써 제공할 수 있다. 여기서, 이목구비 모양 각각에 대해 카테고리를 선정함에 따라 복수의 카테고리가 선정될 수 있는데, 이때 컴퓨팅 장치(100)는 가장 많은 수로 선정된 카테고리를 대표 카테고리로 선정할 수 있다. 또한, 컴퓨팅 장치(100)는 이목구비 모양에 따라 가중치를 설정하여, 가중치에 따라 가장 큰 값을 가지는 카테고리를 대표 카테고리로 선정할 수 있다.The computing device 100 may specify coordinate values corresponding to the calculated x and y values to the coordinate plane. That is, the computing device 100 may specify coordinate values for each feature on a coordinate plane in which areas are set according to characteristics of a plurality of categories. The computing device 100 may select a category located closest to the specified coordinate value. The computing device 100 may provide the selected category as a category corresponding to the facial mood of the user. Here, a plurality of categories may be selected as categories are selected for each feature shape, and at this time, the computing device 100 may select the category selected in the largest number as the representative category. Also, the computing device 100 may set a weight according to the shape of the features, and select a category having the largest value according to the weight as the representative category.

도 5는 본 발명의 실시 예에 따른 이목구비 모양에 대한 좌표값을 특정한 예시를 나타낸 도면이다.5 is a diagram showing an example of specifying coordinate values for features according to an embodiment of the present invention.

도 5를 참조하면, 컴퓨팅 장치(100)는 기준점을 이용하여 얼굴을 구성하는 이목구비 각각의 모양과 위치관계를 나타내는 다양한 지수를 산출하고, 이에 대한 x값 및 y값을 획득할 수 있다. 컴퓨팅 장치(100)는 산출된 x값 및 y값에 해당하는 좌표값(v) 좌표평면에 특정할 수 있다. 즉, 컴퓨팅 장치(100)는 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면에 각각의 이목구비 모양에 대한 좌표값(v)을 특정할 수 있다. 컴퓨팅 장치(100)는 특정된 좌표값(v)과 가장 가까운 위치에 위치한 카테고리를 선정할 수 있다. 즉, 컴퓨팅 장치(100)는 좌표값(v1, v2, v3, v4)과 가장 가까운 제1영역에 지정된 제1카테고리를 선정할 수 있고, 좌표값(v5)과 가장 가까운 제2영역에 지정된 제2카테고리를 선정하고, 좌표값(v6)과 가장 가까운 제3영역에 지정된 제3카테고리를 선정할 수 있다.Referring to FIG. 5 , the computing device 100 may calculate various indices representing the shape and positional relationship of each feature constituting the face using a reference point, and obtain an x value and a y value for the index. The computing device 100 may specify coordinate values (v) corresponding to the calculated x and y values to the coordinate plane. That is, the computing device 100 may specify a coordinate value v for each feature on a coordinate plane in which regions are set according to characteristics of a plurality of categories. The computing device 100 may select a category located closest to the specified coordinate value (v). That is, the computing device 100 may select the first category assigned to the first area closest to the coordinate values v1, v2, v3, and v4, and select the first category assigned to the second area closest to the coordinate value v5. The second category may be selected, and the third category assigned to the third area closest to the coordinate value v6 may be selected.

컴퓨팅 장치(100)는 가장 많은 수로 선정된 제1카테고리를 대표 카테고리로 선정할 수 있다. 또한, 컴퓨팅 장치(100)는 이목구비 모양에 따라 가중치를 설정하여, 가중치에 따라 가장 큰 값을 가지는 카테고리를 대표 카테고리로 선정할 수도 있다.The computing device 100 may select the first category selected as the largest number as the representative category. Also, the computing device 100 may set a weight according to the shape of the features, and select a category having the largest value according to the weight as the representative category.

다시 도 3을 참조하면, 컴퓨팅 장치(100)는 선정된 카테고리에 해당하는 형용사들을 추출할 수 있다. 컴퓨팅 장치(100)는 추출된 형용사들 중 카테고리의 특성에 따라 x값 또는 y값이 특정 기준을 만족하는 형용사를 추출할 수 있다.Referring back to FIG. 3 , the computing device 100 may extract adjectives corresponding to the selected category. The computing device 100 may extract adjectives whose x-values or y-values satisfy a specific criterion according to the characteristics of the category from among the extracted adjectives.

예를 들어, 선정된 카테고리가 제1카테고리인 경우 컴퓨팅 장치(100)는 제1카테고리에 포함된 형용사들 중 특정된 좌표값보다 y값이 큰 형용사들을 추출할 수 있다. 또한, 선정된 카테고리가 제2카테고리인 경우 컴퓨팅 장치(100)는 제2카테고리에 포함된 형용사들 중 특정된 좌표값보다 y값이 작은 형용사들을 추출할 수 있다. 또한, 선정된 카테고리가 제3카테고리인 경우 컴퓨팅 장치(100)는 제3카테고리에 포함된 형용사들 중 특정된 좌표값보다 x값이 큰 형용사들을 추출할 수 있다. 또한, 선정된 카테고리가 제4카테고리인 경우 컴퓨팅 장치(100)는 제4카테고리에 포함된 형용사들 중 특정된 좌표값보다 x값이 작은 형용사들을 추출할 수 있다. For example, when the selected category is the first category, the computing device 100 may extract adjectives having a y-value greater than a specified coordinate value from among adjectives included in the first category. Also, when the selected category is the second category, the computing device 100 may extract adjectives having a y-value smaller than the specified coordinate value from among adjectives included in the second category. Also, when the selected category is the third category, the computing device 100 may extract adjectives having an x-value greater than the specified coordinate value from among adjectives included in the third category. Also, when the selected category is the fourth category, the computing device 100 may extract adjectives having an x-value smaller than the specified coordinate value from among adjectives included in the fourth category.

컴퓨팅 장치(100)는 추출된 형용사를 사용자의 얼굴 분위기에 해당하는 형용사로 제공할 수 있다.The computing device 100 may provide the extracted adjective as an adjective corresponding to the user's face mood.

또한, 컴퓨팅 장치(100)는 정의된 이목구비 모양 각각에 대해 추출되는 복수의 형용사 중 특정된 좌표값과 가장 가까운 위치의 좌표값을 가지는 순서로 추출된 형용사의 순서를 매길 수 있다. 여기서, 특정된 좌표값과 가장 가까운 위치의 좌표값은 좌표간의 거리를 구하는 수식을 통해 계산될 수 있으며, 계산된 결과값이 가장 작은 좌표값을 가지는 형용사의 순서로 추출된 형용사의 순서를 매길 수 있다.Also, the computing device 100 may rank the extracted adjectives in the order of having the coordinate value of the position closest to the specified coordinate value among the plurality of adjectives extracted for each defined feature shape. Here, the coordinate value of the position closest to the specified coordinate value can be calculated through a formula for obtaining the distance between coordinates, and the extracted adjectives can be ranked in the order of the adjective having the smallest coordinate value as a result of the calculation. have.

컴퓨팅 장치(100)는 얼굴의 특징에 따라 선정된 카테고리별 형용사들의 순서를 매길 수 있고, 카테고리별 특정 순서까지의 형용사들을 사용자에게 제공할 수 있다. 예를 들어, 얼굴의 특징에 따라 선정된 카테고리는 동안 이미지 및 활동 이미지인 경우, 컴퓨팅 장치(100)는 동안 이미지에 포함된 형용사들의 순서를 매기고, 활동 이미지에 포함된 형용사들의 순서를 매길 수 있다. 이후 컴퓨팅 장치(100)는 동안 이미지에 포함된 형용사들 중 3위까지에 해당하는 형용사를 사용자에게 제공하고, 활동 이미지에 포함된 형용사들 중 3위까지에 해당하는 형용사를 사용자에게 제공할 수 있다.The computing device 100 may rank the adjectives for each category selected according to facial features, and provide the adjectives up to a specific order for each category to the user. For example, if the category selected according to facial characteristics is a baby face image and an activity image, the computing device 100 may rank the order of adjectives included in the baby face image and the order of the adjectives included in the activity image. . Thereafter, the computing device 100 may provide the user with adjectives corresponding to the third rank among the adjectives included in the baby boy image, and provide the adjectives corresponding to the third rank among the adjectives included in the activity image to the user. .

또한, 컴퓨팅 장치(100)는 각 카테고리에서의 형용사의 순서를 기초로 대표 형용사를 선정할 수 있다. 대표 형용사는 각 카테고리에서의 가장 높은 순위의 형용사를 기준으로 선정될 수 있으며, 대표 카테고리에서의 형용사 또는 가중치에 따라 가장 높은 값을 가지는 카테고리에서의 형용사를 대표 형용사로 선정할 수 있다.Also, the computing device 100 may select representative adjectives based on the order of adjectives in each category. The representative adjective may be selected based on the highest ranked adjective in each category, and the adjective in the representative category or the adjective in the category having the highest value according to weight may be selected as the representative adjective.

또한, 컴퓨팅 장치(100)는 사용자의 얼굴 분위기에 해당하는 형용사의 x값 및 y값을 기초로, x축, y축 및 원점을 기준으로 대칭되는 x값 및 y값을 산출할 수 있다. 컴퓨팅 장치(100)는 산출된 x값 및 y값에 해당하는 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정할 수 있고, 선정된 카테고리 또는 선정된 카테고리에 해당하는 형용사를 사용자의 얼굴 분위기를 보완하는 보완 형용사로 사용자에게 제공할 수 있다. In addition, the computing device 100 may calculate x-values and y-values that are symmetrical about the x-axis, the y-axis, and the origin, based on the x-value and y-value of the adjective corresponding to the facial mood of the user. The computing device 100 may select a category located closest to the coordinate values corresponding to the calculated x and y values, and use the selected category or an adjective corresponding to the selected category to complement the user's facial atmosphere. It can be provided to the user as a complementary adjective.

도 6은 본 발명의 실시 예에 따른 보완 형용사를 선정하는 예시를 나타내는 도면이다.6 is a diagram illustrating an example of selecting a complementary adjective according to an embodiment of the present invention.

도 6을 참조하면, 컴퓨팅 장치(100)는 사용자의 얼굴 이목구비 모양 각각에 대해 x값 및 y값을 산출하고, 산출된 x값 및 y값에 해당하는 좌표를 좌표평면에 특정할 수 있다. 컴퓨팅 장치(100)는 좌표평면에 특정된 좌표값(v1)과 가장 가까운 거리에 위치한 영역에 설정된 카테고리를 대표 카테고리로 선정하고, 대표 카테고리에 포함되는 형용사를 얼굴 분위기에 해당하는 형용사인 것으로 결정할 수 있다.Referring to FIG. 6 , the computing device 100 may calculate x values and y values for each facial feature of the user, and specify coordinates corresponding to the calculated x and y values on the coordinate plane. The computing device 100 may select a category set in an area located closest to the coordinate value v1 specified on the coordinate plane as a representative category, and determine adjectives included in the representative category as adjectives corresponding to facial moods. have.

컴퓨팅 장치(100)는 특정된 좌표값(v1)과 대칭되는 좌표값(v2)을 산출할 수 있다. 컴퓨팅 장치(100)는 x축, y축, 원점을 기준으로 대칭되는 좌표값(v2)을 산출할 수 있다. 예를 들어, 특정된 좌표값(v1)의 x값이 10이고, y값이 12인 경우, x축을 기준으로 대칭하여 x값이 10이고, y값이 -12인 좌표값(v2)을 산출할 수 있다. 또한, 특정된 좌표값(v1)의 x값이 10이고, y값이 12인 경우, y축을 기준으로 대칭하여 x값이 -10이고, y값이 12인 좌표값(v2)을 산출할 수 있고, 원점을 기준으로 대칭하여 x값이 -10이고, y값이 -12인 좌표값(v2)을 산출할 수 있다.The computing device 100 may calculate a coordinate value v2 that is symmetrical to the specified coordinate value v1. The computing device 100 may calculate a coordinate value v2 that is symmetrical with respect to the x-axis, the y-axis, and the origin. For example, if the x value of the specified coordinate value (v1) is 10 and the y value is 12, the coordinate value (v2) with the x value 10 and the y value -12 is calculated symmetrically about the x axis can do. In addition, when the x value of the specified coordinate value v1 is 10 and the y value is 12, the coordinate value v2 having an x value of -10 and a y value of 12 can be calculated symmetrically about the y axis , and a coordinate value (v2) having an x value of -10 and a y value of -12 can be calculated symmetrically about the origin.

xy평면에서의 각 사분면에 설정된 복수의 카테고리에 대한 영역의 크기 및 위치는 모두 상이할 수 있고, 대칭된 좌표값(v2)과 가장 가까운 위치의 카테고리 또한 모두 상이할 수 있다. 즉, 제1사분면에 특정된 좌표값(v1)을 x축을 기준으로 대칭하였을 때 대칭되는 좌표값(v2)은 제4사분면에 특정되고, 제1사분면에 특정된 좌표값(v1)을 y축을 기준으로 대칭하였을 때 대칭되는 좌표값(v2)은 제2사분면에 특정되고, 제1사분면에 특정된 좌표값(v1)을 원점을 기준으로 대칭하였을 때 대칭되는 좌표값(v2)은 제3사분면에 특정될 수 있다. 이때, 제1사분면, 제2사분면, 제3사분면, 제4사분면 각각에 특정된 좌표값에서 가장 가까운 카테고리는 모두 상이할 수 있다. 한편, 모두 동일한 카테고리가 선정되는 것도 가능하며, 일부는 동일하고, 일부는 상이한 카테고리가 선정되는 것도 가능할 수 있다.Sizes and locations of regions for a plurality of categories set in each quadrant on the xy plane may all be different, and categories at locations closest to the symmetrical coordinate values v2 may also all be different. That is, when the coordinate value v1 specified in the first quadrant is symmetrical about the x-axis, the symmetrical coordinate value v2 is specified in the fourth quadrant, and the coordinate value v1 specified in the first quadrant is symmetrical about the y-axis. The coordinate value (v2) that is symmetrical when symmetrical about the reference is specified in the second quadrant, and the coordinate value (v2) that is symmetrical when the coordinate value (v1) specified in the first quadrant is symmetrical about the origin is the symmetrical coordinate value (v2) in the third quadrant can be specified in In this case, the categories closest to the coordinate values specified in the first quadrant, the second quadrant, the third quadrant, and the fourth quadrant may all be different. Meanwhile, it is possible that all the same categories are selected, and some of the same categories and some of the different categories may be selected.

컴퓨팅 장치(100)는 대칭된 좌표값으로부터 선정된 카테고리를 보완 카테고리로 선정하고, 보완 카테고리에 해당하는 형용사를 얼굴 분위기를 보완할 수 있는 보완 형용사로 결정하여 사용자에게 제공할 수 있다.The computing device 100 may select a category selected from the symmetrical coordinate values as a supplementary category, determine an adjective corresponding to the supplementary category as a supplemental adjective capable of complementing a facial atmosphere, and provide the selected adjective to the user.

본 발명의 실시 예에 따르면, 컴퓨팅 장치(100)는 쇼핑몰로부터 의류 정보를 획득할 수 있다. 의류 정보는 의류의 모양, 색, 사이즈, 판매처, 종류, 원단 등 의류와 관련된 모든 정보를 획득할 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the computing device 100 may obtain clothing information from a shopping mall. Clothing information may acquire all information related to clothing, such as the shape, color, size, vendor, type, and fabric of clothing, but is not limited thereto.

컴퓨팅 장치(100)는 획득된 의류 정보를 기초로, 의류의 대표적인 분위기 정보를 결정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 해당 의류의 스타일, 유형, 색상 등 다양한 속성 정보에 기반하여 의류의 분위기를 결정할 수 있다.The computing device 100 may determine representative mood information of clothing based on the acquired clothing information. For example, the computing device 100 may determine the atmosphere of the clothing based on various attribute information such as the style, type, and color of the corresponding clothing.

컴퓨팅 장치(100)는 결정된 의류의 분위기와, 사용자의 분위기가 일치하는 정보에 따라 사용자에게 의류 정보를 제공할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 사용자의 분위기와 의류의 분위기 사이의 3차원 거리 정보를 가공하여 사용자에게 어울리는 순서대로 의류 정보를 제공할 수 있다.The computing device 100 may provide clothing information to the user according to information matching the determined atmosphere of the clothing and the user's atmosphere. For example, the computing device 100 may process 3D distance information between the user's mood and the clothes' mood and provide clothing information in an order suitable to the user.

혹은, 컴퓨팅 장치(100)는 사용자의 분위기를 보완할 수 있는 다른 분위기를 가진 의류를 추천할 수도 있다. 예를 들어, 사용자의 분위기와 어울리는 의류를 추천하여 사용자의 분위기를 강화할 수도 있으나, 사용자의 분위기와 상이한 다른 분위기의 의류를 추천하여 사용자의 분위기를 색다르게 바꾸도록 할 수도 있다.Alternatively, the computing device 100 may recommend clothing having a different mood that can complement the user's mood. For example, the user's mood may be strengthened by recommending clothes that match the user's mood, but the user's mood may be changed differently by recommending clothes with a different atmosphere from the user's mood.

전술한 바와 같이 본 발명의 실시 예에 따르면, 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램을 실현할 수 있다.As described above, according to an embodiment of the present invention, facial features are analyzed using a photographed image of the user's face, adjectives corresponding to the user's facial mood are diagnosed, and facial mood diagnosis using the provided image is provided to the user. A platform providing method, device, and program can be realized.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100: 컴퓨팅 장치
200: 사용자 단말
300: 외부 서버
100: computing device
200: user terminal
300: external server

Claims (11)

컴퓨팅 장치에 의해 수행되는 방법에 있어서,
사용자로부터 얼굴을 촬영한 이미지를 획득하는 단계;
획득된 이미지 내에서 얼굴을 정의하는 복수의 기준점을 설정하는 단계;
설정된 상기 복수의 기준점들의 위치관계를 이용하여 얼굴의 서로 다른 특징을 나타내는 복수의 지수를 산출하고, 상기 복수의 지수 각각에 대응하는 좌표 값을 획득하는 단계;
복수의 카테고리 정보 및 상기 복수의 카테고리에 속하는 복수의 형용사 정보를 포함하는 좌표평면을 설정하는 단계;
상기 복수의 지수 중 제1 지수의 좌표 값을 이용하여, 상기 좌표평면 상에서의 상기 제1 지수의 위치를 특정하는 단계;
상기 제1 지수의 위치에 기초하여, 상기 제1 지수에 대응하는 카테고리를 선정하는 단계;
상기 제1 지수의 좌표 값에 기초하여, 상기 선정된 카테고리에 속하는 형용사 중 하나 이상의 형용사를 선정하는 단계; 및
상기 복수의 지수 각각에 대하여 선정된 형용사를, 상기 사용자의 얼굴 분위기에 해당하는 형용사로 결정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
In a method performed by a computing device,
Obtaining a photographed image of a face from a user;
setting a plurality of reference points defining a face in the obtained image;
calculating a plurality of indices representing different facial features by using the positional relationship of the plurality of set reference points, and obtaining coordinate values corresponding to each of the plurality of indices;
setting a coordinate plane including a plurality of category information and a plurality of adjective information belonging to the plurality of categories;
specifying a position of the first index on the coordinate plane by using a coordinate value of the first index among the plurality of indexes;
selecting a category corresponding to the first index based on the location of the first index;
selecting one or more adjectives from among adjectives belonging to the selected category based on the coordinate value of the first index; and
and determining an adjective selected for each of the plurality of indices as an adjective corresponding to the facial mood of the user.
제1항에 있어서,
상기 얼굴의 특징을 판단하는 단계는,
얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득하는 단계;
기준점 그룹에 해당하는 기준점들간의 위치관계를 판단하는 단계; 및
판단된 결과를 기초로 이목구비 형태를 정의하는 단계;를 포함하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
The step of determining the features of the face,
obtaining a reference point group designating each facial feature;
determining a positional relationship between reference points corresponding to a reference point group; and
A method for providing a platform for diagnosing facial mood using an image, comprising: defining a feature shape based on the determined result.
제1항에 있어서,
상기 하나 이상의 형용사를 선정하는 단계는,
상기 선정된 카테고리에 포함된 형용사를 기초로, 상기 사용자의 얼굴 분위기에 가장 매칭되는 대표 형용사, 상기 사용자의 얼굴 분위기를 강화하는 강화 형용사 및 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사 중 적어도 하나의 형용사를 결정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
The step of selecting one or more adjectives,
Based on the adjectives included in the selected category, at least one adjective among a representative adjective that best matches the facial mood of the user, a reinforcing adjective that enhances the facial mood of the user, and a supplementary adjective that complements the facial mood of the user A method for providing a platform for diagnosing a facial mood using an image, comprising: determining a.
삭제delete 제1항에 있어서,
상기 제1 지수의 위치와 가장 가까운 거리에 위치한 카테고리를 선정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
A method for providing a platform for diagnosing facial mood using images, including selecting a category located closest to the location of the first index.
제5항에 있어서,
상기 하나 이상의 형용사를 선정하는 단계는,
상기 선정된 카테고리에 해당하는 형용사들을 추출하는 단계; 및
추출된 형용사들 중 상기 선정된 카테고리의 특성에 따라 x값 또는 y값이 특정 기준을 만족하는 형용사를 선정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 5,
The step of selecting one or more adjectives,
extracting adjectives corresponding to the selected category; and
A method for providing a platform for diagnosing facial mood using images, comprising: selecting an adjective whose x value or y value satisfies a specific criterion according to the characteristics of the selected category from among the extracted adjectives.
제6항에 있어서,
상기 하나 이상의 형용사를 선정하는 단계는,
상기 추출된 형용사들 중 상기 제1 지수의 좌표값과 가까운 위치의 좌표값을 가지는 순서로 상기 추출된 형용사의 순서를 매기는 단계;
상기 형용사의 순서를 기초로 대표 형용사를 선정하는 단계; 및
순서가 매겨진 형용사 중 특정 순위까지의 형용사 및 대표 형용사 중 적어도 하나를 선정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 6,
The step of selecting one or more adjectives,
arranging the order of the extracted adjectives in the order of having coordinate values of positions close to the coordinate values of the first exponent among the extracted adjectives;
selecting representative adjectives based on the order of the adjectives; and
A method of providing a platform for diagnosing facial mood using images, comprising: selecting at least one of adjectives up to a specific rank and representative adjectives among the adjectives in the order.
제6항에 있어서,
상기 선정된 형용사의 x값 및 y값을 기초로, x축, y축 및 원점을 기준으로 대칭되는 x값 및 y값을 산출하는 단계;
산출된 x값 및 y값에 해당하는 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정하는 단계; 및
상기 선정된 카테고리에 해당하는 형용사를 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사로 제공하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 6,
Calculating x-values and y-values that are symmetrical about the x-axis, the y-axis, and the origin based on the x- and y-values of the selected adjective;
selecting a category located closest to coordinate values corresponding to the calculated x and y values; and
Providing an adjective corresponding to the selected category as a supplementary adjective that complements the user's facial mood.
제1항에 있어서,
쇼핑몰로부터 의류 정보를 획득하는 단계;
상기 의류 정보를 기초로, 의류의 분위기를 추출하는 단계; 및
상기 사용자에게 어울리는 분위기의 의류를 상기 사용자에게 제공하는 단계;를 포함하는,
이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
obtaining clothing information from a shopping mall;
extracting a mood of clothing based on the clothing information; and
Providing the user with clothing of an atmosphere suitable for the user; including,
A method for providing a facial mood diagnosis platform using images.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1항의 방법을 수행하는, 장치.
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory;
By executing the one or more instructions, the processor:
An apparatus that performs the method of claim 1 .
하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
A computer program stored in a computer-readable recording medium to be combined with a computer, which is hardware, to perform the method of claim 1.
KR1020220023628A 2022-02-23 2022-02-23 Method, apparatus and program for providing facial mood diagnosis platform using image KR102477338B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020220023628A KR102477338B1 (en) 2022-02-23 2022-02-23 Method, apparatus and program for providing facial mood diagnosis platform using image
KR1020220171048A KR20230126635A (en) 2022-02-23 2022-12-09 Method, apparatus and program for providing facial mood diagnosis platform using image
JP2023565229A JP2024516627A (en) 2022-02-23 2023-02-21 Method, device and program for providing a personal color diagnosis platform using images
PCT/KR2023/002427 WO2023163477A1 (en) 2022-02-23 2023-02-21 Method, apparatus, and program for providing personal color diagnosis platform using image
US18/492,965 US20240054680A1 (en) 2022-02-23 2023-10-24 Method, apparatus and program for providing personal color diagnosis platform using image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220023628A KR102477338B1 (en) 2022-02-23 2022-02-23 Method, apparatus and program for providing facial mood diagnosis platform using image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220171048A Division KR20230126635A (en) 2022-02-23 2022-12-09 Method, apparatus and program for providing facial mood diagnosis platform using image

Publications (1)

Publication Number Publication Date
KR102477338B1 true KR102477338B1 (en) 2022-12-14

Family

ID=84438523

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220023628A KR102477338B1 (en) 2022-02-23 2022-02-23 Method, apparatus and program for providing facial mood diagnosis platform using image
KR1020220171048A KR20230126635A (en) 2022-02-23 2022-12-09 Method, apparatus and program for providing facial mood diagnosis platform using image

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220171048A KR20230126635A (en) 2022-02-23 2022-12-09 Method, apparatus and program for providing facial mood diagnosis platform using image

Country Status (1)

Country Link
KR (2) KR102477338B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046653A (en) * 2010-11-02 2012-05-10 에스케이플래닛 주식회사 System and method for recommending hair based on face and style recognition
JP2014511520A (en) * 2011-02-03 2014-05-15 フェイスブック,インク. System and method for relevance of image texting and text imaging
KR101444816B1 (en) * 2013-04-01 2014-09-26 한국과학기술연구원 Image Processing Apparatus and Method for changing facial impression

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046653A (en) * 2010-11-02 2012-05-10 에스케이플래닛 주식회사 System and method for recommending hair based on face and style recognition
JP2014511520A (en) * 2011-02-03 2014-05-15 フェイスブック,インク. System and method for relevance of image texting and text imaging
KR101444816B1 (en) * 2013-04-01 2014-09-26 한국과학기술연구원 Image Processing Apparatus and Method for changing facial impression

Also Published As

Publication number Publication date
KR20230126635A (en) 2023-08-30

Similar Documents

Publication Publication Date Title
JP6128309B2 (en) Makeup support device, makeup support method, and makeup support program
JP6956389B2 (en) Makeup support device and makeup support method
US11461384B2 (en) Facial images retrieval system
US11010894B1 (en) Deriving a skin profile from an image
KR102325829B1 (en) Recommendation method for face-wearing products and device therefor
WO2021062998A1 (en) Image processing method, apparatus and electronic device
US20200027244A1 (en) Information processing apparatus, information processing method, and computer program product
US20220164852A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations
KR102274330B1 (en) Face Image Analysis Method and System for Diagnosing Stroke
WO2023138345A1 (en) Virtual image generation method and system
WO2023273247A1 (en) Face image processing method and device, computer readable storage medium, terminal
WO2024140081A1 (en) Method and apparatus for processing facial image, and computer device and storage medium
KR102477338B1 (en) Method, apparatus and program for providing facial mood diagnosis platform using image
WO2020188924A1 (en) Information processing device, search method, and non-transitory computer-readable medium having program stored thereon
JP5484101B2 (en) Face type classification device, face type classification method, and recording medium storing program for realizing the method
CN111354478B (en) Shaping simulation information processing method, shaping simulation terminal and shaping service terminal
JPH0767721A (en) Hair dresser supporting device
US20230129243A1 (en) Style profile engine
US20240054680A1 (en) Method, apparatus and program for providing personal color diagnosis platform using image
US20230077452A1 (en) Methods and Systems for Analyzing Skin and Providing Information Via a Graphical User Interface (GUI)
JP6128357B2 (en) Makeup support device and makeup support method
CN114333018A (en) Shaping information recommendation method and device and electronic equipment
KR102618610B1 (en) Method, apparatus and program for providing personal color diagnosis platform using image
JP6757983B2 (en) Evaluation device and evaluation system
CN112819921B (en) Method, apparatus, device and storage medium for changing hairstyle of character

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant