KR102477338B1 - Method, apparatus and program for providing facial mood diagnosis platform using image - Google Patents
Method, apparatus and program for providing facial mood diagnosis platform using image Download PDFInfo
- Publication number
- KR102477338B1 KR102477338B1 KR1020220023628A KR20220023628A KR102477338B1 KR 102477338 B1 KR102477338 B1 KR 102477338B1 KR 1020220023628 A KR1020220023628 A KR 1020220023628A KR 20220023628 A KR20220023628 A KR 20220023628A KR 102477338 B1 KR102477338 B1 KR 102477338B1
- Authority
- KR
- South Korea
- Prior art keywords
- facial
- mood
- adjectives
- user
- category
- Prior art date
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 97
- 230000036651 mood Effects 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000003745 diagnosis Methods 0.000 title claims abstract description 23
- 238000004590 computer program Methods 0.000 claims description 9
- 230000003014 reinforcing effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 210000004709 eyebrow Anatomy 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000000295 complement effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 210000001061 forehead Anatomy 0.000 description 6
- 210000001747 pupil Anatomy 0.000 description 6
- 230000003796 beauty Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 210000004209 hair Anatomy 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 201000003004 ptosis Diseases 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램에 관한 것으로, 보다 자세하게는 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램에 관한 것이다.The present invention relates to a method, apparatus, and program for providing a platform for diagnosing facial mood using images. The present invention relates to a method, apparatus, and program for providing a facial mood diagnosis platform using an image provided to a user.
최근 현대사회에서는 미용에 대한 관심이 급증하면서 뷰티 산업(beauty industry)이 발전하고 있다. 뷰티 산업의 발전에 따라, 사용자는 메이크업, 의류, 헤어 등에 대한 관심이 증가하고 있는 추세이다. BACKGROUND ART [0002] Recently, as interest in beauty has rapidly increased in modern society, a beauty industry is developing. As the beauty industry develops, users tend to show increased interest in makeup, clothing, hair, and the like.
그러나, 사용자 개인마다 피부 색상, 얼굴형, 이목구비의 생김새 등이 다양하기 때문에 개인에게 어울리는 메이크업, 의류, 헤어 등이 다 다를 수 있다. 따라서, 사용자는 자신에게 어울리는 메이크업, 의류, 헤어 디자인을 찾기를 원하는데, 자신에게 어울리는 디자인을 찾기 위해서는 많은 시행착오를 겪어야하며, 이로 인해 많은 시간과 비용이 소요되었다.However, since skin color, face shape, features, etc., of each user are diverse, makeup, clothes, hair, etc. suitable for each individual may be different. Therefore, users want to find makeup, clothes, and hair designs that suit them, but in order to find a design that suits them, they have to go through a lot of trial and error, which takes a lot of time and money.
이와 같이, 자신에게 어울리는 디자인을 찾기 위해서는 사용자 개인의 얼굴에서 풍기는 이미지를 객관화하는 것이 중요한데, 사용자들의 시선에 따라 주관적 의견이 반영되기 쉬어 이미지를 객관화하는 데 많은 어려움을 겪고 있다.In this way, in order to find a design that suits oneself, it is important to objectify the image from the user's individual face, but it is difficult to objectify the image because subjective opinions are easily reflected according to the user's gaze.
본 발명이 해결하고자 하는 과제는 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to analyze facial characteristics using an image of a user's face, diagnose adjectives corresponding to the user's facial mood, and provide a facial mood diagnosis platform using images provided to the user; To provide devices and programs.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
상술한 과제를 해결하기 위한 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법은 사용자로부터 얼굴을 촬영한 이미지를 획득하는 단계와, 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정하는 단계와, 설정된 기준점들을 이용하여 얼굴의 특징을 판단하는 단계와, 얼굴의 특징을 판단한 결과를 이용하여, 상기 사용자의 얼굴 분위기에 해당하는 형용사를 결정하는 단계를 포함할 수 있다.A method for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention for solving the above problems includes acquiring an image of a face taken from a user, and setting a reference point defining a face in the obtained image. The method may include determining facial features using set reference points, and determining an adjective corresponding to the facial mood of the user using a result of determining the facial features.
또한, 상기 얼굴의 특징을 판단하는 단계는, 얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득하는 단계와, 기준점 그룹에 해당하는 기준점들간의 위치관계를 판단하는 단계와, 판단된 결과를 기초로 이목구비 형태를 정의하는 단계를 포함할 수 있다.In addition, the step of determining the feature of the face may include obtaining a reference point group designating each feature of the face, determining a positional relationship between the reference points corresponding to the reference point group, and determining the facial features based on the determined result. It may include defining a shape.
또한, 상기 사용자의 얼굴 분위기에 해당하는 형용사를 결정하는 단계는, 얼굴 분위기에 따른 복수의 카테고리를 설정하는 단계와, 복수의 카테고리 각각에 해당하는 형용사를 매칭하여 저장하는 단계와, 상기 복수의 카테고리 중 상기 얼굴의 특징에 해당하는 카테고리를 선정하는 단계와, 선정된 카테고리에 포함된 형용사를 기초로, 상기 사용자의 얼굴 분위기에 가장 매칭되는 대표 형용사, 상기 사용자의 얼굴 분위기를 강화하는 강화 형용사 및 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사 중 적어도 하나의 형용사를 결정하는 단계를 포함할 수 있다.In addition, the step of determining the adjective corresponding to the facial mood of the user may include setting a plurality of categories according to the facial mood, matching and storing adjectives corresponding to each of the plurality of categories, and storing the adjective corresponding to the plurality of categories. The step of selecting a category corresponding to the feature of the face, and based on the adjectives included in the selected category, a representative adjective that best matches the facial mood of the user, a reinforcing adjective that reinforces the facial mood of the user, and the The method may include determining at least one adjective among complementary adjectives that complement the user's face mood.
또한, 상기 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면을 설정하는 단계와, 상기 형용사 각각의 좌표값을 지정하는 단계 및 상기 좌표평면 상에 복수의 카테고리 영역을 설정하는 단계를 포함할 수 있다.The method may also include setting a coordinate plane in which regions are set according to characteristics of the plurality of categories, designating coordinate values of each of the adjectives, and setting a plurality of category regions on the coordinate plane. .
또한, 정의된 이목구비 모양 각각에 대해 x값 및 y값을 산출하는 단계와, 산출된 x값 및 y값에 해당하는 좌표를 상기 좌표평면에 특정하는 단계와, 특정된 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정하는 단계를 포함할 수 있다.In addition, calculating x and y values for each of the defined features, specifying coordinates corresponding to the calculated x and y values on the coordinate plane, and the closest distance to the specified coordinate values A step of selecting a category to be located may be included.
또한, 선정된 카테고리에 해당하는 형용사들을 추출하는 단계와, 추출된 형용사들 중 카테고리의 특성에 따라 x값 또는 y값이 특정 기준을 만족하는 형용사를 추출하는 단계와, 추출된 형용사를 상기 사용자의 얼굴 분위기에 해당하는 형용사로 제공하는 단계를 포함할 수 있다.In addition, the step of extracting adjectives corresponding to the selected category, the step of extracting adjectives whose x value or y value satisfies a specific criterion according to the characteristics of the category among the extracted adjectives, and the extracted adjectives to the user A step of providing an adjective corresponding to the facial mood may be included.
또한, 정의된 이목구비 모양 각각에 대해 추출되는 복수의 형용사 중 상기 특정된 좌표값과 가장 가까운 위치의 좌표값을 가지는 순서로 상기 추출된 형용사의 순서를 매기는 단계와, 상기 형용사의 순서를 기초로 대표 형용사를 선정하는 단계와, 순서가 매겨진 형용사 중 특정 순위까지의 형용사 및 대표 형용사 중 적어도 하나를 상기 사용자에게 제공하는 단계를 포함할 수 있다.In addition, the step of arranging the order of the extracted adjectives in the order of having the coordinate value of the position closest to the specified coordinate value among the plurality of adjectives extracted for each of the defined features, and based on the order of the adjectives The method may include selecting a representative adjective and providing the user with at least one of the adjectives up to a specific rank among the adjectives in the order and the representative adjective.
또한, 상기 사용자의 얼굴 분위기에 해당하는 형용사의 x값 및 y값을 기초로, x축, y축 및 원점을 기준으로 대칭되는 x값 및 y값을 산출하는 단계와, 산출된 x값 및 y값에 해당하는 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정하는 단계와, 상기 카테고리 또는 상기 카테고리에 해당하는 형용사를 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사로 제공하는 단계를 포함할 수 있다.In addition, based on the x-value and y-value of the adjective corresponding to the facial mood of the user, calculating an x-value and a y-value that are symmetrical about the x-axis, y-axis and the origin, and the calculated x-value and y-value The method may include selecting a category located closest to a coordinate value corresponding to the value, and providing the category or an adjective corresponding to the category as a supplementary adjective that complements the user's facial atmosphere.
또한, 쇼핑몰로부터 의류 정보를 획득하는 단계, 상기 의류 정보를 기초로, 의류의 분위기를 추출하는 단계 및 상기 사용자에게 어울리는 분위기의 의류를 상기 사용자에게 제공하는 단계를 포함할 수 있다.The method may also include acquiring clothing information from a shopping mall, extracting clothing atmosphere based on the clothing information, and providing clothing with an atmosphere suitable for the user to the user.
상술한 과제를 해결하기 위한 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 장치는 하나 이상의 인스트럭션을 저장하는 메모리와, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행할 수 있다.An apparatus for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention for solving the above problems includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, The processor may perform the method of providing a platform for diagnosing facial mood using an image by executing the one or more instructions.
상술한 과제를 해결하기 위한 본 발명의 일 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 프로그램은 하드웨어인 컴퓨터와 결합하여, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장될 수 있다.A program for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention for solving the above problems is combined with a computer, which is hardware, and is readable by a computer to perform a method for providing a facial mood diagnosis platform using an image. It can be stored on a recording medium.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
본 발명은 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공할 수 있다.According to the present invention, facial features may be analyzed using an image of a user's face, and adjectives corresponding to the mood of the user's face may be diagnosed and provided to the user.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템을 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 플랫폼 제공 장치의 하드웨어 구성도이다.
도 3은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 나타내는 도면이다.
도 4는 본 발명의 실시 예에 따른 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면의 예시를 나타내는 도면이다.
도 5는 본 발명의 실시 예에 따른 이목구비 모양에 대한 좌표값을 특정한 예시를 나타낸 도면이다.
도 6은 본 발명의 실시 예에 따른 보완 형용사를 선정하는 예시를 나타내는 도면이다.1 is a diagram illustrating a system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention.
2 is a hardware configuration diagram of a platform providing device according to an embodiment of the present invention.
3 is a diagram illustrating a method for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention.
4 is a diagram illustrating an example of a coordinate plane in which areas are set according to characteristics of a plurality of categories according to an embodiment of the present invention.
5 is a diagram showing an example of specifying coordinate values for features according to an embodiment of the present invention.
6 is a diagram illustrating an example of selecting a complementary adjective according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means any kind of hardware device including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to an embodiment. For example, a computer may be understood as including a smartphone, a tablet PC, a desktop computer, a laptop computer, and user clients and applications running on each device, but is not limited thereto.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Although each step described in this specification is described as being performed by a computer, the subject of each step is not limited thereto, and at least a part of each step may be performed in different devices according to embodiments.
도 1은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템을 도시한 도면이다.1 is a diagram illustrating a system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템은 플랫폼 제공 장치(100), 사용자 단말(200) 및 외부 서버(300)를 포함할 수 있다.Referring to FIG. 1 , a system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention may include a
여기서, 도 1에 도시된 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템은 일 실시 예에 따른 것이고, 그 구성 요소가 도 1에 도시된 실시 예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.Here, the system for providing a facial mood diagnosis platform using the image shown in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment shown in FIG. 1, and may be added, changed, or deleted as necessary. can
본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 시스템은 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공할 수 있다. 사용자는 사용자 단말(200)을 통해 이미지를 이용한 얼굴 분위기 진단 플랫폼을 제공받을 수 있으며, 사용자는 사용자 단말(200)을 통해 얼굴을 촬영한 이미지를 플랫폼에 제공할 수 있다.A system for providing a platform for diagnosing facial mood using images according to an embodiment of the present invention may analyze facial characteristics using an image of a user's face, diagnose adjectives corresponding to the user's facial mood, and provide the diagnosed adjectives to the user. have. The user may be provided with a platform for diagnosing facial mood using images through the
플랫폼 제공 장치(100)는 사용자로부터 얼굴을 촬영한 이미지를 획득하고, 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정하고, 설정된 기준점들을 이용하여 얼굴의 특징을 판단하고, 얼굴의 특징을 판단한 결과를 이용하여, 사용자의 얼굴 분위기에 해당하는 형용사를 결정할 수 있다.The
사용자 단말(200)은 네트워크를 통해 플랫폼 제공 장치(100)와 연결될 수 있으며, 플랫폼 제공 장치(100)로부터 각종 서비스 및 플랫폼을 제공받을 수 있다.The
사용자 단말(200)은 플랫폼 제공 장치(100)가 제공하는 각종 서비스 및 플랫폼에 관한 어플리케이션을 다운로드, 설치 및 실행함으로써, 어플리케이션을 통해 플랫폼 제공 장치(100)가 제공하는 각종 서비스를 제공받을 수 있다. 이를 위해 사용자 단말(200)은 스마트폰과 같이 어플리케이션의 구동이 가능한 운영체제를 탑재할 수 있다. 그러나, 이에 한정되지 않고, 사용자 단말(200)은 어플리케이션의 구동이 가능한 다른 범용적인 장치들이 적용될 수 있다.The
다양한 실시 예에서, 사용자 단말(200)은 어플리케이션 외에 웹 기반으로도 서비스를 제공할 수 있으며, 사용자 단말(200)이 서비스를 제공하는 방법은 특정한 형식으로 제한되지 않는다.In various embodiments, the
외부 서버(300)는 네트워크를 통해 플랫폼 제공 장치(100)와 연결될 수 있으며, 플랫폼 제공 장치(100)가 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행하기 위한 각종 정보를 저장 및 관리할 수 있다.The
또한, 외부 서버(300)는 플랫폼 제공 장치(100)가 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행함에 따라 생성되는 각종 정보 및 데이터를 제공받아 저장할 수 있다. 예를 들어, 외부 서버(300)는 플랫폼 제공 장치(100) 외부에 별도로 구비되는 저장 서버일 수 있다. 도 2를 참조하여, 플랫폼 제공 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.In addition, the
도 2는 본 발명의 실시 예에 따른 플랫폼 제공 장치의 하드웨어 구성도이다.2 is a hardware configuration diagram of a platform providing device according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 실시 예에 따른 플랫폼 제공 장치(100)(이하, 컴퓨팅 장치)는 하나 이상의 프로세서(110), 프로세서(110)에 의하여 수행되는 컴퓨터 프로그램(151)을 로드(Load)하는 메모리(120), 버스(130), 통신 인터페이스(140) 및 컴퓨터 프로그램(151)을 저장하는 스토리지(150)를 포함할 수 있다. 여기서, 도 2에는 본 발명의 실시예와 관련 있는 구성요소들만 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 2에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 2 , a platform providing device 100 (hereinafter referred to as a computing device) according to an embodiment of the present invention loads one or
프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.The
또한, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있으며, 컴퓨팅 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.Also, the
다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In various embodiments, the
메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(120)는 본 발명의 다양한 실시예에 따른 방법/동작을 실행하기 위하여 스토리지(150)로부터 컴퓨터 프로그램(151)을 로드할 수 있다. 메모리(120)에 컴퓨터 프로그램(151)이 로드되면, 프로세서(110)는 컴퓨터 프로그램(151)을 구성하는 하나 이상의 인스트럭션들을 실행함으로써 상기 방법/동작을 수행할 수 있다. 메모리(120)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.
버스(130)는 컴퓨팅 장치(100)의 구성 요소 간 통신 기능을 제공한다. 버스(130)는 주소 버스(address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The
통신 인터페이스(140)는 컴퓨팅 장치(100)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(140)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(140)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 몇몇 실시예에서, 통신 인터페이스(140)는 생략될 수도 있다.The
스토리지(150)는 컴퓨터 프로그램(151)을 비 임시적으로 저장할 수 있다. 컴퓨팅 장치(100)를 통해 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행하는 경우, 스토리지(150)는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 제공하기 위하여 필요한 각종 정보를 저장할 수 있다.The
스토리지(150)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The
컴퓨터 프로그램(151)은 메모리(120)에 로드될 때 프로세서(110)로 하여금 본 발명의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(110)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 상기 방법/동작을 수행할 수 있다.
일 실시예에서, 컴퓨터 프로그램(151)은 사용자로부터 얼굴을 촬영한 이미지를 획득하는 단계, 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정하는 단계, 설정된 기준점들을 이용하여 얼굴의 특징을 판단하는 단계, 얼굴의 특징을 판단한 결과를 이용하여, 사용자의 얼굴 분위기에 해당하는 형용사를 결정하는 단계를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 수행하도록 하는 하나 이상의 인스트럭션을 포함할 수 있다.In an embodiment, the
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 3을 참조하여, 컴퓨팅 장치(100)가 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법에 대해 설명하도록 한다.Components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), can be implemented in a programming or scripting language such as assembler (assembler). Functional aspects may be implemented in an algorithm running on one or more processors. Hereinafter, with reference to FIG. 3 , a method for providing a facial mood diagnosis platform using an image provided by the
도 3은 본 발명의 실시 예에 따른 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법을 나타내는 도면이다.3 is a diagram illustrating a method for providing a facial mood diagnosis platform using an image according to an embodiment of the present invention.
도 3을 참조하면, 컴퓨팅 장치(100)는 사용자로부터 얼굴을 촬영한 이미지를 획득할 수 있다(S100). 컴퓨팅 장치(100)는 사용자 단말(200)을 통해 이미지를 이용한 얼굴 분위기 진단 시스템을 수행하기 위한 인스트럭션을 제공할 수 있고, 사용자는 사용자 단말(200)을 통해 제공되는 인스트럭션을 따라 얼굴을 촬영한 이미지를 컴퓨팅 장치(100)에 제공할 수 있다.Referring to FIG. 3 , the
컴퓨팅 장치(100)는 얼굴 분위기 진단 플랫폼을 통해 사용자가 얼굴을 촬영하도록 인스트럭션을 제공할 수 있고, 사용자는 인스트럭션을 따라 본인의 얼굴을 촬영할 수 있다. 사용자 단말(200)을 통해 촬영된 이미지는 얼굴 분위기 진단 플랫폼을 통해 컴퓨팅 장치(100)로 제공될 수 있다.The
한편, 컴퓨팅 장치(100)는 촬영된 이미지를 얼굴 분위기 진단 플랫폼에 업로드하도록 인스트럭션을 제공할 수 있고, 사용자는 인스트럭션을 따라 본인의 얼굴이 촬영된 이미지를 업로드할 수 있다. 사용자 단말(200)을 통해 업로드된 이미지는 얼굴 분위기 진단 플랫폼을 통해 컴퓨팅 장치(100)로 제공될 수 있다.Meanwhile, the
컴퓨팅 장치(100)는 획득된 이미지의 색상 및 구도를 확인하고, 이미지의 재촬영을 요청하거나, 다른 이미지의 업로드를 요청할 수 있다. 예를 들어, 이미지가 너무 밝은 경우 사용자의 얼굴이 제대로 인식이 안될 수 있으므로, 이미지를 재촬영하도록 요청하거나, 다른 이미지를 업로드하도록 요청하여 사용자의 얼굴의 인식이 가능한 이미지를 획득할 수 있다.The
또한, 사용자의 얼굴이 일부만 촬영되었거나, 정면을 보고 있지 않거나, 얼굴이 너무 멀거나 가까이 촬영된 경우, 컴퓨팅 장치(100)는 이미지를 재촬영하도록 요청하거나, 다른 이미지를 업로드하도록 요청하여 사용자의 얼굴의 인식이 가능한 이미지를 획득할 수 있다.In addition, if only a part of the user's face is captured, the user is not facing the front, or the face is captured too far or too close, the
컴퓨팅 장치(100)는 획득된 이미지 내에서 얼굴을 정의하는 기준점을 설정할 수 있다(S200). 얼굴을 정의하는 기준점은 눈꼬리, 눈동자, 코끝, 콧볼, 눈썹머리, 눈썹꼬리, 턱 라인, 이마라인, 입술, 인증, 미간 등 얼굴을 정의할 수 있는 모든 지점을 포함할 수 있다. 컴퓨팅 장치(100)는 기준점을 기초로 얼굴의 이목구비를 구분할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 눈꼬리, 눈동자, 눈두덩이에 설정된 기준점을 기초로 눈의 위치 및 모양을 판단할 수 있고, 이를 통해 이목구비를 구분하는 것이 가능할 수 있다.The
예를 들어, 컴퓨팅 장치(100)는 이미지 내에서 얼굴을 정의하는 기준점을 설정할 수 있다. 얼굴을 정의하는 기준점은 눈꼬리, 눈동자, 코끝, 콧볼, 눈썹머리, 눈썹꼬리, 턱 라인, 이마라인, 입술, 인증, 미간 등을 포함할 수 있다.For example, the
컴퓨팅 장치(100)는 설정된 기준점들을 이용하여 얼굴의 특징을 판단할 수 있다(S300). 컴퓨팅 장치(100)는 얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 눈을 정의하고 있는 기준점들을 추출하여 하나의 기준점 그룹을 생성할 수 있다. 즉, 컴퓨팅 장치(100)는 눈꼬리, 눈동자, 눈두덩이, 눈앞머리 등 눈을 지정하고 있는 기준점들을 포함하는 하나의 그룹을 생성할 수 있다. 컴퓨팅 장치(100)는 얼굴, 눈, 코, 입 위치에 해당하는 기준점들을 포함하는 각각의 기준점 그룹을 생성할 수 있다. The
예를 들어, 컴퓨팅 장치(100)는 얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 눈꼬리, 눈동자, 눈두덩이, 눈앞머리에 설정된 기준점들을 눈을 정의하는 하나의 기준점 그룹(예: G1)으로 생성할 수 있다. 또한, 컴퓨팅 장치(100)는 눈썹머리, 눈썹꼬리, 눈썹 중앙에 설정된 기준점들을 눈썹을 정의하는 하나의 기준점 그룹(예: G2)으로 생성할 수 있다. 또한, 컴퓨팅 장치(100)는 입술 양끝, 입술 동산, 입술 중앙에 설정된 기준점들을 입을 정의하는 하나의 기준점 그룹(예: G3)으로 생성할 수 있다. 상술한 실시 예에서는 눈, 눈썹, 입에 대한 기준점 그룹을 생성하는 것만이 개시되어 있으나, 이에 한정되지 않고, 이마, 얼굴형, 코 등 얼굴의 특징이 되는 모든 구성에 대해 기준점 그룹을 생성할 수 있다.For example, the
다시 도 3을 참조하면, 컴퓨팅 장치(100)는 기준점 그룹에 해당하는 기준점들간의 거리, 기준점들의 위치를 판단할 수 있다. 예를 들어, 눈을 정의하는 기준점 그룹에 포함되는 기준점 중 눈꼬리에 설정된 기준점과, 눈앞머리에 설정된 기준점까지의 거리, 눈동자를 기준으로 눈의 위, 아래에 설정된 기준점들간의 거리 등을 판단하여 눈의 모양을 판단할 수 있고, 눈을 정의하는 기준점 그룹이 얼굴의 어느 위치에 배치되어 있는지 판단하여 눈의 위치를 판단할 수 있다. 컴퓨팅 장치(100)는 판단된 결과를 기초로 이목구비의 모양을 정의할 수 있으며, 눈, 코, 얼굴형, 이마라인 등 얼굴의 특징이 되는 모든 구성에 대해 모양 및 위치를 정의하는 것이 가능할 수 있다.Referring back to FIG. 3 , the
컴퓨팅 장치(100)는 얼굴의 특징을 판단한 결과를 이용하여, 사용자의 얼굴 분위기에 해당하는 형용사를 결정할 수 있다(S400). 구체적으로, 컴퓨팅 장치(100)는 얼굴의 분위기에 따라 구분될 수 있는 이미지에 따라 복수의 카테고리를 설정할 수 있고, 복수의 카테고리는 동안 이미지, 세련 이미지, 친근 이미지 및 활동 이미지를 포함할 수 있으나, 이에 한정되는 것은 아니다.The
컴퓨팅 장치(100)는 복수의 카테고리 각각에 해당하는 형용사를 매칭하여 저장할 수 있다. 즉, 컴퓨팅 장치(100)는 세련 이미지와 관련된 형용사로써, '우아한', '고상한', '도시적인'을 매칭하여 저장할 수 있고, 동안 이미지와 관련된 형용사로써, '귀여운', '소녀같은'을 매칭하여 저장할 수 있다. 각각에 카테고리에 해당하는 형용사는 카테고리마다 각각 다르게 설정될 수 있으며, 상기 기재한 바와 같이 중복되어 설정되는 것도 가능할 수 있다.The
컴퓨팅 장치(100)는 카테고리와, 카테고리별 형용사를 저장하고 있으며, 이미지를 통해 판단된 얼굴의 특징에 따라 대응되는 카테고리를 판단하고, 카테고리별 형용사를 통해 사용자의 얼굴 분위기를 진단할 수 있다.The
즉, 컴퓨팅 장치(100)는 복수의 카테고리 중 얼굴의 특징에 해당하는 카테고리를 선정할 수 있다. 예를 들어, 얼굴의 특징을 분석한 결과, 얼굴형이 동그란 경우, 동안 이미지에 대한 카테고리를 선정할 수 있다. 한편, 얼굴의 특징을 분석한 결과, 눈꼬리가 쳐진 경우, 친근 이미지에 대한 카테고리를 선정할 수 있다. 컴퓨팅 장치(100)는 얼굴의 특징 각각에 대해 카테고리를 저장하고 있을 수 있고, 특징에 해당하는 카테고리를 추출하여 선정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 친근 이미지에 대한 카테고리에 해당하는 얼굴의 특징으로 눈꼬리가 처진 눈을 저장하고 있을 수 있고, 이미지를 통해 얼굴의 특징이 눈꼬리가 처진 눈으로 판단된 경우 카테고리를 친근 이미지로 선정할 수 있다.That is, the
컴퓨팅 장치(100)는 선정된 카테고리에 포함된 형용사를 기초로, 사용자의 얼굴 분위기에 가장 매칭되는 대표 형용사, 사용자의 얼굴 분위기를 강화하는 강화 형용사, 사용자의 얼굴 분위기를 보완하는 보완 형용사 중 적어도 하나의 형용사를 결정할 수 있다. 컴퓨팅 장치(100)는 결정된 형용사를 사용자에게 제공할 수 있다.Based on the adjectives included in the selected category, the
구체적으로, 컴퓨팅 장치(100)는 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면을 설정할 수 있다. 여기서, 좌표평면은 y값이 큰 제1영역에 제1카테고리를 설정하고, x값 및 y값이 작은 제2영역에 제2카테고리를 설정하고, x값이 큰 제3영역에 제3카테고리를 설정하고, x값이 크고, y값이 작은 제4영역에 제4카테고리를 설정할 수 있다. Specifically, the
그러나, 카테고리 별 좌표평면에 설정되는 영역은 이에 한정되지 않을 수 있으며, 본 발명의 실시 예에 따르면, 복수의 카테고리의 특성에 따른 영역은 제1사분면에 설정될 수 있으나, 이에 한정되지 않는다. 즉, 복수의 카테고리의 특성에 따른 영역은 제2사분면, 제3사분면 및 제4사분면 각각에 설정될 수 있으며, 각각의 사분면에 설정되는 복수의 카테고리에 따른 영역의 크기 및 위치는 모두 상이할 수 있다.However, the area set on the coordinate plane for each category may not be limited to this, and according to an embodiment of the present invention, the area according to the characteristics of a plurality of categories may be set in the first quadrant, but is not limited thereto. That is, the regions according to the characteristics of the plurality of categories may be set in the second quadrant, the third quadrant, and the fourth quadrant, respectively, and the sizes and positions of the regions according to the plurality of categories set in each quadrant may be different. have.
도 4는 본 발명의 실시 예에 따른 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면의 예시를 나타내는 도면이다.4 is a diagram illustrating an example of a coordinate plane in which areas are set according to characteristics of a plurality of categories according to an embodiment of the present invention.
도 4를 참조하면, 컴퓨팅 장치(100)는 y값이 큰 제1영역에 제1카테고리를 설정하고, x값 및 y값이 작은 제2영역에 제2카테고리를 설정하고, x값이 큰 제3영역에 제3카테고리를 설정하고, x값이 크고, y값이 작은 제4영역에 제4카테고리를 설정할 수 있다. 그러나, 각 카테고리에 따라 지정되는 영역은 이에 한정되지 않으며, 각 영역의 크기 및 위치도 이에 한정되지 않을 수 있다.Referring to FIG. 4 , the
또한, 제1영역, 제2영역, 제3영역, 제4영역의 각각의 범위는 지정되어 설정될 수 있으며, 이때, 지정되는 값은 기 설정되지 않을 수 있다. 예를 들어, 제1영역은 y값이 8 이상인 영역으로 지정되고, 제2영역은 x값이 5 미만이고, y값이 5 미만인 영역으로 지정되고, 제3영역은 x값이 10 이상인 영역으로 지정되고, 제4영역은 x값이 7 이상, y값이 3 미만인 영역으로 지정될 수 있다. 그러나, 각 영역에 지정되는 범위는 이에 한정되지 않는다.In addition, each range of the first area, the second area, the third area, and the fourth area may be designated and set. In this case, the designated value may not be preset. For example, the first area is designated as an area where the y value is 8 or more, the second area is designated as an area where the x value is less than 5 and the y value is less than 5, and the third area is designated as an area where the x value is 10 or more. designated, and the fourth region may be designated as a region in which an x value is 7 or more and a y value is less than 3. However, the range designated for each area is not limited thereto.
다시 도 3을 참조하면, 컴퓨팅 장치(100)는 형용사 각각의 좌표값을 지정할 수 있다. 형용사 각각의 좌표값은 상기 복수의 카테고리의 특성별 영역을 기초로 지정될 수 있다. 예를 들어, 형용사 '귀여운'의 경우 동안 이미지 및 친근 이미지에 모두 포함되는 형용사일 수 있다. 한편, 동안 이미지에 대한 카테고리가 제4영역에 설정되고, 친근 이미지에 대한 카테고리가 제3영역에 설정될 경우 형용사 '귀여운'은 x값이 크고, y값이 작은 좌표값이 지정될 수 있다.Referring back to FIG. 3 , the
컴퓨팅 장치(100)는 정의된 이목구비 모양 각각에 대해 x값 및 y값을 산출할 수 있다. 컴퓨팅 장치(100)는 기준점을 이용하여 얼굴을 구성하는 이목구비 각각의 모양과 위치관계를 나타내는 다양한 지수를 산출하고, 이에 대한 x값 및 y값을 획득할 수 있다. 컴퓨팅 장치(100)는 각각의 기준점 그룹에 포함된 기준점 중 기 설정된 기준점을 통해 각각의 이목구비 모양에 대한 x값 및 y값을 산출할 수 있다. 예를 들어, 눈처짐지수의 경우, 눈두덩이에 설정된 기준점과 눈꼬리에 설정된 기준점을 이용하여 눈처짐지수에 대한 x값 및 y값을 산출할 수 있다.The
컴퓨팅 장치(100)는 산출된 x값 및 y값에 해당하는 좌표값을 좌표평면에 특정할 수 있다. 즉, 컴퓨팅 장치(100)는 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면에 각각의 이목구비 모양에 대한 좌표값을 특정할 수 있다. 컴퓨팅 장치(100)는 특정된 좌표값과 가장 가까운 위치에 위치한 카테고리를 선정할 수 있다. 컴퓨팅 장치(100)는 선정된 카테고리를 사용자의 얼굴 분위기에 해당하는 카테고리로써 제공할 수 있다. 여기서, 이목구비 모양 각각에 대해 카테고리를 선정함에 따라 복수의 카테고리가 선정될 수 있는데, 이때 컴퓨팅 장치(100)는 가장 많은 수로 선정된 카테고리를 대표 카테고리로 선정할 수 있다. 또한, 컴퓨팅 장치(100)는 이목구비 모양에 따라 가중치를 설정하여, 가중치에 따라 가장 큰 값을 가지는 카테고리를 대표 카테고리로 선정할 수 있다.The
도 5는 본 발명의 실시 예에 따른 이목구비 모양에 대한 좌표값을 특정한 예시를 나타낸 도면이다.5 is a diagram showing an example of specifying coordinate values for features according to an embodiment of the present invention.
도 5를 참조하면, 컴퓨팅 장치(100)는 기준점을 이용하여 얼굴을 구성하는 이목구비 각각의 모양과 위치관계를 나타내는 다양한 지수를 산출하고, 이에 대한 x값 및 y값을 획득할 수 있다. 컴퓨팅 장치(100)는 산출된 x값 및 y값에 해당하는 좌표값(v) 좌표평면에 특정할 수 있다. 즉, 컴퓨팅 장치(100)는 복수의 카테고리의 특성에 따라 영역이 설정된 좌표평면에 각각의 이목구비 모양에 대한 좌표값(v)을 특정할 수 있다. 컴퓨팅 장치(100)는 특정된 좌표값(v)과 가장 가까운 위치에 위치한 카테고리를 선정할 수 있다. 즉, 컴퓨팅 장치(100)는 좌표값(v1, v2, v3, v4)과 가장 가까운 제1영역에 지정된 제1카테고리를 선정할 수 있고, 좌표값(v5)과 가장 가까운 제2영역에 지정된 제2카테고리를 선정하고, 좌표값(v6)과 가장 가까운 제3영역에 지정된 제3카테고리를 선정할 수 있다.Referring to FIG. 5 , the
컴퓨팅 장치(100)는 가장 많은 수로 선정된 제1카테고리를 대표 카테고리로 선정할 수 있다. 또한, 컴퓨팅 장치(100)는 이목구비 모양에 따라 가중치를 설정하여, 가중치에 따라 가장 큰 값을 가지는 카테고리를 대표 카테고리로 선정할 수도 있다.The
다시 도 3을 참조하면, 컴퓨팅 장치(100)는 선정된 카테고리에 해당하는 형용사들을 추출할 수 있다. 컴퓨팅 장치(100)는 추출된 형용사들 중 카테고리의 특성에 따라 x값 또는 y값이 특정 기준을 만족하는 형용사를 추출할 수 있다.Referring back to FIG. 3 , the
예를 들어, 선정된 카테고리가 제1카테고리인 경우 컴퓨팅 장치(100)는 제1카테고리에 포함된 형용사들 중 특정된 좌표값보다 y값이 큰 형용사들을 추출할 수 있다. 또한, 선정된 카테고리가 제2카테고리인 경우 컴퓨팅 장치(100)는 제2카테고리에 포함된 형용사들 중 특정된 좌표값보다 y값이 작은 형용사들을 추출할 수 있다. 또한, 선정된 카테고리가 제3카테고리인 경우 컴퓨팅 장치(100)는 제3카테고리에 포함된 형용사들 중 특정된 좌표값보다 x값이 큰 형용사들을 추출할 수 있다. 또한, 선정된 카테고리가 제4카테고리인 경우 컴퓨팅 장치(100)는 제4카테고리에 포함된 형용사들 중 특정된 좌표값보다 x값이 작은 형용사들을 추출할 수 있다. For example, when the selected category is the first category, the
컴퓨팅 장치(100)는 추출된 형용사를 사용자의 얼굴 분위기에 해당하는 형용사로 제공할 수 있다.The
또한, 컴퓨팅 장치(100)는 정의된 이목구비 모양 각각에 대해 추출되는 복수의 형용사 중 특정된 좌표값과 가장 가까운 위치의 좌표값을 가지는 순서로 추출된 형용사의 순서를 매길 수 있다. 여기서, 특정된 좌표값과 가장 가까운 위치의 좌표값은 좌표간의 거리를 구하는 수식을 통해 계산될 수 있으며, 계산된 결과값이 가장 작은 좌표값을 가지는 형용사의 순서로 추출된 형용사의 순서를 매길 수 있다.Also, the
컴퓨팅 장치(100)는 얼굴의 특징에 따라 선정된 카테고리별 형용사들의 순서를 매길 수 있고, 카테고리별 특정 순서까지의 형용사들을 사용자에게 제공할 수 있다. 예를 들어, 얼굴의 특징에 따라 선정된 카테고리는 동안 이미지 및 활동 이미지인 경우, 컴퓨팅 장치(100)는 동안 이미지에 포함된 형용사들의 순서를 매기고, 활동 이미지에 포함된 형용사들의 순서를 매길 수 있다. 이후 컴퓨팅 장치(100)는 동안 이미지에 포함된 형용사들 중 3위까지에 해당하는 형용사를 사용자에게 제공하고, 활동 이미지에 포함된 형용사들 중 3위까지에 해당하는 형용사를 사용자에게 제공할 수 있다.The
또한, 컴퓨팅 장치(100)는 각 카테고리에서의 형용사의 순서를 기초로 대표 형용사를 선정할 수 있다. 대표 형용사는 각 카테고리에서의 가장 높은 순위의 형용사를 기준으로 선정될 수 있으며, 대표 카테고리에서의 형용사 또는 가중치에 따라 가장 높은 값을 가지는 카테고리에서의 형용사를 대표 형용사로 선정할 수 있다.Also, the
또한, 컴퓨팅 장치(100)는 사용자의 얼굴 분위기에 해당하는 형용사의 x값 및 y값을 기초로, x축, y축 및 원점을 기준으로 대칭되는 x값 및 y값을 산출할 수 있다. 컴퓨팅 장치(100)는 산출된 x값 및 y값에 해당하는 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정할 수 있고, 선정된 카테고리 또는 선정된 카테고리에 해당하는 형용사를 사용자의 얼굴 분위기를 보완하는 보완 형용사로 사용자에게 제공할 수 있다. In addition, the
도 6은 본 발명의 실시 예에 따른 보완 형용사를 선정하는 예시를 나타내는 도면이다.6 is a diagram illustrating an example of selecting a complementary adjective according to an embodiment of the present invention.
도 6을 참조하면, 컴퓨팅 장치(100)는 사용자의 얼굴 이목구비 모양 각각에 대해 x값 및 y값을 산출하고, 산출된 x값 및 y값에 해당하는 좌표를 좌표평면에 특정할 수 있다. 컴퓨팅 장치(100)는 좌표평면에 특정된 좌표값(v1)과 가장 가까운 거리에 위치한 영역에 설정된 카테고리를 대표 카테고리로 선정하고, 대표 카테고리에 포함되는 형용사를 얼굴 분위기에 해당하는 형용사인 것으로 결정할 수 있다.Referring to FIG. 6 , the
컴퓨팅 장치(100)는 특정된 좌표값(v1)과 대칭되는 좌표값(v2)을 산출할 수 있다. 컴퓨팅 장치(100)는 x축, y축, 원점을 기준으로 대칭되는 좌표값(v2)을 산출할 수 있다. 예를 들어, 특정된 좌표값(v1)의 x값이 10이고, y값이 12인 경우, x축을 기준으로 대칭하여 x값이 10이고, y값이 -12인 좌표값(v2)을 산출할 수 있다. 또한, 특정된 좌표값(v1)의 x값이 10이고, y값이 12인 경우, y축을 기준으로 대칭하여 x값이 -10이고, y값이 12인 좌표값(v2)을 산출할 수 있고, 원점을 기준으로 대칭하여 x값이 -10이고, y값이 -12인 좌표값(v2)을 산출할 수 있다.The
xy평면에서의 각 사분면에 설정된 복수의 카테고리에 대한 영역의 크기 및 위치는 모두 상이할 수 있고, 대칭된 좌표값(v2)과 가장 가까운 위치의 카테고리 또한 모두 상이할 수 있다. 즉, 제1사분면에 특정된 좌표값(v1)을 x축을 기준으로 대칭하였을 때 대칭되는 좌표값(v2)은 제4사분면에 특정되고, 제1사분면에 특정된 좌표값(v1)을 y축을 기준으로 대칭하였을 때 대칭되는 좌표값(v2)은 제2사분면에 특정되고, 제1사분면에 특정된 좌표값(v1)을 원점을 기준으로 대칭하였을 때 대칭되는 좌표값(v2)은 제3사분면에 특정될 수 있다. 이때, 제1사분면, 제2사분면, 제3사분면, 제4사분면 각각에 특정된 좌표값에서 가장 가까운 카테고리는 모두 상이할 수 있다. 한편, 모두 동일한 카테고리가 선정되는 것도 가능하며, 일부는 동일하고, 일부는 상이한 카테고리가 선정되는 것도 가능할 수 있다.Sizes and locations of regions for a plurality of categories set in each quadrant on the xy plane may all be different, and categories at locations closest to the symmetrical coordinate values v2 may also all be different. That is, when the coordinate value v1 specified in the first quadrant is symmetrical about the x-axis, the symmetrical coordinate value v2 is specified in the fourth quadrant, and the coordinate value v1 specified in the first quadrant is symmetrical about the y-axis. The coordinate value (v2) that is symmetrical when symmetrical about the reference is specified in the second quadrant, and the coordinate value (v2) that is symmetrical when the coordinate value (v1) specified in the first quadrant is symmetrical about the origin is the symmetrical coordinate value (v2) in the third quadrant can be specified in In this case, the categories closest to the coordinate values specified in the first quadrant, the second quadrant, the third quadrant, and the fourth quadrant may all be different. Meanwhile, it is possible that all the same categories are selected, and some of the same categories and some of the different categories may be selected.
컴퓨팅 장치(100)는 대칭된 좌표값으로부터 선정된 카테고리를 보완 카테고리로 선정하고, 보완 카테고리에 해당하는 형용사를 얼굴 분위기를 보완할 수 있는 보완 형용사로 결정하여 사용자에게 제공할 수 있다.The
본 발명의 실시 예에 따르면, 컴퓨팅 장치(100)는 쇼핑몰로부터 의류 정보를 획득할 수 있다. 의류 정보는 의류의 모양, 색, 사이즈, 판매처, 종류, 원단 등 의류와 관련된 모든 정보를 획득할 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the
컴퓨팅 장치(100)는 획득된 의류 정보를 기초로, 의류의 대표적인 분위기 정보를 결정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 해당 의류의 스타일, 유형, 색상 등 다양한 속성 정보에 기반하여 의류의 분위기를 결정할 수 있다.The
컴퓨팅 장치(100)는 결정된 의류의 분위기와, 사용자의 분위기가 일치하는 정보에 따라 사용자에게 의류 정보를 제공할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 사용자의 분위기와 의류의 분위기 사이의 3차원 거리 정보를 가공하여 사용자에게 어울리는 순서대로 의류 정보를 제공할 수 있다.The
혹은, 컴퓨팅 장치(100)는 사용자의 분위기를 보완할 수 있는 다른 분위기를 가진 의류를 추천할 수도 있다. 예를 들어, 사용자의 분위기와 어울리는 의류를 추천하여 사용자의 분위기를 강화할 수도 있으나, 사용자의 분위기와 상이한 다른 분위기의 의류를 추천하여 사용자의 분위기를 색다르게 바꾸도록 할 수도 있다.Alternatively, the
전술한 바와 같이 본 발명의 실시 예에 따르면, 사용자의 얼굴을 촬영한 이미지를 이용하여 얼굴의 특징을 분석하고, 사용자의 얼굴 분위기에 해당하는 형용사를 진단하여 사용자에게 제공하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램을 실현할 수 있다.As described above, according to an embodiment of the present invention, facial features are analyzed using a photographed image of the user's face, adjectives corresponding to the user's facial mood are diagnosed, and facial mood diagnosis using the provided image is provided to the user. A platform providing method, device, and program can be realized.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
100: 컴퓨팅 장치
200: 사용자 단말
300: 외부 서버100: computing device
200: user terminal
300: external server
Claims (11)
사용자로부터 얼굴을 촬영한 이미지를 획득하는 단계;
획득된 이미지 내에서 얼굴을 정의하는 복수의 기준점을 설정하는 단계;
설정된 상기 복수의 기준점들의 위치관계를 이용하여 얼굴의 서로 다른 특징을 나타내는 복수의 지수를 산출하고, 상기 복수의 지수 각각에 대응하는 좌표 값을 획득하는 단계;
복수의 카테고리 정보 및 상기 복수의 카테고리에 속하는 복수의 형용사 정보를 포함하는 좌표평면을 설정하는 단계;
상기 복수의 지수 중 제1 지수의 좌표 값을 이용하여, 상기 좌표평면 상에서의 상기 제1 지수의 위치를 특정하는 단계;
상기 제1 지수의 위치에 기초하여, 상기 제1 지수에 대응하는 카테고리를 선정하는 단계;
상기 제1 지수의 좌표 값에 기초하여, 상기 선정된 카테고리에 속하는 형용사 중 하나 이상의 형용사를 선정하는 단계; 및
상기 복수의 지수 각각에 대하여 선정된 형용사를, 상기 사용자의 얼굴 분위기에 해당하는 형용사로 결정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
In a method performed by a computing device,
Obtaining a photographed image of a face from a user;
setting a plurality of reference points defining a face in the obtained image;
calculating a plurality of indices representing different facial features by using the positional relationship of the plurality of set reference points, and obtaining coordinate values corresponding to each of the plurality of indices;
setting a coordinate plane including a plurality of category information and a plurality of adjective information belonging to the plurality of categories;
specifying a position of the first index on the coordinate plane by using a coordinate value of the first index among the plurality of indexes;
selecting a category corresponding to the first index based on the location of the first index;
selecting one or more adjectives from among adjectives belonging to the selected category based on the coordinate value of the first index; and
and determining an adjective selected for each of the plurality of indices as an adjective corresponding to the facial mood of the user.
상기 얼굴의 특징을 판단하는 단계는,
얼굴의 이목구비 각각을 지정하는 기준점 그룹을 획득하는 단계;
기준점 그룹에 해당하는 기준점들간의 위치관계를 판단하는 단계; 및
판단된 결과를 기초로 이목구비 형태를 정의하는 단계;를 포함하는 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
The step of determining the features of the face,
obtaining a reference point group designating each facial feature;
determining a positional relationship between reference points corresponding to a reference point group; and
A method for providing a platform for diagnosing facial mood using an image, comprising: defining a feature shape based on the determined result.
상기 하나 이상의 형용사를 선정하는 단계는,
상기 선정된 카테고리에 포함된 형용사를 기초로, 상기 사용자의 얼굴 분위기에 가장 매칭되는 대표 형용사, 상기 사용자의 얼굴 분위기를 강화하는 강화 형용사 및 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사 중 적어도 하나의 형용사를 결정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
The step of selecting one or more adjectives,
Based on the adjectives included in the selected category, at least one adjective among a representative adjective that best matches the facial mood of the user, a reinforcing adjective that enhances the facial mood of the user, and a supplementary adjective that complements the facial mood of the user A method for providing a platform for diagnosing a facial mood using an image, comprising: determining a.
상기 제1 지수의 위치와 가장 가까운 거리에 위치한 카테고리를 선정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
A method for providing a platform for diagnosing facial mood using images, including selecting a category located closest to the location of the first index.
상기 하나 이상의 형용사를 선정하는 단계는,
상기 선정된 카테고리에 해당하는 형용사들을 추출하는 단계; 및
추출된 형용사들 중 상기 선정된 카테고리의 특성에 따라 x값 또는 y값이 특정 기준을 만족하는 형용사를 선정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 5,
The step of selecting one or more adjectives,
extracting adjectives corresponding to the selected category; and
A method for providing a platform for diagnosing facial mood using images, comprising: selecting an adjective whose x value or y value satisfies a specific criterion according to the characteristics of the selected category from among the extracted adjectives.
상기 하나 이상의 형용사를 선정하는 단계는,
상기 추출된 형용사들 중 상기 제1 지수의 좌표값과 가까운 위치의 좌표값을 가지는 순서로 상기 추출된 형용사의 순서를 매기는 단계;
상기 형용사의 순서를 기초로 대표 형용사를 선정하는 단계; 및
순서가 매겨진 형용사 중 특정 순위까지의 형용사 및 대표 형용사 중 적어도 하나를 선정하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 6,
The step of selecting one or more adjectives,
arranging the order of the extracted adjectives in the order of having coordinate values of positions close to the coordinate values of the first exponent among the extracted adjectives;
selecting representative adjectives based on the order of the adjectives; and
A method of providing a platform for diagnosing facial mood using images, comprising: selecting at least one of adjectives up to a specific rank and representative adjectives among the adjectives in the order.
상기 선정된 형용사의 x값 및 y값을 기초로, x축, y축 및 원점을 기준으로 대칭되는 x값 및 y값을 산출하는 단계;
산출된 x값 및 y값에 해당하는 좌표값과 가장 가까운 거리에 위치한 카테고리를 선정하는 단계; 및
상기 선정된 카테고리에 해당하는 형용사를 상기 사용자의 얼굴 분위기를 보완하는 보완 형용사로 제공하는 단계;를 포함하는, 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 6,
Calculating x-values and y-values that are symmetrical about the x-axis, the y-axis, and the origin based on the x- and y-values of the selected adjective;
selecting a category located closest to coordinate values corresponding to the calculated x and y values; and
Providing an adjective corresponding to the selected category as a supplementary adjective that complements the user's facial mood.
쇼핑몰로부터 의류 정보를 획득하는 단계;
상기 의류 정보를 기초로, 의류의 분위기를 추출하는 단계; 및
상기 사용자에게 어울리는 분위기의 의류를 상기 사용자에게 제공하는 단계;를 포함하는,
이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법.
According to claim 1,
obtaining clothing information from a shopping mall;
extracting a mood of clothing based on the clothing information; and
Providing the user with clothing of an atmosphere suitable for the user; including,
A method for providing a facial mood diagnosis platform using images.
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1항의 방법을 수행하는, 장치.
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory;
By executing the one or more instructions, the processor:
An apparatus that performs the method of claim 1 .
A computer program stored in a computer-readable recording medium to be combined with a computer, which is hardware, to perform the method of claim 1.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220023628A KR102477338B1 (en) | 2022-02-23 | 2022-02-23 | Method, apparatus and program for providing facial mood diagnosis platform using image |
KR1020220171048A KR20230126635A (en) | 2022-02-23 | 2022-12-09 | Method, apparatus and program for providing facial mood diagnosis platform using image |
JP2023565229A JP2024516627A (en) | 2022-02-23 | 2023-02-21 | Method, device and program for providing a personal color diagnosis platform using images |
PCT/KR2023/002427 WO2023163477A1 (en) | 2022-02-23 | 2023-02-21 | Method, apparatus, and program for providing personal color diagnosis platform using image |
US18/492,965 US20240054680A1 (en) | 2022-02-23 | 2023-10-24 | Method, apparatus and program for providing personal color diagnosis platform using image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220023628A KR102477338B1 (en) | 2022-02-23 | 2022-02-23 | Method, apparatus and program for providing facial mood diagnosis platform using image |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220171048A Division KR20230126635A (en) | 2022-02-23 | 2022-12-09 | Method, apparatus and program for providing facial mood diagnosis platform using image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102477338B1 true KR102477338B1 (en) | 2022-12-14 |
Family
ID=84438523
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220023628A KR102477338B1 (en) | 2022-02-23 | 2022-02-23 | Method, apparatus and program for providing facial mood diagnosis platform using image |
KR1020220171048A KR20230126635A (en) | 2022-02-23 | 2022-12-09 | Method, apparatus and program for providing facial mood diagnosis platform using image |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220171048A KR20230126635A (en) | 2022-02-23 | 2022-12-09 | Method, apparatus and program for providing facial mood diagnosis platform using image |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102477338B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120046653A (en) * | 2010-11-02 | 2012-05-10 | 에스케이플래닛 주식회사 | System and method for recommending hair based on face and style recognition |
JP2014511520A (en) * | 2011-02-03 | 2014-05-15 | フェイスブック,インク. | System and method for relevance of image texting and text imaging |
KR101444816B1 (en) * | 2013-04-01 | 2014-09-26 | 한국과학기술연구원 | Image Processing Apparatus and Method for changing facial impression |
-
2022
- 2022-02-23 KR KR1020220023628A patent/KR102477338B1/en active IP Right Grant
- 2022-12-09 KR KR1020220171048A patent/KR20230126635A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120046653A (en) * | 2010-11-02 | 2012-05-10 | 에스케이플래닛 주식회사 | System and method for recommending hair based on face and style recognition |
JP2014511520A (en) * | 2011-02-03 | 2014-05-15 | フェイスブック,インク. | System and method for relevance of image texting and text imaging |
KR101444816B1 (en) * | 2013-04-01 | 2014-09-26 | 한국과학기술연구원 | Image Processing Apparatus and Method for changing facial impression |
Also Published As
Publication number | Publication date |
---|---|
KR20230126635A (en) | 2023-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6128309B2 (en) | Makeup support device, makeup support method, and makeup support program | |
JP6956389B2 (en) | Makeup support device and makeup support method | |
US11461384B2 (en) | Facial images retrieval system | |
US11010894B1 (en) | Deriving a skin profile from an image | |
KR102325829B1 (en) | Recommendation method for face-wearing products and device therefor | |
WO2021062998A1 (en) | Image processing method, apparatus and electronic device | |
US20200027244A1 (en) | Information processing apparatus, information processing method, and computer program product | |
US20220164852A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations | |
KR102274330B1 (en) | Face Image Analysis Method and System for Diagnosing Stroke | |
WO2023138345A1 (en) | Virtual image generation method and system | |
WO2023273247A1 (en) | Face image processing method and device, computer readable storage medium, terminal | |
WO2024140081A1 (en) | Method and apparatus for processing facial image, and computer device and storage medium | |
KR102477338B1 (en) | Method, apparatus and program for providing facial mood diagnosis platform using image | |
WO2020188924A1 (en) | Information processing device, search method, and non-transitory computer-readable medium having program stored thereon | |
JP5484101B2 (en) | Face type classification device, face type classification method, and recording medium storing program for realizing the method | |
CN111354478B (en) | Shaping simulation information processing method, shaping simulation terminal and shaping service terminal | |
JPH0767721A (en) | Hair dresser supporting device | |
US20230129243A1 (en) | Style profile engine | |
US20240054680A1 (en) | Method, apparatus and program for providing personal color diagnosis platform using image | |
US20230077452A1 (en) | Methods and Systems for Analyzing Skin and Providing Information Via a Graphical User Interface (GUI) | |
JP6128357B2 (en) | Makeup support device and makeup support method | |
CN114333018A (en) | Shaping information recommendation method and device and electronic equipment | |
KR102618610B1 (en) | Method, apparatus and program for providing personal color diagnosis platform using image | |
JP6757983B2 (en) | Evaluation device and evaluation system | |
CN112819921B (en) | Method, apparatus, device and storage medium for changing hairstyle of character |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |