KR102114273B1 - Method for personal image diagnostic providing and computing device for executing the method - Google Patents

Method for personal image diagnostic providing and computing device for executing the method Download PDF

Info

Publication number
KR102114273B1
KR102114273B1 KR1020190139513A KR20190139513A KR102114273B1 KR 102114273 B1 KR102114273 B1 KR 102114273B1 KR 1020190139513 A KR1020190139513 A KR 1020190139513A KR 20190139513 A KR20190139513 A KR 20190139513A KR 102114273 B1 KR102114273 B1 KR 102114273B1
Authority
KR
South Korea
Prior art keywords
type
image
user
personal image
test
Prior art date
Application number
KR1020190139513A
Other languages
Korean (ko)
Inventor
김미현
Original Assignee
김미현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김미현 filed Critical 김미현
Priority to KR1020190139513A priority Critical patent/KR102114273B1/en
Application granted granted Critical
Publication of KR102114273B1 publication Critical patent/KR102114273B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Marketing (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method for providing personal image diagnosis to provide a personal image corresponding to a user′s image and a computing device for executing the same. According to one embodiment of the present invention, the computing device, as a computing device which comprises one or more processors and a memory storing one or more programs executed by the one or more processors, comprises: a communication module acquiring a user′s facial image; a facial image analysis module performing pretreatment based on the facial image to generate a data set and classifying a type of a user′s personal image based on the data set through a first machine learning module; and an image matching module calculating suitability of a test type in accordance with the type of the user′s personal image; and a content providing module providing the user with the personal image type and the suitability of the test type.

Description

퍼스널 이미지 진단 제공방법 및 이를 수행하기 위한 컴퓨팅 장치{METHOD FOR PERSONAL IMAGE DIAGNOSTIC PROVIDING AND COMPUTING DEVICE FOR EXECUTING THE METHOD}METHOD FOR PERSONAL IMAGE DIAGNOSTIC PROVIDING AND COMPUTING DEVICE FOR EXECUTING THE METHOD}

본 발명의 실시예들은 퍼스널 이미지 진단 제공 기술과 관련된다.Embodiments of the present invention relate to techniques for providing personal image diagnostics.

퍼스널 컬러(Personal Color)란, 개인이 가지고 있는 신체 색, 분위기, 생김새 등에 따른 모든 스타일링에 있어서 가장 이상적인 조합을 나타내는 '색조'라고 할 수 있다. 퍼스널컬러는 색의 '조화'와 '조합'을 기본 개념으로 가지고 있다. 따라서 자연계의 가장 조화로운 색깔조합을 나타내기 위해 '계절별' 분류법을 사용한다. 계절별 분류는 봄, 여름, 가을, 겨울로 분류하는 것으로서 가장 널리 알려진 퍼스널 컬러 분류에 해당한다. 그러나 퍼스널 컬러를 단순히 네 가지 계절로만 분류하는 것은 다양한 개인의 특징을 반영할 수 없다.Personal color can be said to be the 'color tone' that represents the most ideal combination for all styling according to an individual's body color, mood, and appearance. Personal color has the basic concept of 'harmony' and 'combination' of colors. Therefore, 'seasonal' classification is used to represent the most harmonious color combination in nature. The seasonal classification is classified into spring, summer, autumn, and winter, and is the most popular personal color classification. However, simply classifying personal colors into four seasons cannot reflect the characteristics of various individuals.

즉, 사람의 이미지를 분석해주는 과정에서 4계절로 컬러로만 진단을 하여 해당하는 범위 안에서 메이크업컬러, 패션컬러, 헤어컬러를 추천해주는 것은 좁은 스펙트럼 안에서 객관성이 떨어지며, 실제 사람의 이미지와 잘 맞지 않는 문제점이 있다.In other words, in the process of analyzing a person's image, it is diagnosed only with color in four seasons, and recommending make-up color, fashion color, and hair color within the applicable range is less objectivity in the narrow spectrum, and does not fit well with the real person's image There is this.

대한민국 등록특허공보 제10-1563124호 (2015.10.20.)Republic of Korea Patent Registration No. 10-1563124 (2015.10.20.)

본 발명의 실시예들은 사용자의 얼굴 영상을 분석하여 사용자의 이미지를 진단하고, 사용자의 이미지에 맞는 퍼스널 이미지를 제공하기 위한 것이다.Embodiments of the present invention is to diagnose a user's image by analyzing a user's face image, and to provide a personal image suitable for the user's image.

또한, 본 발명의 실시예들은 사용자가 실제 원단을 테스트 유형별로 사용자의 얼굴 영상과 조합하여 해당 테스트 유형에 대한 적합도를 제공하기 위한 것이다.In addition, embodiments of the present invention is to provide a suitability for a test type by combining a real fabric with a user's face image for each test type.

본 발명의 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 사용자의 얼굴 영상을 획득하는 통신 모듈; 상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하고, 제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 얼굴 이미지 분석 모듈; 상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 이미지 매칭 모듈; 및 상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 콘텐츠 제공 모듈을 포함하는 컴퓨팅 장치가 제공된다.According to an exemplary embodiment of the present invention, a computing device having one or more processors, and a memory storing one or more programs executed by the one or more processors, comprising: a communication module for obtaining a face image of a user; A face image analysis module generating a data set by performing pre-processing based on the face image, and classifying the personal image type of the user based on the data set through a first machine learning module; An image matching module for calculating a suitability of a test type according to the user's personal image type; And a content providing module that provides the user with the suitability of the personal image type and the test type.

상기 제1 머신러닝 모듈은, 상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출할 수 있다.When the data set is input, the first machine learning module extracts a feature value of a preset feature point region using a convolutional neural network (CNN) model from the input data set, and a feature value of the extracted feature point region Similarity scores are calculated by comparing similarity with a previously produced personal image type based on, and one or more personal image types having a similarity score equal to or greater than the predetermined score among the personal image types may be detected.

상기 이미지 매칭 모듈은, 제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출할 수 있다.The image matching module may calculate the suitability of each of the test types for the personal image type based on the personal image type and the test type through a second machine learning module.

상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 콘텐츠 제공 모듈은, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하고, 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하면, 상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the content providing module divides the test type into color, pattern, pattern, or material, and provides the list. Upon receiving a user input for one of the provided test type lists, an image corresponding to the test type list may be combined with the face image of the user and provided to the user.

상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 콘텐츠 제공 모듈은, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하고, 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하면, 상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the content providing module divides the test type into color, pattern, pattern, or material, and provides the list. Upon receiving a user's input for one of the list of test types provided, the personal image type and the suitability of the input test type can be provided to the user.

상기 이미지 매칭 모듈은, 상기 컬러 유형에서 컬러별로 명도 및 채도에 대한 각각의 적합도를 산출하고, 상기 무늬 유형에서 무늬의 크기에 대한 각각의 적합도를 산출하며, 상기 패턴 유형에서 무늬의 종류에 대한 각각의 적합도를 산출하며, 소재 유형에서 소재의 유광, 무광 및 밀도에 대한 각각의 적합도를 산출할 수 있다.The image matching module calculates each suitability for brightness and saturation for each color in the color type, calculates each suitability for the size of a pattern in the pattern type, and each for a type of pattern in the pattern type Calculate the goodness of fit, and calculate the goodness of fit for the gloss, matte and density of the material in the material type.

본 발명의 다른 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 사용자의 얼굴 영상을 획득하는 단계; 상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하는 단계; 제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 단계; 상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 단계; 및 상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함하는 방법이 제공된다.According to another exemplary embodiment of the present invention, as a method performed in a computing device having one or more processors, and a memory storing one or more programs executed by the one or more processors, obtaining a face image of a user To do; Generating a data set by performing pre-processing based on the face image; Classifying the personal image type of the user based on the data set through a first machine learning module; Calculating a goodness of fit of the test type according to the user's personal image type; And providing the fitness of the personal image type and the test type to the user.

상기 제1 머신러닝 모듈은, 상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출하며, 상기 적합도를 산출하는 단계는, 제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출할 수 있다.When the data set is input, the first machine learning module extracts a feature value of a preset feature point region using a convolutional neural network (CNN) model from the input data set, and a feature value of the extracted feature point region Calculating similarity scores by comparing similarities with previously produced personal image types based on, detecting one or more personal image types having similarity scores equal to or greater than the preset score among the personal image types, and calculating the fitness , May calculate the suitability of each of the test types for the personal image type based on the personal image type and the test type through a second machine learning module.

상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 사용자에게 제공하는 단계는, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하는 단계; 상기 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하는 단계; 및 상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공하는 단계를 포함할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the providing step to the user provides the test type as a list by dividing the test type into color, pattern, pattern, or material. To do; Receiving a user input for one of the provided test type lists; And combining the image corresponding to the test type list with the face image of the user and providing the image to the user.

상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 사용자에게 제공하는 단계는, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하는 단계; 상기 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하는 단계; 및 상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the providing step to the user provides the test type as a list by dividing the test type into color, pattern, pattern, or material. To do; Receiving a user input for one of the provided test type lists; And providing suitability of the personal image type and the input test type to the user.

본 발명의 실시예들에 따르면, 사용자의 얼굴 영상을 분석하여 사용자의 이미지를 진단하고, 사용자의 이미지에 맞는 퍼스널 이미지를 제공할 수 있다. According to embodiments of the present invention, a user's image may be diagnosed by analyzing a user's face image, and a personal image suitable for the user's image may be provided.

또한, 본 발명의 실시예들에 따르면, 사용자가 실제 원단을 테스트 유형별로 사용자의 얼굴 영상과 조합하여 해당 테스트 유형에 대한 적합도를 확인함으로써, 사용자의 이미지를 정확하게 알 수 있다.In addition, according to embodiments of the present invention, the user can accurately know the image of the user by checking the suitability for the test type by combining the actual fabric with the user's face image for each test type.

도 1은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 구성을 나타낸 도면
도 2는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 스마트 기기의 구성을 나타낸 블록도
도 3은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버의 구성을 나타낸 블록도
도 4는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버에서 이미지 분석 모듈 및 이미지 매칭 모듈을 설명하기 위한 블록도
도 5 및 도 6은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공서비스가 제공되는 스마트 기기의 화면을 나타낸 도면
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
1 is a view showing the configuration of a personal image diagnosis providing system according to an embodiment of the present invention
2 is a block diagram showing the configuration of a smart device in a personal image diagnosis providing system according to an embodiment of the present invention
3 is a block diagram showing the configuration of a management server in a personal image diagnosis providing system according to an embodiment of the present invention
4 is a block diagram illustrating an image analysis module and an image matching module in the management server of the personal image diagnosis providing system according to an embodiment of the present invention
5 and 6 are views showing a screen of a smart device provided with a personal image diagnosis providing service according to an embodiment of the present invention
7 is a block diagram illustrating and illustrating a computing environment including a computing device suitable for use in example embodiments.

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to aid in a comprehensive understanding of the methods, devices and / or systems described herein. However, this is only an example and the present invention is not limited thereto.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, when it is determined that a detailed description of known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification. The terminology used in the detailed description is only for describing embodiments of the present invention and should not be limiting. Unless expressly used otherwise, a singular form includes a plural form. In this description, expressions such as “including” or “equipment” are intended to indicate certain characteristics, numbers, steps, actions, elements, parts or combinations thereof, and one or more other than described. It should not be interpreted to exclude the presence or possibility of other characteristics, numbers, steps, actions, elements, or parts or combinations thereof.

이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다. In the following description, the terms “transmission”, “communication”, “transmission”, “reception” and the like of a signal or information are not only those in which a signal or information is transmitted directly from one component to another. This includes passing through other components. In particular, "transmitting" or "transmitting" a signal or information to a component indicates the final destination of the signal or information, not a direct destination. The same is true for the "reception" of a signal or information. Also, in this specification, when two or more data or information is “related” means that acquiring one data (or information) may acquire at least a portion of the other data (or information) based thereon.

한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, an embodiment of the present invention may include a program for performing the methods described herein on a computer, and a computer-readable recording medium including the program. The computer-readable recording medium may include program instructions, local data files, local data structures, or the like alone or in combination. The media may be specially designed and constructed for the present invention, or may be commonly used in the field of computer software. Examples of computer readable recording media include specially configured to store and execute magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs, DVDs, and program instructions such as ROM, RAM, and flash memory. Hardware devices are included. Examples of the program may include high-level language codes that can be executed by a computer using an interpreter as well as machine language codes made by a compiler.

도 1은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 구성을 나타낸 도면이고, 도 2는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 스마트 기기의 구성을 나타낸 블록도이며, 도 3은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버의 구성을 나타낸 블록도이며, 도 4는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버에서 이미지 분석 모듈 및 이미지 매칭 모듈을 설명하기 위한 블록도이다.1 is a block diagram showing the configuration of a personal image diagnosis providing system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing the configuration of a smart device of a personal image diagnosis providing system according to an embodiment of the present invention, 3 is a block diagram showing the configuration of a management server of a personal image diagnosis providing system according to an embodiment of the present invention, and FIG. 4 is an image analysis module in a management server of a personal image diagnosis providing system according to an embodiment of the present invention And a block diagram for describing the image matching module.

도 1 내지 도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이미지 진단 제공 시스템은 스마트 기기(100) 및 관리 서버(200)를 포함할 수 있다. 스마트 기기(100) 및 관리 서버(200)는 통신 네트워크를 통해 통신 가능하게 연결된다. 1 to 4, an image diagnosis providing system according to an embodiment of the present invention may include a smart device 100 and a management server 200. The smart device 100 and the management server 200 are communicatively connected through a communication network.

이하의 설명에 있어서, "영상"은 카메라 등과 같은 촬영장치를 이용하여 촬영한 영상, 즉, 사진과 같은 이미지를 의미하며, "이미지"는 어떤 사물이나 대상에 대하여 개인의 내면에서 떠오르는 직관적 인상 혹은 표상이나 심상을 의미한다. 즉, 개시되는 실시예에서, 퍼스널 이미지(personal image)를 진단하는 것은 개인이 가지고 있는 특징에 따라 느껴지는 개인의 인상 또는 느낌을 판단하는 것을 의미한다.In the following description, "image" refers to an image photographed using a photographing device such as a camera, that is, an image such as a photograph, and "image" refers to an intuitive impression that emerges from the inside of an individual about an object or object, or It means representation or image. That is, in the disclosed embodiment, diagnosing a personal image means determining an impression or feeling of an individual felt according to characteristics of the individual.

몇몇 실시 예들에서, 통신 네트워크는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wire area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.In some embodiments, the communication network includes the Internet, one or more local area networks, wire area networks, cellular networks, mobile networks, other types of networks, or combinations of these networks. can do.

스마트 기기(100)는 무선 통신을 사용할 수 있는 스마트 폰, 태블릿 PC 등으로서, 스마트 기기(100)는 촬영부(110), 통신부(120) 및 디스플레이부(130)를 포함할 수 있다.The smart device 100 is a smart phone, a tablet PC, and the like that can use wireless communication, and the smart device 100 may include a photographing unit 110, a communication unit 120, and a display unit 130.

촬영부(110)는 사용자의 얼굴을 촬영할 수 있다. 촬영부(110)는 스마트 기기(100) 등의 단말에 일체로 형성될 수 있다. 구체적으로, 촬영부(110)는 스마트 기기(100) 등의 단말에 일체로 형성되어 사용자의 얼굴을 촬영할 수 있다. 촬영부(110)는 촬영된 영상을 통신부(120)를 통하여 관리 서버(200)로 제공할 수 있다. 예를 들어, 도 5와 같이, 스마트 기기(100)가 구비한 촬영부(110)를 이용하여 영상 촬영을 수행하는 것을 보여준다. 촬영부(110)를 이용하여 영상을 촬영할 경우에는 사용자에게 권장 사항을 제시할 수 있다. 영상 촬영 시에는 정확한 진단을 위하여 얼굴의 정면 영상이 필요하고, 조도와 같은 주변 환경에 따른 컬러 변화, 카메라 모듈의 성능에 따른 컬러 변화가 발생할 수 있기 때문에, 정면으로 촬영할 것, 자연광에서 촬영할 것, 피부색이 최대한 잘 드러나는 환경에서 촬영할 것, 가장 자연스러운 모습으로 촬영할 것을 권장할 수 있다.The photographing unit 110 may photograph a user's face. The photographing unit 110 may be integrally formed with a terminal such as the smart device 100. Specifically, the photographing unit 110 may be integrally formed with a terminal such as the smart device 100 to photograph a user's face. The photographing unit 110 may provide the photographed image to the management server 200 through the communication unit 120. For example, as shown in FIG. 5, it is shown that the image capturing is performed using the photographing unit 110 of the smart device 100. When taking an image using the photographing unit 110, recommendations may be provided to the user. When taking an image, the front image of the face is required for accurate diagnosis, and color change according to the surrounding environment such as illuminance and color change according to the performance of the camera module may occur, so shoot in front, shoot in natural light, We recommend that you shoot in an environment where the skin color is best exposed, and in the most natural way.

통신부(120)는 촬영된 영상을 네트워크를 통하여 관리 서버(200)로 전송할 수 있다. 또한, 통신부(120)는 관리 서버(200)로부터 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형을 테스트할 수 있도록 구현된 대입진단 콘텐츠를 수신할 수 있다. 통신부(120)는 관리 서버(200)로부터 퍼스널 이미지 유형 및 테스트 유형의 적합도를 수신할 수 있다.The communication unit 120 may transmit the captured image to the management server 200 through a network. In addition, the communication unit 120 may receive the assignment diagnosis content implemented so that the user can test the color type, pattern type, pattern type, and material type from the management server 200. The communication unit 120 may receive the fitness of the personal image type and the test type from the management server 200.

디스플레이부(130)는 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형을 테스트할 수 있도록 구현된 대입진단 콘텐츠를 화면에 표시할 수 있다. 디스플레이부(130)는 스마트 기기(100)의 화면을 통하여 대입진단 콘텐츠를 출력할 수 있다. 대입진단 콘텐츠는 스마트 기기(100)의 화면을 통하여 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 테스트를 진행할 수 있다. 여기서, 대입진단 콘텐츠는 컬러 유형에서 원단 컬러별로 명도 및 채도에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 무늬 유형에서 원단 무늬의 크기에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 패턴 유형에서 원단 무늬의 종류(예를 들어, 물방울 무늬, 기하학 무늬, 체크 무늬, 스프라이트 무늬, 무지 등)에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 소재 유형에서 원단 소재의 유광, 무광 및 밀도에 대하여 테스트 할 수 있다.The display 130 may display the screening diagnosis contents implemented on the screen so that the user can test the color type, pattern type, pattern type, and material type. The display unit 130 may output the assignment diagnosis content through the screen of the smart device 100. The assignment diagnosis content can be tested by the user for the color type, pattern type, pattern type, and material type through the screen of the smart device 100. Here, the assignment diagnosis content can be tested for brightness and saturation for each color of the fabric in the color type. In addition, the assignment diagnosis content can be tested for the size of the fabric pattern in the pattern type. In addition, the assignment diagnosis content can be tested for the type of fabric pattern (for example, polka dot, geometric pattern, checkered pattern, sprite pattern, plain fabric, etc.) from the pattern type. In addition, the assignment diagnosis content can be tested for the gloss, matte and density of the fabric material in the material type.

또한, 디스플레이부(130)는 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 표시할 수 있다. 디스플레이부(130)는 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 스마트 기기(100) 상에서 출력할 수 있도록 가공하여 스마트 기기(100)의 화면을 통하여 출력할 수 있다.In addition, the display 130 may display a user's personal image type and test type suitability. The display unit 130 may process the user's personal image type and test type fitness to be output on the smart device 100 and output the screen through the screen of the smart device 100.

이 때, 본 발명의 일 실시예에 따른 스마트 기기(100)는 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션이 설치될 수 있다. 상기 어플리케이션은 스마트 기기(100)의 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 상기 어플리케이션은 스마트 기기(100)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다. 상기 명령어는 스마트 기기(100)의 프로세서로 하여금 예시적인 실시예에 따른 동작을 수행하게 할 수 있다. 스마트 기기(100)의 컴퓨터 판독 가능 저장 매체는 스마트 기기(100) 상에서 상기 어플리케이션과 같은 명령어 집합을 실행하기 위한 운영 체제의 컴포넌트들을 포함한다. 예를 들어, 이러한 운영 체제는 애플(Apple) 사의 iOS 또는 구글(Google) 사의 Android 일 수 있다.At this time, an application for providing an image diagnosis providing service may be installed in the smart device 100 according to an embodiment of the present invention. The application may be stored in a computer-readable storage medium of the smart device 100. The application includes a predetermined set of instructions executable by the processor of the smart device 100. The command may cause the processor of the smart device 100 to perform an operation according to an exemplary embodiment. The computer-readable storage medium of the smart device 100 includes components of an operating system for executing a set of instructions such as the application on the smart device 100. For example, such an operating system may be Apple's iOS or Google's Android.

여기서, 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션은 사용자의 정보를 입력할 수 있는 입력 인터페이스를 제공할 수 있으며, 입력 인터페이스를 통하여 사용자 데이터를 입력 받을 수 있다. 예를 들어, 사용자의 성명, 성별, 나이 및 스마트 기기(100) 번호 등을 입력할 수 있는 입력 인터페이스를 사용자에게 제공할 수 있다.Here, the application for providing the image diagnosis providing service may provide an input interface for inputting user information, and may receive user data through the input interface. For example, an input interface for inputting a user's name, gender, age, and smart device 100 number may be provided to the user.

한편, 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션은 이상에서 설명한 기능 외에도 다양한 분석 처리 및 정보 제공 동작을 수행하도록 설정될 수 있다. 예를 들어, 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션은 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 기 설정된 웹 서버(예를 들어, SNS 서버)로 업로드 또는 백업하거나, 기 설정된 웹 서버로부터 사용자의 정보에 매칭되는 기 등록된 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 획득하여 디스플레이부(130)를 통해 표시할 수 있다. Meanwhile, an application for providing an image diagnosis providing service may be set to perform various analysis processing and information providing operations in addition to the functions described above. For example, an application for providing an image diagnosis providing service uploads or backs up the suitability of a user's personal image type and test type to a preset web server (for example, an SNS server), or from a preset web server. The suitability of the personal image type and the test type of the pre-registered user matching the information may be acquired and displayed through the display unit 130.

관리 서버(200)는 통신 모듈(210), 저장 모듈(220), 얼굴 이미지 분석 모듈(230), 이미지 매칭 모듈(240) 및 콘텐츠 제공 모듈(250)을 포함할 수 있다.The management server 200 may include a communication module 210, a storage module 220, a face image analysis module 230, an image matching module 240, and a content providing module 250.

통신 모듈(210)은 스마트 기기(100)로부터 촬영된 영상을 네트워크를 통하여 수신할 수 있다. 통신 모듈(210)은 스마트 기기(100)로부터 사용자 정보를 네트워크를 통하여 수신할 수 있다. 또한, 통신 모듈(210)은 대입진단 콘텐츠를 스마트 기기(100)로 전송할 수 있다. 통신 모듈(210)은 퍼스널 이미지 유형 및 테스트 유형의 적합도를 스마트 기기(100)로 전송할 수 있다.The communication module 210 may receive an image captured from the smart device 100 through a network. The communication module 210 may receive user information from the smart device 100 through a network. In addition, the communication module 210 may transmit the assignment diagnosis content to the smart device 100. The communication module 210 may transmit the fitness of the personal image type and the test type to the smart device 100.

저장 모듈(220)은 통신 모듈(210)을 통하여 수신한 사용자 정보 및 촬영된 영상을 저장할 수 있다. 또한, 저장 모듈(220)은 기 촬영된 사용자의 영상을 저장할 수 있다. 또한, 저장 모듈(220)은 테스트 유형에 대한 영상을 저장할 수 있다. 여기서, 테스트 유형은 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형를 포함할 수 있다. 또한, 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 영상은 각각의 테스트 유형에 대한 실제 원단을 촬영한 영상일 수 있다.The storage module 220 may store user information and photographed images received through the communication module 210. Also, the storage module 220 may store an image of a pre-recorded user. Also, the storage module 220 may store an image for the test type. Here, the test type may include a color type, a pattern type, a pattern type, and a material type. In addition, images for color type, pattern type, pattern type, and material type may be images of actual fabrics for each test type.

얼굴 이미지 분석 모듈(230)은 촬영부(110)로부터 촬영된 영상에서 얼굴 영상을 추출하고, 추출된 얼굴 영상으로부터 머신러닝(Machine Learning) 기반 기술을 사용하여 사용자의 퍼스널 이미지(personal image) 유형을 판단할 수 있다. 여기서, 퍼스널 이미지(personal image)를 진단하는 것은 개인이 가지고 있는 특징에 따라 느껴지는 개인의 인상 또는 느낌을 판단하는 것을 의미한다. 얼굴 이미지 분석 모듈(230)은 전처리 모듈(231) 및 제1 머신러닝 모듈(233)을 포함할 수 있다. The face image analysis module 230 extracts a face image from the image captured from the photographing unit 110 and uses a machine learning-based technology from the extracted face image to determine a user's personal image type. I can judge. Here, diagnosing a personal image means determining an individual's impression or feeling according to characteristics of the individual. The face image analysis module 230 may include a pre-processing module 231 and a first machine learning module 233.

전처리 모듈(231)은 촬영부(110)로부터 촬영된 영상에서 얼굴 영상을 추출하고 샤프닝(Sharpening) 처리를 수행하여 데이터 세트를 생성할 수 있다. 즉, 촬영부(110)로부터 촬영된 영상은 촬영 환경으로 인해 얼굴 영상이 흐릿하게 될 수 있다. 이에, 각 영상에 대해 샤프닝 처리를 수행함으로써, 영상의 특징점을 선명하게 하여 선명도를 높일 수 있다. The pre-processing module 231 may extract a face image from the image photographed from the photographing unit 110 and perform a sharpening process to generate a data set. That is, the image captured by the photographing unit 110 may blur the face image due to the photographing environment. Accordingly, sharpening may be performed by sharpening the feature points of the image by performing a sharpening process on each image.

전처리 모듈(231)은 생성된 데이터 세트를 머신러닝(Machine Learning) 모듈로 전달할 수 있다. 전처리 모듈(231)은 샤프닝 처리 기법을 사용할 수 있으나, 이에 한정되는 것은 아니며, 블러, 가우시안, 기하학적 처리등을 더 수행할 수 있다.The pre-processing module 231 may transmit the generated data set to a machine learning module. The pre-processing module 231 may use a sharpening processing technique, but is not limited thereto, and may further perform blur, Gaussian, geometric processing, and the like.

제1 머신러닝 모듈(233)은 생성된 데이터 세트를 입력받아 데이터 세트에서 사용자의 퍼스널 이미지(persomal image) 유형을 분류할 수 있다. 제1 머신러닝 모듈(233)은 데이터 세트가 입력되는 경우, 이미 학습된 퍼스널 이미지 분류 모델을 기반으로 데이터 세트에서 사용자의 퍼스널 이미지 유형을 분류할 수 있다. The first machine learning module 233 may receive the generated data set and classify a user's personal image type in the data set. When the data set is input, the first machine learning module 233 may classify the personal image type of the user from the data set based on the already learned personal image classification model.

예시적인 실시예에서, 제1 머신러닝 모듈(233)은 머신러닝 또는 딥러닝 기술로 CNN(Convolutional Neural Network) 모델을 이용하여 데이터 세트에서 기 설정된 특징점 영역의 특징값을 각각 추출할 수 있다. 구체적으로, 제1 머신러닝 모듈(233)은 샤프닝 영상(샤프닝 처리를 수행한 얼굴 영상)의 기 설정된 특징점 영역의 특징값을 추출할 수 있다. In an exemplary embodiment, the first machine learning module 233 may extract feature values of a predetermined feature point region from a data set using a convolutional neural network (CNN) model as a machine learning or deep learning technique. Specifically, the first machine learning module 233 may extract a feature value of a preset feature point region of a sharpening image (a face image that has undergone sharpening processing).

또한, 제1 머신러닝 모듈(233)은 기 설정된 특징점 영역에 대해 퍼스널 이미지 유형을 분류하기 위한 유사성 점수를 산출할 수 있다. 구체적으로, 제1 머신러닝 모듈(233)은 추출된 특징점 영역의 특징 값을 기반으로 기 제작된 퍼스널 이미지 유형(예를 들어, 얼굴 영상의 특징 값에 따라 미리 분류된 이미지 유형)과의 유사성을 비교하여 유사성 점수를 산출할 수 있다. 예를 들어, 제1 머신러닝 모듈(233)은 Inception Model을 이용할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 퍼스널 이미지 유형은 기 공지되어 분류된 22가지 유형일 수 있으며, 큐트, 스포티, 클리어 스포티, 캐주얼, 소프트 캐주얼, 에스닉, 다이나믹, 와일드, 로맨틱, 페미닌, 엘레강스, 소프트 엘레강스, 소프트모던, 하드모던, 댄디, 포멀, 노블, 내추럴, 트래디셔널, 클래식, 고져스, 엘레강스 고져스을 포함할 수 있다. 한편, 여기서는 기 분류된 22가지 유형으로 퍼스널 이미지 유형을 분류하였으나, 이에 한정되는 것은 아니며, 기 공지된 이미지 유형을 추가할 수 있으며, 기 분류된 22가지 유형을 그룹화하여 분류할 수 있다.Also, the first machine learning module 233 may calculate a similarity score for classifying the personal image type with respect to the predetermined feature point area. Specifically, the first machine learning module 233 compares the similarity with the previously created personal image type (for example, an image type pre-classified according to the feature value of the face image) based on the feature value of the extracted feature point region. Similarity scores can be calculated by comparison. For example, the first machine learning module 233 may use an Inception Model, but is not limited thereto. Here, the personal image type may be 22 types classified as previously known, cute, sporty, clear sporty, casual, soft casual, ethnic, dynamic, wild, romantic, feminine, elegance, soft elegance, softmodern, hardmodern, Dandy, formal, noble, natural, traditional, classic, gorgeous, elegance gorgeous. Meanwhile, the personal image type is classified into 22 types that have been previously classified, but the present invention is not limited thereto, and the previously known image types can be added, and the 22 types previously classified can be grouped and classified.

또한, 제1 머신러닝 모듈(233)은 퍼스널 이미지 유형에서 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형으로 분류할 수 있다.Also, the first machine learning module 233 may classify the personal image type into one or more personal image types having similarity scores equal to or greater than a preset score.

이미지 매칭 모듈(240)은 퍼스널 이미지 유형으로부터 머신러닝(Machine Learning) 기반 기술을 사용하여 퍼스널 이미지 유형에 대한 각각의 테스트 유형(예를 들어, 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형)의 적합도를 산출할 수 있다. 이미지 매칭 모듈(240)은 제2 머신러닝 모듈(243)을 포함할 수 있다. The image matching module 240 uses machine learning based technology from the personal image type to fit each test type (eg, color type, pattern type, pattern type, material type) for the personal image type Can be calculated. The image matching module 240 may include a second machine learning module 243.

제2 머신러닝 모듈(243)은 머신러닝 기술 또는 딥러닝 기술을 이용할 수 있다. 이 경우, 제2 머신러닝 모듈(243)은 퍼스널 이미지 유형과 사용자가 선택한 테스트 유형이 입력되는 경우, 이미 학습된 적합도 분류 모델을 기반으로 각각의 테스트 유형의 적합도를 산출할 수 있다. The second machine learning module 243 may use machine learning technology or deep learning technology. In this case, when the personal image type and the user-selected test type are input, the second machine learning module 243 may calculate the suitability of each test type based on the already-trained fitness classification model.

예시적인 실시예에서, 제2 머신러닝 모듈(243)은 퍼스널 이미지 유형과 사용자가 선택한 테스트 유형이 입력되는 경우, 입력된 퍼스널 이미지 유형과 테스트 유형에서 테스트 유형의 적합도를 산출하여 출력하도록 학습된 회귀 모델(regression model)일 수 있다. 회귀 모델은 다중 선형 회귀 모델(Multiple linear regression model)또는 신경망(Neural Network)일 수 있다. 제2 머신 러닝 모듈(243)은 퍼스널 이미지 유형에 대한 테스트 유형의 유의성을 비교하여 해당 유의성에 대한 테스트 유형의 적합도를 산출할 수 있다. 예를 들어, 제2 머신 러닝 모듈(243)은 얼굴 이미지 분석 모듈(230)에서 선택된 퍼스널 이미지 유형에 대하여 각각의 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 적합도를 산출할 수 있다. 컬러 유형에서는 원단 컬러별로 명도 및 채도에 대한 각각의 적합도를 산출할 수 있다. 또한, 무늬 유형에서는 원단 무늬의 크기에 대한 각각의 적합도를 산출할 수 있다. 또한, 패턴 유형에서는 원단 무늬의 종류(예를 들어, 물방울 무늬, 기하학 무늬, 체크 무늬, 스프라이트 무늬, 무지 등)에 대한 각각의 적합도를 산출할 수 있다. 또한, 소재 유형에서는 원단 소재의 유광, 무광 및 밀도에 대한 각각의 적합도를 산출할 수 있다. In an exemplary embodiment, the second machine learning module 243, when the personal image type and the test type selected by the user are input, regression learned to calculate and output the fitness of the test type from the input personal image type and the test type. It may be a regression model. The regression model may be a multiple linear regression model or a neural network. The second machine learning module 243 may compare the significance of the test type with respect to the personal image type to calculate the fitness of the test type with respect to the significance. For example, the second machine learning module 243 may calculate the suitability for each color type, pattern type, pattern type, and material type for the personal image type selected in the face image analysis module 230. In the color type, each suitability for brightness and saturation can be calculated for each color of fabric. In addition, in the pattern type, each suitability for the size of the fabric pattern can be calculated. In addition, in the pattern type, each suitability for the type of the fabric pattern (for example, a polka dot pattern, a geometric pattern, a check pattern, a sprite pattern, a plain fabric, etc.) can be calculated. In addition, in the material type, each suitability for gloss, matte and density of the fabric material can be calculated.

콘텐츠 제공 모듈(250)은 스마트 기기(100)를 통하여 사용자가 확인할 수 있는 화면으로 제공하며, 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형을 테스트할 수 있도록 구현된 대입진단 콘텐츠를 스마트 기기(100)로 제공할 수 있다. 대입진단 콘텐츠는 스마트 기기(100)의 화면을 통하여 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 테스트를 진행할 수 있다. 즉, 사용자가 스마트 기기(100)의 화면을 통하여 사용자의 얼굴 영상과 각 테스트 유형을 조합할 수 있다. 예를 들어, 도 6과 같이, 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형 중 하나를 선택하여 실제 원단 영상을 사용자의 얼굴과 조합하여 스마트 기기(100)의 화면을 통하여 출력할 수 있다. 여기서, 대입진단 콘텐츠는 컬러 유형에서 원단 컬러별로 명도 및 채도에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 무늬 유형에서 원단 무늬의 크기에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 패턴 유형에서 원단 무늬의 종류(예를 들어, 물방울 무늬, 기하학 무늬, 체크 무늬, 스프라이트 무늬, 무지 등)에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 소재 유형에서 원단 소재의 유광, 무광 및 밀도에 대하여 테스트 할 수 있다.The content providing module 250 provides a screen through which the user can check through the smart device 100, and provides an input diagnostic content implemented so that the user can test the color type, pattern type, pattern type, and material type. It can be provided as (100). The assignment diagnosis content can be tested by the user for the color type, pattern type, pattern type, and material type through the screen of the smart device 100. That is, the user can combine the face image of the user and each test type through the screen of the smart device 100. For example, as shown in FIG. 6, one of color type, pattern type, pattern type, and material type may be selected and the actual fabric image may be combined with the user's face and output through the screen of the smart device 100. Here, the assignment diagnosis content can be tested for brightness and saturation for each color of the fabric in the color type. In addition, the assignment diagnosis content can be tested for the size of the fabric pattern in the pattern type. In addition, the assignment diagnosis content can be tested for the type of fabric pattern (for example, polka dot pattern, geometric pattern, check pattern, sprite pattern, plain fabric, etc.) from the pattern type. In addition, the assignment diagnosis content can be tested for the gloss, matte and density of the fabric material in the material type.

또한, 콘텐츠 제공 모듈(250)은 사용자가 테스트 유형을 선택하면, 사용자의 퍼스널 이미지 유형에 대한 해당 테스트 유형의 적합도를 표시할 수 있다. 또한, 콘텐츠 제공 모듈(250)은 이미지 매칭 모듈(240)로부터 선택된 퍼스널 이미지 유형을 표시할 수 있다. 구체적으로, 콘텐츠 제공 모듈(250)은 사용자가 테스트 유형을 선택하면, 이미지 매칭 모듈(240)로부터 산출된 해당 테스트 유형의 적합도를 표시할 수 있다. 또한, 콘텐츠 제공 모듈(250)은 사용자가 테스트 유형을 선택하면, 기 설정된 점수 이상의 유사성 점수를 받은 퍼스널 이미지 유형과 함께 해당 테스트 유형의 적합도를 표시할 수 있다.In addition, when the user selects a test type, the content providing module 250 may display the suitability of the test type for the user's personal image type. Also, the content providing module 250 may display a personal image type selected from the image matching module 240. Specifically, when the user selects a test type, the content providing module 250 may display the suitability of the corresponding test type calculated from the image matching module 240. In addition, when the user selects a test type, the content providing module 250 may display the suitability of the test type together with the personal image type that has received a similarity score equal to or greater than a preset score.

따라서, 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템은 사용자의 얼굴 영상을 분석하여 사용자의 이미지를 진단할 수 있고, 사용자의 이미지에 맞는 퍼스널 이미지를 제공할 수 있다. Therefore, the personal image diagnosis providing system according to an embodiment of the present invention can analyze a user's face image to diagnose a user's image and provide a personal image suitable for the user's image.

또한, 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템은 사용자가 실제 원단을 유형별로 사용자의 얼굴 영상과 조합하여 해당 유형에 대한 적합도를 확인함으로써, 사용자가 직접 테스트 유형을 매칭할 수 있도록 지원하여 사용자의 이미지를 정확하게 알 수 있다.In addition, the personal image diagnosis providing system according to an embodiment of the present invention enables the user to directly match the test type by confirming the suitability for the type by combining the actual fabric with the user's face image for each type. By doing so, the user's image can be accurately known.

도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.7 is a block diagram illustrating and illustrating a computing environment including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities in addition to those described below, and may include additional components in addition to those described below.

도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 스마트 기기(100)일 수 있다. 또한, 컴퓨팅 장치(12)는 관리 서버(200)일 수 있다.The illustrated computing environment 10 includes a computing device 12. In one embodiment, computing device 12 may be smart device 100. Further, the computing device 12 may be the management server 200.

컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The computing device 12 includes at least one processor 14, a computer readable storage medium 16 and a communication bus 18. The processor 14 can cause the computing device 12 to operate in accordance with the exemplary embodiment mentioned above. For example, processor 14 may execute one or more programs stored on computer readable storage medium 16. The one or more programs may include one or more computer-executable instructions, which, when executed by the processor 14, configure the computing device 12 to perform operations according to an exemplary embodiment. Can be.

컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer readable storage medium 16 is configured to store computer executable instructions or program code, program data and / or other suitable types of information. The program 20 stored on the computer readable storage medium 16 includes a set of instructions executable by the processor 14. In one embodiment, the computer-readable storage medium 16 is a memory (volatile memory such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash Memory devices, other types of storage media that can be accessed by the computing device 12 and store desired information, or suitable combinations thereof.

통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.The communication bus 18 interconnects various other components of the computing device 12, including a processor 14 and a computer readable storage medium 16.

컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.Computing device 12 may also include one or more I / O interfaces 22 and one or more network communication interfaces 26 that provide an interface for one or more I / O devices 24. The input / output interface 22 and the network communication interface 26 are connected to the communication bus 18. The input / output device 24 may be connected to other components of the computing device 12 through the input / output interface 22. Exemplary input / output devices 24 include pointing devices (such as a mouse or trackpad), keyboards, touch input devices (such as touch pads or touch screens), voice or sound input devices, various types of sensor devices, and / or imaging devices. Input devices and / or output devices such as display devices, printers, speakers, and / or network cards. The exemplary input / output device 24 is a component constituting the computing device 12 and may be included in the computing device 12 or connected to the computing device 12 as a separate device distinct from the computing device 12. It might be.

이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the exemplary embodiments of the present invention have been described in detail above, those skilled in the art to which the present invention pertains will understand that various modifications are possible within the limits of the embodiments described above without departing from the scope of the present invention. . Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims to be described later, but also by the claims and equivalents.

100 : 스마트 기기
110 : 촬영부
120 : 통신부
130 : 디스플레이부
200 : 관리 서버
210 : 통신 모듈
220 : 저장 모듈
230 : 얼굴 이미지 분석 모듈
240 : 이미지 매칭 모듈
250 : 콘텐츠 제공 모듈
100: smart device
110: filming unit
120: communication unit
130: display unit
200: management server
210: communication module
220: storage module
230: face image analysis module
240: image matching module
250: content providing module

Claims (10)

하나 이상의 프로세서들, 및
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서,
사용자의 얼굴 영상을 획득하는 통신 모듈;
상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하고, 제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 얼굴 이미지 분석 모듈;
상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 이미지 매칭 모듈; 및
상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 콘텐츠 제공 모듈을 포함하며,
상기 제1 머신러닝 모듈은,
상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출하며,
상기 이미지 매칭 모듈은,
제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출하며,
상기 테스트 유형은,
컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며,
상기 콘텐츠 제공 모듈은,
상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하고, 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하면, 상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공하고, 상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공하는, 컴퓨팅 장치.
One or more processors, and
A computing device having a memory for storing one or more programs executed by the one or more processors,
A communication module for acquiring a user's face image;
A face image analysis module that generates a data set by performing pre-processing based on the face image, and classifies the personal image type of the user based on the data set through a first machine learning module;
An image matching module for calculating a suitability of a test type according to the user's personal image type; And
And a content providing module that provides the user with the suitability of the personal image type and the test type,
The first machine learning module,
When the data set is input, a feature value of a preset feature point region is extracted from the input data set using a convolutional neural network (CNN) model, and a personal image previously produced based on the feature value of the extracted feature point region The similarity score is calculated by comparing similarity with a type, and one or more personal image types having a similarity score equal to or greater than the predetermined score among the personal image types are detected,
The image matching module,
A second machine learning module calculates the suitability of each of the test types for the personal image type based on the personal image type and the test type,
The test type is,
At least one of color type, pattern type, pattern type, and material type,
The content providing module,
When the test type is divided into color, pattern, pattern, or material, and provided as a list, and when a user input for one of the provided test type lists is received, an image corresponding to the test type list is combined with the face image of the user And provide the user with the suitability of the personal image type and the input test type.
삭제delete 삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 이미지 매칭 모듈은,
상기 컬러 유형에서 컬러별로 명도 및 채도에 대한 각각의 적합도를 산출하고, 상기 무늬 유형에서 무늬의 크기에 대한 각각의 적합도를 산출하며, 상기 패턴 유형에서 무늬의 종류에 대한 각각의 적합도를 산출하며, 소재 유형에서 소재의 유광, 무광 및 밀도에 대한 각각의 적합도를 산출하는, 컴퓨팅 장치.
The method according to claim 1,
The image matching module,
In the color type, each suitability for brightness and saturation for each color is calculated, each suitability for size of a pattern is calculated in the pattern type, and each suitability for a type of pattern is calculated in the pattern type, A computing device that calculates each suitability for a material's gloss, matte and density from the material type.
하나 이상의 프로세서들, 및
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
사용자의 얼굴 영상을 획득하는 단계;
상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하는 단계;
제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 단계;
상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 단계; 및
상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함하며,
상기 제1 머신러닝 모듈은,
상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출하며,
상기 적합도를 산출하는 단계는,
제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출하며,
상기 테스트 유형은,
컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며,
상기 사용자에게 제공하는 단계는,
상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하는 단계;
상기 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하는 단계;
상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공하는 단계; 및
상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함하는, 방법.
One or more processors, and
A method performed in a computing device having a memory that stores one or more programs executed by the one or more processors,
Obtaining a user's face image;
Generating a data set by performing pre-processing based on the face image;
Classifying the personal image type of the user based on the data set through a first machine learning module;
Calculating a goodness of fit of the test type according to the user's personal image type; And
Providing the fitness of the personal image type and the test type to the user,
The first machine learning module,
When the data set is input, a feature value of a preset feature point region is extracted from the input data set using a convolutional neural network (CNN) model, and a personal image previously produced based on the feature value of the extracted feature point region The similarity score is calculated by comparing similarity with a type, and one or more personal image types having a similarity score equal to or greater than the predetermined score among the personal image types are detected,
The step of calculating the goodness of fit,
Calculating the fitness of each of the test types for the personal image type based on the personal image type and the test type through a second machine learning module,
The test type is,
At least one of color type, pattern type, pattern type, and material type,
The step of providing to the user,
Dividing the test type into a color, a pattern, a pattern, or a material and providing it as a list;
Receiving a user input for one of the provided test type lists;
Providing an image corresponding to the test type list to the user in combination with the user's face image; And
And providing the user with the fitness of the personal image type and the input test type.
삭제delete 삭제delete 삭제delete
KR1020190139513A 2019-11-04 2019-11-04 Method for personal image diagnostic providing and computing device for executing the method KR102114273B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190139513A KR102114273B1 (en) 2019-11-04 2019-11-04 Method for personal image diagnostic providing and computing device for executing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190139513A KR102114273B1 (en) 2019-11-04 2019-11-04 Method for personal image diagnostic providing and computing device for executing the method

Publications (1)

Publication Number Publication Date
KR102114273B1 true KR102114273B1 (en) 2020-05-22

Family

ID=70914142

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190139513A KR102114273B1 (en) 2019-11-04 2019-11-04 Method for personal image diagnostic providing and computing device for executing the method

Country Status (1)

Country Link
KR (1) KR102114273B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220051516A (en) * 2020-10-19 2022-04-26 한동대학교 산학협력단 Personal color diagnostic method and system based on machine learning and augmented reality
US11481586B2 (en) 2019-11-21 2022-10-25 Samsung Electronics Co.. Ltd. Electronic apparatus and controlling method thereof
WO2023153223A1 (en) * 2022-02-10 2023-08-17 内藤弘子 Digital color diagnosis system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050022676A (en) * 2003-08-29 2005-03-08 (주)워치비젼 Apparatus and method for providing physiognomy information using face recognition technology
KR20100096393A (en) * 2009-02-24 2010-09-02 김경미 Apparatus and method for providing personal image in on-line interface
KR101563124B1 (en) 2014-02-07 2015-10-27 정연아 Personal color matching system and matching method thereof
KR20190046532A (en) * 2017-10-26 2019-05-07 김양지 Personal color dignosis device and the method
KR20190116052A (en) * 2018-04-03 2019-10-14 고려대학교 산학협력단 Deep learning based personal color diagnosis and virtual make-up method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050022676A (en) * 2003-08-29 2005-03-08 (주)워치비젼 Apparatus and method for providing physiognomy information using face recognition technology
KR20100096393A (en) * 2009-02-24 2010-09-02 김경미 Apparatus and method for providing personal image in on-line interface
KR101563124B1 (en) 2014-02-07 2015-10-27 정연아 Personal color matching system and matching method thereof
KR20190046532A (en) * 2017-10-26 2019-05-07 김양지 Personal color dignosis device and the method
KR20190116052A (en) * 2018-04-03 2019-10-14 고려대학교 산학협력단 Deep learning based personal color diagnosis and virtual make-up method and apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11481586B2 (en) 2019-11-21 2022-10-25 Samsung Electronics Co.. Ltd. Electronic apparatus and controlling method thereof
US11694078B2 (en) 2019-11-21 2023-07-04 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
KR20220051516A (en) * 2020-10-19 2022-04-26 한동대학교 산학협력단 Personal color diagnostic method and system based on machine learning and augmented reality
KR102425873B1 (en) * 2020-10-19 2022-07-27 한동대학교 산학협력단 Personal color diagnostic method and system based on machine learning and augmented reality
WO2023153223A1 (en) * 2022-02-10 2023-08-17 内藤弘子 Digital color diagnosis system
JP7334004B1 (en) * 2022-02-10 2023-08-28 弘子 内藤 DIGITAL COLOR DIAGNOSTIC SYSTEM AND DIGITAL COLOR DIAGNOSTIC METHOD

Similar Documents

Publication Publication Date Title
Dupré et al. A performance comparison of eight commercially available automatic classifiers for facial affect recognition
US12035005B2 (en) Sensitivity assessment for media production using artificial intelligence
US11062698B2 (en) Image-based approaches to identifying the source of audio data
KR101870689B1 (en) Method for providing information on scalp diagnosis based on image
US11138302B2 (en) Access control using multi-authentication factors
Raghavendra et al. Robust scheme for iris presentation attack detection using multiscale binarized statistical image features
KR102114273B1 (en) Method for personal image diagnostic providing and computing device for executing the method
CN111260545A (en) Method and device for generating image
US10872412B2 (en) Automatic graph scoring for neuropsychological assessments
US11126827B2 (en) Method and system for image identification
KR102316286B1 (en) Method for analyzing hair condition using artificial intelligence and computing device for executing the method
CN111183455A (en) Image data processing system and method
US20220164852A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations
CN108509994B (en) Method and device for clustering character images
CN110717407B (en) Face recognition method, device and storage medium based on lip language password
CN117557941A (en) Video intelligent analysis system and method based on multi-mode data fusion
CN108171208A (en) Information acquisition method and device
CN111738199B (en) Image information verification method, device, computing device and medium
CN111274447A (en) Target expression generation method, device, medium and electronic equipment based on video
US12073655B2 (en) Image synthesis for personalized facial expression classification
KR20210158711A (en) Learning apparatus and method for creating emotion expression video and apparatus and method for emotion expression video creation
CN111259698A (en) Method and device for acquiring image
KR20240018874A (en) Method and electronic device for removing sensitive information from image data
Bernardos et al. Design and deployment of a contactless hand-shape identification system for smart spaces
Dohare et al. Human behaviour analysis and face detection using machine learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant