KR102114273B1 - Method for personal image diagnostic providing and computing device for executing the method - Google Patents
Method for personal image diagnostic providing and computing device for executing the method Download PDFInfo
- Publication number
- KR102114273B1 KR102114273B1 KR1020190139513A KR20190139513A KR102114273B1 KR 102114273 B1 KR102114273 B1 KR 102114273B1 KR 1020190139513 A KR1020190139513 A KR 1020190139513A KR 20190139513 A KR20190139513 A KR 20190139513A KR 102114273 B1 KR102114273 B1 KR 102114273B1
- Authority
- KR
- South Korea
- Prior art keywords
- type
- image
- user
- personal image
- test
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000012360 testing method Methods 0.000 claims abstract description 78
- 238000010801 machine learning Methods 0.000 claims abstract description 33
- 238000004891 communication Methods 0.000 claims abstract description 25
- 238000010191 image analysis Methods 0.000 claims abstract description 10
- 239000000463 material Substances 0.000 claims description 32
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000003745 diagnosis Methods 0.000 abstract description 32
- 230000001815 facial effect Effects 0.000 abstract 3
- 239000004744 fabric Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001932 seasonal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Tourism & Hospitality (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Marketing (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명의 실시예들은 퍼스널 이미지 진단 제공 기술과 관련된다.Embodiments of the present invention relate to techniques for providing personal image diagnostics.
퍼스널 컬러(Personal Color)란, 개인이 가지고 있는 신체 색, 분위기, 생김새 등에 따른 모든 스타일링에 있어서 가장 이상적인 조합을 나타내는 '색조'라고 할 수 있다. 퍼스널컬러는 색의 '조화'와 '조합'을 기본 개념으로 가지고 있다. 따라서 자연계의 가장 조화로운 색깔조합을 나타내기 위해 '계절별' 분류법을 사용한다. 계절별 분류는 봄, 여름, 가을, 겨울로 분류하는 것으로서 가장 널리 알려진 퍼스널 컬러 분류에 해당한다. 그러나 퍼스널 컬러를 단순히 네 가지 계절로만 분류하는 것은 다양한 개인의 특징을 반영할 수 없다.Personal color can be said to be the 'color tone' that represents the most ideal combination for all styling according to an individual's body color, mood, and appearance. Personal color has the basic concept of 'harmony' and 'combination' of colors. Therefore, 'seasonal' classification is used to represent the most harmonious color combination in nature. The seasonal classification is classified into spring, summer, autumn, and winter, and is the most popular personal color classification. However, simply classifying personal colors into four seasons cannot reflect the characteristics of various individuals.
즉, 사람의 이미지를 분석해주는 과정에서 4계절로 컬러로만 진단을 하여 해당하는 범위 안에서 메이크업컬러, 패션컬러, 헤어컬러를 추천해주는 것은 좁은 스펙트럼 안에서 객관성이 떨어지며, 실제 사람의 이미지와 잘 맞지 않는 문제점이 있다.In other words, in the process of analyzing a person's image, it is diagnosed only with color in four seasons, and recommending make-up color, fashion color, and hair color within the applicable range is less objectivity in the narrow spectrum, and does not fit well with the real person's image There is this.
본 발명의 실시예들은 사용자의 얼굴 영상을 분석하여 사용자의 이미지를 진단하고, 사용자의 이미지에 맞는 퍼스널 이미지를 제공하기 위한 것이다.Embodiments of the present invention is to diagnose a user's image by analyzing a user's face image, and to provide a personal image suitable for the user's image.
또한, 본 발명의 실시예들은 사용자가 실제 원단을 테스트 유형별로 사용자의 얼굴 영상과 조합하여 해당 테스트 유형에 대한 적합도를 제공하기 위한 것이다.In addition, embodiments of the present invention is to provide a suitability for a test type by combining a real fabric with a user's face image for each test type.
본 발명의 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 사용자의 얼굴 영상을 획득하는 통신 모듈; 상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하고, 제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 얼굴 이미지 분석 모듈; 상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 이미지 매칭 모듈; 및 상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 콘텐츠 제공 모듈을 포함하는 컴퓨팅 장치가 제공된다.According to an exemplary embodiment of the present invention, a computing device having one or more processors, and a memory storing one or more programs executed by the one or more processors, comprising: a communication module for obtaining a face image of a user; A face image analysis module generating a data set by performing pre-processing based on the face image, and classifying the personal image type of the user based on the data set through a first machine learning module; An image matching module for calculating a suitability of a test type according to the user's personal image type; And a content providing module that provides the user with the suitability of the personal image type and the test type.
상기 제1 머신러닝 모듈은, 상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출할 수 있다.When the data set is input, the first machine learning module extracts a feature value of a preset feature point region using a convolutional neural network (CNN) model from the input data set, and a feature value of the extracted feature point region Similarity scores are calculated by comparing similarity with a previously produced personal image type based on, and one or more personal image types having a similarity score equal to or greater than the predetermined score among the personal image types may be detected.
상기 이미지 매칭 모듈은, 제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출할 수 있다.The image matching module may calculate the suitability of each of the test types for the personal image type based on the personal image type and the test type through a second machine learning module.
상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 콘텐츠 제공 모듈은, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하고, 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하면, 상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the content providing module divides the test type into color, pattern, pattern, or material, and provides the list. Upon receiving a user input for one of the provided test type lists, an image corresponding to the test type list may be combined with the face image of the user and provided to the user.
상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 콘텐츠 제공 모듈은, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하고, 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하면, 상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the content providing module divides the test type into color, pattern, pattern, or material, and provides the list. Upon receiving a user's input for one of the list of test types provided, the personal image type and the suitability of the input test type can be provided to the user.
상기 이미지 매칭 모듈은, 상기 컬러 유형에서 컬러별로 명도 및 채도에 대한 각각의 적합도를 산출하고, 상기 무늬 유형에서 무늬의 크기에 대한 각각의 적합도를 산출하며, 상기 패턴 유형에서 무늬의 종류에 대한 각각의 적합도를 산출하며, 소재 유형에서 소재의 유광, 무광 및 밀도에 대한 각각의 적합도를 산출할 수 있다.The image matching module calculates each suitability for brightness and saturation for each color in the color type, calculates each suitability for the size of a pattern in the pattern type, and each for a type of pattern in the pattern type Calculate the goodness of fit, and calculate the goodness of fit for the gloss, matte and density of the material in the material type.
본 발명의 다른 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 사용자의 얼굴 영상을 획득하는 단계; 상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하는 단계; 제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 단계; 상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 단계; 및 상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함하는 방법이 제공된다.According to another exemplary embodiment of the present invention, as a method performed in a computing device having one or more processors, and a memory storing one or more programs executed by the one or more processors, obtaining a face image of a user To do; Generating a data set by performing pre-processing based on the face image; Classifying the personal image type of the user based on the data set through a first machine learning module; Calculating a goodness of fit of the test type according to the user's personal image type; And providing the fitness of the personal image type and the test type to the user.
상기 제1 머신러닝 모듈은, 상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출하며, 상기 적합도를 산출하는 단계는, 제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출할 수 있다.When the data set is input, the first machine learning module extracts a feature value of a preset feature point region using a convolutional neural network (CNN) model from the input data set, and a feature value of the extracted feature point region Calculating similarity scores by comparing similarities with previously produced personal image types based on, detecting one or more personal image types having similarity scores equal to or greater than the preset score among the personal image types, and calculating the fitness , May calculate the suitability of each of the test types for the personal image type based on the personal image type and the test type through a second machine learning module.
상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 사용자에게 제공하는 단계는, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하는 단계; 상기 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하는 단계; 및 상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공하는 단계를 포함할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the providing step to the user provides the test type as a list by dividing the test type into color, pattern, pattern, or material. To do; Receiving a user input for one of the provided test type lists; And combining the image corresponding to the test type list with the face image of the user and providing the image to the user.
상기 테스트 유형은, 컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며, 상기 사용자에게 제공하는 단계는, 상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하는 단계; 상기 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하는 단계; 및 상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함할 수 있다.The test type includes at least one of a color type, a pattern type, a pattern type, and a material type, and the providing step to the user provides the test type as a list by dividing the test type into color, pattern, pattern, or material. To do; Receiving a user input for one of the provided test type lists; And providing suitability of the personal image type and the input test type to the user.
본 발명의 실시예들에 따르면, 사용자의 얼굴 영상을 분석하여 사용자의 이미지를 진단하고, 사용자의 이미지에 맞는 퍼스널 이미지를 제공할 수 있다. According to embodiments of the present invention, a user's image may be diagnosed by analyzing a user's face image, and a personal image suitable for the user's image may be provided.
또한, 본 발명의 실시예들에 따르면, 사용자가 실제 원단을 테스트 유형별로 사용자의 얼굴 영상과 조합하여 해당 테스트 유형에 대한 적합도를 확인함으로써, 사용자의 이미지를 정확하게 알 수 있다.In addition, according to embodiments of the present invention, the user can accurately know the image of the user by checking the suitability for the test type by combining the actual fabric with the user's face image for each test type.
도 1은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 구성을 나타낸 도면
도 2는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 스마트 기기의 구성을 나타낸 블록도
도 3은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버의 구성을 나타낸 블록도
도 4는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버에서 이미지 분석 모듈 및 이미지 매칭 모듈을 설명하기 위한 블록도
도 5 및 도 6은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공서비스가 제공되는 스마트 기기의 화면을 나타낸 도면
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도1 is a view showing the configuration of a personal image diagnosis providing system according to an embodiment of the present invention
2 is a block diagram showing the configuration of a smart device in a personal image diagnosis providing system according to an embodiment of the present invention
3 is a block diagram showing the configuration of a management server in a personal image diagnosis providing system according to an embodiment of the present invention
4 is a block diagram illustrating an image analysis module and an image matching module in the management server of the personal image diagnosis providing system according to an embodiment of the present invention
5 and 6 are views showing a screen of a smart device provided with a personal image diagnosis providing service according to an embodiment of the present invention
7 is a block diagram illustrating and illustrating a computing environment including a computing device suitable for use in example embodiments.
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to aid in a comprehensive understanding of the methods, devices and / or systems described herein. However, this is only an example and the present invention is not limited thereto.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, when it is determined that a detailed description of known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification. The terminology used in the detailed description is only for describing embodiments of the present invention and should not be limiting. Unless expressly used otherwise, a singular form includes a plural form. In this description, expressions such as “including” or “equipment” are intended to indicate certain characteristics, numbers, steps, actions, elements, parts or combinations thereof, and one or more other than described. It should not be interpreted to exclude the presence or possibility of other characteristics, numbers, steps, actions, elements, or parts or combinations thereof.
이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다. In the following description, the terms “transmission”, “communication”, “transmission”, “reception” and the like of a signal or information are not only those in which a signal or information is transmitted directly from one component to another. This includes passing through other components. In particular, "transmitting" or "transmitting" a signal or information to a component indicates the final destination of the signal or information, not a direct destination. The same is true for the "reception" of a signal or information. Also, in this specification, when two or more data or information is “related” means that acquiring one data (or information) may acquire at least a portion of the other data (or information) based thereon.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, an embodiment of the present invention may include a program for performing the methods described herein on a computer, and a computer-readable recording medium including the program. The computer-readable recording medium may include program instructions, local data files, local data structures, or the like alone or in combination. The media may be specially designed and constructed for the present invention, or may be commonly used in the field of computer software. Examples of computer readable recording media include specially configured to store and execute magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs, DVDs, and program instructions such as ROM, RAM, and flash memory. Hardware devices are included. Examples of the program may include high-level language codes that can be executed by a computer using an interpreter as well as machine language codes made by a compiler.
도 1은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 구성을 나타낸 도면이고, 도 2는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 스마트 기기의 구성을 나타낸 블록도이며, 도 3은 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버의 구성을 나타낸 블록도이며, 도 4는 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템의 관리 서버에서 이미지 분석 모듈 및 이미지 매칭 모듈을 설명하기 위한 블록도이다.1 is a block diagram showing the configuration of a personal image diagnosis providing system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing the configuration of a smart device of a personal image diagnosis providing system according to an embodiment of the present invention, 3 is a block diagram showing the configuration of a management server of a personal image diagnosis providing system according to an embodiment of the present invention, and FIG. 4 is an image analysis module in a management server of a personal image diagnosis providing system according to an embodiment of the present invention And a block diagram for describing the image matching module.
도 1 내지 도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이미지 진단 제공 시스템은 스마트 기기(100) 및 관리 서버(200)를 포함할 수 있다. 스마트 기기(100) 및 관리 서버(200)는 통신 네트워크를 통해 통신 가능하게 연결된다. 1 to 4, an image diagnosis providing system according to an embodiment of the present invention may include a
이하의 설명에 있어서, "영상"은 카메라 등과 같은 촬영장치를 이용하여 촬영한 영상, 즉, 사진과 같은 이미지를 의미하며, "이미지"는 어떤 사물이나 대상에 대하여 개인의 내면에서 떠오르는 직관적 인상 혹은 표상이나 심상을 의미한다. 즉, 개시되는 실시예에서, 퍼스널 이미지(personal image)를 진단하는 것은 개인이 가지고 있는 특징에 따라 느껴지는 개인의 인상 또는 느낌을 판단하는 것을 의미한다.In the following description, "image" refers to an image photographed using a photographing device such as a camera, that is, an image such as a photograph, and "image" refers to an intuitive impression that emerges from the inside of an individual about an object or object, or It means representation or image. That is, in the disclosed embodiment, diagnosing a personal image means determining an impression or feeling of an individual felt according to characteristics of the individual.
몇몇 실시 예들에서, 통신 네트워크는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wire area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.In some embodiments, the communication network includes the Internet, one or more local area networks, wire area networks, cellular networks, mobile networks, other types of networks, or combinations of these networks. can do.
스마트 기기(100)는 무선 통신을 사용할 수 있는 스마트 폰, 태블릿 PC 등으로서, 스마트 기기(100)는 촬영부(110), 통신부(120) 및 디스플레이부(130)를 포함할 수 있다.The
촬영부(110)는 사용자의 얼굴을 촬영할 수 있다. 촬영부(110)는 스마트 기기(100) 등의 단말에 일체로 형성될 수 있다. 구체적으로, 촬영부(110)는 스마트 기기(100) 등의 단말에 일체로 형성되어 사용자의 얼굴을 촬영할 수 있다. 촬영부(110)는 촬영된 영상을 통신부(120)를 통하여 관리 서버(200)로 제공할 수 있다. 예를 들어, 도 5와 같이, 스마트 기기(100)가 구비한 촬영부(110)를 이용하여 영상 촬영을 수행하는 것을 보여준다. 촬영부(110)를 이용하여 영상을 촬영할 경우에는 사용자에게 권장 사항을 제시할 수 있다. 영상 촬영 시에는 정확한 진단을 위하여 얼굴의 정면 영상이 필요하고, 조도와 같은 주변 환경에 따른 컬러 변화, 카메라 모듈의 성능에 따른 컬러 변화가 발생할 수 있기 때문에, 정면으로 촬영할 것, 자연광에서 촬영할 것, 피부색이 최대한 잘 드러나는 환경에서 촬영할 것, 가장 자연스러운 모습으로 촬영할 것을 권장할 수 있다.The photographing
통신부(120)는 촬영된 영상을 네트워크를 통하여 관리 서버(200)로 전송할 수 있다. 또한, 통신부(120)는 관리 서버(200)로부터 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형을 테스트할 수 있도록 구현된 대입진단 콘텐츠를 수신할 수 있다. 통신부(120)는 관리 서버(200)로부터 퍼스널 이미지 유형 및 테스트 유형의 적합도를 수신할 수 있다.The
디스플레이부(130)는 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형을 테스트할 수 있도록 구현된 대입진단 콘텐츠를 화면에 표시할 수 있다. 디스플레이부(130)는 스마트 기기(100)의 화면을 통하여 대입진단 콘텐츠를 출력할 수 있다. 대입진단 콘텐츠는 스마트 기기(100)의 화면을 통하여 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 테스트를 진행할 수 있다. 여기서, 대입진단 콘텐츠는 컬러 유형에서 원단 컬러별로 명도 및 채도에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 무늬 유형에서 원단 무늬의 크기에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 패턴 유형에서 원단 무늬의 종류(예를 들어, 물방울 무늬, 기하학 무늬, 체크 무늬, 스프라이트 무늬, 무지 등)에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 소재 유형에서 원단 소재의 유광, 무광 및 밀도에 대하여 테스트 할 수 있다.The
또한, 디스플레이부(130)는 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 표시할 수 있다. 디스플레이부(130)는 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 스마트 기기(100) 상에서 출력할 수 있도록 가공하여 스마트 기기(100)의 화면을 통하여 출력할 수 있다.In addition, the
이 때, 본 발명의 일 실시예에 따른 스마트 기기(100)는 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션이 설치될 수 있다. 상기 어플리케이션은 스마트 기기(100)의 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 상기 어플리케이션은 스마트 기기(100)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다. 상기 명령어는 스마트 기기(100)의 프로세서로 하여금 예시적인 실시예에 따른 동작을 수행하게 할 수 있다. 스마트 기기(100)의 컴퓨터 판독 가능 저장 매체는 스마트 기기(100) 상에서 상기 어플리케이션과 같은 명령어 집합을 실행하기 위한 운영 체제의 컴포넌트들을 포함한다. 예를 들어, 이러한 운영 체제는 애플(Apple) 사의 iOS 또는 구글(Google) 사의 Android 일 수 있다.At this time, an application for providing an image diagnosis providing service may be installed in the
여기서, 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션은 사용자의 정보를 입력할 수 있는 입력 인터페이스를 제공할 수 있으며, 입력 인터페이스를 통하여 사용자 데이터를 입력 받을 수 있다. 예를 들어, 사용자의 성명, 성별, 나이 및 스마트 기기(100) 번호 등을 입력할 수 있는 입력 인터페이스를 사용자에게 제공할 수 있다.Here, the application for providing the image diagnosis providing service may provide an input interface for inputting user information, and may receive user data through the input interface. For example, an input interface for inputting a user's name, gender, age, and
한편, 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션은 이상에서 설명한 기능 외에도 다양한 분석 처리 및 정보 제공 동작을 수행하도록 설정될 수 있다. 예를 들어, 이미지 진단 제공 서비스를 제공하기 위한 어플리케이션은 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 기 설정된 웹 서버(예를 들어, SNS 서버)로 업로드 또는 백업하거나, 기 설정된 웹 서버로부터 사용자의 정보에 매칭되는 기 등록된 사용자의 퍼스널 이미지 유형 및 테스트 유형의 적합도를 획득하여 디스플레이부(130)를 통해 표시할 수 있다. Meanwhile, an application for providing an image diagnosis providing service may be set to perform various analysis processing and information providing operations in addition to the functions described above. For example, an application for providing an image diagnosis providing service uploads or backs up the suitability of a user's personal image type and test type to a preset web server (for example, an SNS server), or from a preset web server. The suitability of the personal image type and the test type of the pre-registered user matching the information may be acquired and displayed through the
관리 서버(200)는 통신 모듈(210), 저장 모듈(220), 얼굴 이미지 분석 모듈(230), 이미지 매칭 모듈(240) 및 콘텐츠 제공 모듈(250)을 포함할 수 있다.The
통신 모듈(210)은 스마트 기기(100)로부터 촬영된 영상을 네트워크를 통하여 수신할 수 있다. 통신 모듈(210)은 스마트 기기(100)로부터 사용자 정보를 네트워크를 통하여 수신할 수 있다. 또한, 통신 모듈(210)은 대입진단 콘텐츠를 스마트 기기(100)로 전송할 수 있다. 통신 모듈(210)은 퍼스널 이미지 유형 및 테스트 유형의 적합도를 스마트 기기(100)로 전송할 수 있다.The
저장 모듈(220)은 통신 모듈(210)을 통하여 수신한 사용자 정보 및 촬영된 영상을 저장할 수 있다. 또한, 저장 모듈(220)은 기 촬영된 사용자의 영상을 저장할 수 있다. 또한, 저장 모듈(220)은 테스트 유형에 대한 영상을 저장할 수 있다. 여기서, 테스트 유형은 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형를 포함할 수 있다. 또한, 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 영상은 각각의 테스트 유형에 대한 실제 원단을 촬영한 영상일 수 있다.The
얼굴 이미지 분석 모듈(230)은 촬영부(110)로부터 촬영된 영상에서 얼굴 영상을 추출하고, 추출된 얼굴 영상으로부터 머신러닝(Machine Learning) 기반 기술을 사용하여 사용자의 퍼스널 이미지(personal image) 유형을 판단할 수 있다. 여기서, 퍼스널 이미지(personal image)를 진단하는 것은 개인이 가지고 있는 특징에 따라 느껴지는 개인의 인상 또는 느낌을 판단하는 것을 의미한다. 얼굴 이미지 분석 모듈(230)은 전처리 모듈(231) 및 제1 머신러닝 모듈(233)을 포함할 수 있다. The face
전처리 모듈(231)은 촬영부(110)로부터 촬영된 영상에서 얼굴 영상을 추출하고 샤프닝(Sharpening) 처리를 수행하여 데이터 세트를 생성할 수 있다. 즉, 촬영부(110)로부터 촬영된 영상은 촬영 환경으로 인해 얼굴 영상이 흐릿하게 될 수 있다. 이에, 각 영상에 대해 샤프닝 처리를 수행함으로써, 영상의 특징점을 선명하게 하여 선명도를 높일 수 있다. The
전처리 모듈(231)은 생성된 데이터 세트를 머신러닝(Machine Learning) 모듈로 전달할 수 있다. 전처리 모듈(231)은 샤프닝 처리 기법을 사용할 수 있으나, 이에 한정되는 것은 아니며, 블러, 가우시안, 기하학적 처리등을 더 수행할 수 있다.The
제1 머신러닝 모듈(233)은 생성된 데이터 세트를 입력받아 데이터 세트에서 사용자의 퍼스널 이미지(persomal image) 유형을 분류할 수 있다. 제1 머신러닝 모듈(233)은 데이터 세트가 입력되는 경우, 이미 학습된 퍼스널 이미지 분류 모델을 기반으로 데이터 세트에서 사용자의 퍼스널 이미지 유형을 분류할 수 있다. The first
예시적인 실시예에서, 제1 머신러닝 모듈(233)은 머신러닝 또는 딥러닝 기술로 CNN(Convolutional Neural Network) 모델을 이용하여 데이터 세트에서 기 설정된 특징점 영역의 특징값을 각각 추출할 수 있다. 구체적으로, 제1 머신러닝 모듈(233)은 샤프닝 영상(샤프닝 처리를 수행한 얼굴 영상)의 기 설정된 특징점 영역의 특징값을 추출할 수 있다. In an exemplary embodiment, the first
또한, 제1 머신러닝 모듈(233)은 기 설정된 특징점 영역에 대해 퍼스널 이미지 유형을 분류하기 위한 유사성 점수를 산출할 수 있다. 구체적으로, 제1 머신러닝 모듈(233)은 추출된 특징점 영역의 특징 값을 기반으로 기 제작된 퍼스널 이미지 유형(예를 들어, 얼굴 영상의 특징 값에 따라 미리 분류된 이미지 유형)과의 유사성을 비교하여 유사성 점수를 산출할 수 있다. 예를 들어, 제1 머신러닝 모듈(233)은 Inception Model을 이용할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 퍼스널 이미지 유형은 기 공지되어 분류된 22가지 유형일 수 있으며, 큐트, 스포티, 클리어 스포티, 캐주얼, 소프트 캐주얼, 에스닉, 다이나믹, 와일드, 로맨틱, 페미닌, 엘레강스, 소프트 엘레강스, 소프트모던, 하드모던, 댄디, 포멀, 노블, 내추럴, 트래디셔널, 클래식, 고져스, 엘레강스 고져스을 포함할 수 있다. 한편, 여기서는 기 분류된 22가지 유형으로 퍼스널 이미지 유형을 분류하였으나, 이에 한정되는 것은 아니며, 기 공지된 이미지 유형을 추가할 수 있으며, 기 분류된 22가지 유형을 그룹화하여 분류할 수 있다.Also, the first
또한, 제1 머신러닝 모듈(233)은 퍼스널 이미지 유형에서 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형으로 분류할 수 있다.Also, the first
이미지 매칭 모듈(240)은 퍼스널 이미지 유형으로부터 머신러닝(Machine Learning) 기반 기술을 사용하여 퍼스널 이미지 유형에 대한 각각의 테스트 유형(예를 들어, 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형)의 적합도를 산출할 수 있다. 이미지 매칭 모듈(240)은 제2 머신러닝 모듈(243)을 포함할 수 있다. The
제2 머신러닝 모듈(243)은 머신러닝 기술 또는 딥러닝 기술을 이용할 수 있다. 이 경우, 제2 머신러닝 모듈(243)은 퍼스널 이미지 유형과 사용자가 선택한 테스트 유형이 입력되는 경우, 이미 학습된 적합도 분류 모델을 기반으로 각각의 테스트 유형의 적합도를 산출할 수 있다. The second
예시적인 실시예에서, 제2 머신러닝 모듈(243)은 퍼스널 이미지 유형과 사용자가 선택한 테스트 유형이 입력되는 경우, 입력된 퍼스널 이미지 유형과 테스트 유형에서 테스트 유형의 적합도를 산출하여 출력하도록 학습된 회귀 모델(regression model)일 수 있다. 회귀 모델은 다중 선형 회귀 모델(Multiple linear regression model)또는 신경망(Neural Network)일 수 있다. 제2 머신 러닝 모듈(243)은 퍼스널 이미지 유형에 대한 테스트 유형의 유의성을 비교하여 해당 유의성에 대한 테스트 유형의 적합도를 산출할 수 있다. 예를 들어, 제2 머신 러닝 모듈(243)은 얼굴 이미지 분석 모듈(230)에서 선택된 퍼스널 이미지 유형에 대하여 각각의 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 적합도를 산출할 수 있다. 컬러 유형에서는 원단 컬러별로 명도 및 채도에 대한 각각의 적합도를 산출할 수 있다. 또한, 무늬 유형에서는 원단 무늬의 크기에 대한 각각의 적합도를 산출할 수 있다. 또한, 패턴 유형에서는 원단 무늬의 종류(예를 들어, 물방울 무늬, 기하학 무늬, 체크 무늬, 스프라이트 무늬, 무지 등)에 대한 각각의 적합도를 산출할 수 있다. 또한, 소재 유형에서는 원단 소재의 유광, 무광 및 밀도에 대한 각각의 적합도를 산출할 수 있다. In an exemplary embodiment, the second
콘텐츠 제공 모듈(250)은 스마트 기기(100)를 통하여 사용자가 확인할 수 있는 화면으로 제공하며, 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형을 테스트할 수 있도록 구현된 대입진단 콘텐츠를 스마트 기기(100)로 제공할 수 있다. 대입진단 콘텐츠는 스마트 기기(100)의 화면을 통하여 사용자가 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형에 대한 테스트를 진행할 수 있다. 즉, 사용자가 스마트 기기(100)의 화면을 통하여 사용자의 얼굴 영상과 각 테스트 유형을 조합할 수 있다. 예를 들어, 도 6과 같이, 컬러 유형, 무늬 유형, 패턴 유형, 소재 유형 중 하나를 선택하여 실제 원단 영상을 사용자의 얼굴과 조합하여 스마트 기기(100)의 화면을 통하여 출력할 수 있다. 여기서, 대입진단 콘텐츠는 컬러 유형에서 원단 컬러별로 명도 및 채도에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 무늬 유형에서 원단 무늬의 크기에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 패턴 유형에서 원단 무늬의 종류(예를 들어, 물방울 무늬, 기하학 무늬, 체크 무늬, 스프라이트 무늬, 무지 등)에 대하여 테스트할 수 있다. 또한, 대입진단 콘텐츠는 소재 유형에서 원단 소재의 유광, 무광 및 밀도에 대하여 테스트 할 수 있다.The
또한, 콘텐츠 제공 모듈(250)은 사용자가 테스트 유형을 선택하면, 사용자의 퍼스널 이미지 유형에 대한 해당 테스트 유형의 적합도를 표시할 수 있다. 또한, 콘텐츠 제공 모듈(250)은 이미지 매칭 모듈(240)로부터 선택된 퍼스널 이미지 유형을 표시할 수 있다. 구체적으로, 콘텐츠 제공 모듈(250)은 사용자가 테스트 유형을 선택하면, 이미지 매칭 모듈(240)로부터 산출된 해당 테스트 유형의 적합도를 표시할 수 있다. 또한, 콘텐츠 제공 모듈(250)은 사용자가 테스트 유형을 선택하면, 기 설정된 점수 이상의 유사성 점수를 받은 퍼스널 이미지 유형과 함께 해당 테스트 유형의 적합도를 표시할 수 있다.In addition, when the user selects a test type, the
따라서, 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템은 사용자의 얼굴 영상을 분석하여 사용자의 이미지를 진단할 수 있고, 사용자의 이미지에 맞는 퍼스널 이미지를 제공할 수 있다. Therefore, the personal image diagnosis providing system according to an embodiment of the present invention can analyze a user's face image to diagnose a user's image and provide a personal image suitable for the user's image.
또한, 본 발명의 일 실시예에 따른 퍼스널 이미지 진단 제공시스템은 사용자가 실제 원단을 유형별로 사용자의 얼굴 영상과 조합하여 해당 유형에 대한 적합도를 확인함으로써, 사용자가 직접 테스트 유형을 매칭할 수 있도록 지원하여 사용자의 이미지를 정확하게 알 수 있다.In addition, the personal image diagnosis providing system according to an embodiment of the present invention enables the user to directly match the test type by confirming the suitability for the type by combining the actual fabric with the user's face image for each type. By doing so, the user's image can be accurately known.
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.7 is a block diagram illustrating and illustrating a computing environment including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities in addition to those described below, and may include additional components in addition to those described below.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 스마트 기기(100)일 수 있다. 또한, 컴퓨팅 장치(12)는 관리 서버(200)일 수 있다.The illustrated
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.The
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the exemplary embodiments of the present invention have been described in detail above, those skilled in the art to which the present invention pertains will understand that various modifications are possible within the limits of the embodiments described above without departing from the scope of the present invention. . Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims to be described later, but also by the claims and equivalents.
100 : 스마트 기기
110 : 촬영부
120 : 통신부
130 : 디스플레이부
200 : 관리 서버
210 : 통신 모듈
220 : 저장 모듈
230 : 얼굴 이미지 분석 모듈
240 : 이미지 매칭 모듈
250 : 콘텐츠 제공 모듈100: smart device
110: filming unit
120: communication unit
130: display unit
200: management server
210: communication module
220: storage module
230: face image analysis module
240: image matching module
250: content providing module
Claims (10)
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서,
사용자의 얼굴 영상을 획득하는 통신 모듈;
상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하고, 제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 얼굴 이미지 분석 모듈;
상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 이미지 매칭 모듈; 및
상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 콘텐츠 제공 모듈을 포함하며,
상기 제1 머신러닝 모듈은,
상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출하며,
상기 이미지 매칭 모듈은,
제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출하며,
상기 테스트 유형은,
컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며,
상기 콘텐츠 제공 모듈은,
상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하고, 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하면, 상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공하고, 상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공하는, 컴퓨팅 장치.
One or more processors, and
A computing device having a memory for storing one or more programs executed by the one or more processors,
A communication module for acquiring a user's face image;
A face image analysis module that generates a data set by performing pre-processing based on the face image, and classifies the personal image type of the user based on the data set through a first machine learning module;
An image matching module for calculating a suitability of a test type according to the user's personal image type; And
And a content providing module that provides the user with the suitability of the personal image type and the test type,
The first machine learning module,
When the data set is input, a feature value of a preset feature point region is extracted from the input data set using a convolutional neural network (CNN) model, and a personal image previously produced based on the feature value of the extracted feature point region The similarity score is calculated by comparing similarity with a type, and one or more personal image types having a similarity score equal to or greater than the predetermined score among the personal image types are detected,
The image matching module,
A second machine learning module calculates the suitability of each of the test types for the personal image type based on the personal image type and the test type,
The test type is,
At least one of color type, pattern type, pattern type, and material type,
The content providing module,
When the test type is divided into color, pattern, pattern, or material, and provided as a list, and when a user input for one of the provided test type lists is received, an image corresponding to the test type list is combined with the face image of the user And provide the user with the suitability of the personal image type and the input test type.
상기 이미지 매칭 모듈은,
상기 컬러 유형에서 컬러별로 명도 및 채도에 대한 각각의 적합도를 산출하고, 상기 무늬 유형에서 무늬의 크기에 대한 각각의 적합도를 산출하며, 상기 패턴 유형에서 무늬의 종류에 대한 각각의 적합도를 산출하며, 소재 유형에서 소재의 유광, 무광 및 밀도에 대한 각각의 적합도를 산출하는, 컴퓨팅 장치.
The method according to claim 1,
The image matching module,
In the color type, each suitability for brightness and saturation for each color is calculated, each suitability for size of a pattern is calculated in the pattern type, and each suitability for a type of pattern is calculated in the pattern type, A computing device that calculates each suitability for a material's gloss, matte and density from the material type.
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
사용자의 얼굴 영상을 획득하는 단계;
상기 얼굴 영상을 기반으로 전처리를 수행하여 데이터 세트를 생성하는 단계;
제1 머신러닝 모듈을 통해 상기 데이터 세트를 기반으로 상기 사용자의 퍼스널 이미지 유형을 분류하는 단계;
상기 사용자의 퍼스널 이미지 유형에 따른 테스트 유형의 적합도를 산출하는 단계; 및
상기 퍼스널 이미지 유형 및 상기 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함하며,
상기 제1 머신러닝 모듈은,
상기 데이터 세트가 입력되는 경우, 입력된 데이터 세트에서 CNN(Convolutional Neural Network) 모델을 이용하여 기 설정된 특징점 영역의 특징값을 추출하고, 상기 추출된 특징점 영역의 특징값을 기반으로 기 제작된 퍼스널 이미지 유형과의 유사성을 비교하여 유사성 점수를 산출하며, 상기 퍼스널 이미지 유형 중 상기 기 설정된 점수 이상의 유사성 점수를 받은 하나 이상의 퍼스널 이미지 유형을 검출하며,
상기 적합도를 산출하는 단계는,
제2 머신러닝 모듈을 통해 상기 퍼스널 이미지 유형 및 상기 테스트 유형을 기반으로 상기 퍼스널 이미지 유형에 대한 상기 테스트 유형 각각의 적합도를 산출하며,
상기 테스트 유형은,
컬러 유형, 무늬 유형, 패턴 유형, 및 소재 유형 중 적어도 하나 이상을 포함하며,
상기 사용자에게 제공하는 단계는,
상기 테스트 유형을 컬러, 무늬, 패턴 또는 소재로 구분하여 목록으로 제공하는 단계;
상기 제공된 테스트 유형 목록 중 하나에 대한 사용자의 입력을 수신하는 단계;
상기 테스트 유형 목록에 대응하는 영상을 상기 사용자의 얼굴 영상과 조합하여 상기 사용자에게 제공하는 단계; 및
상기 퍼스널 이미지 유형 및 상기 입력된 테스트 유형의 적합도를 상기 사용자에게 제공하는 단계를 포함하는, 방법.
One or more processors, and
A method performed in a computing device having a memory that stores one or more programs executed by the one or more processors,
Obtaining a user's face image;
Generating a data set by performing pre-processing based on the face image;
Classifying the personal image type of the user based on the data set through a first machine learning module;
Calculating a goodness of fit of the test type according to the user's personal image type; And
Providing the fitness of the personal image type and the test type to the user,
The first machine learning module,
When the data set is input, a feature value of a preset feature point region is extracted from the input data set using a convolutional neural network (CNN) model, and a personal image previously produced based on the feature value of the extracted feature point region The similarity score is calculated by comparing similarity with a type, and one or more personal image types having a similarity score equal to or greater than the predetermined score among the personal image types are detected,
The step of calculating the goodness of fit,
Calculating the fitness of each of the test types for the personal image type based on the personal image type and the test type through a second machine learning module,
The test type is,
At least one of color type, pattern type, pattern type, and material type,
The step of providing to the user,
Dividing the test type into a color, a pattern, a pattern, or a material and providing it as a list;
Receiving a user input for one of the provided test type lists;
Providing an image corresponding to the test type list to the user in combination with the user's face image; And
And providing the user with the fitness of the personal image type and the input test type.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190139513A KR102114273B1 (en) | 2019-11-04 | 2019-11-04 | Method for personal image diagnostic providing and computing device for executing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190139513A KR102114273B1 (en) | 2019-11-04 | 2019-11-04 | Method for personal image diagnostic providing and computing device for executing the method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102114273B1 true KR102114273B1 (en) | 2020-05-22 |
Family
ID=70914142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190139513A KR102114273B1 (en) | 2019-11-04 | 2019-11-04 | Method for personal image diagnostic providing and computing device for executing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102114273B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220051516A (en) * | 2020-10-19 | 2022-04-26 | 한동대학교 산학협력단 | Personal color diagnostic method and system based on machine learning and augmented reality |
US11481586B2 (en) | 2019-11-21 | 2022-10-25 | Samsung Electronics Co.. Ltd. | Electronic apparatus and controlling method thereof |
WO2023153223A1 (en) * | 2022-02-10 | 2023-08-17 | 内藤弘子 | Digital color diagnosis system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050022676A (en) * | 2003-08-29 | 2005-03-08 | (주)워치비젼 | Apparatus and method for providing physiognomy information using face recognition technology |
KR20100096393A (en) * | 2009-02-24 | 2010-09-02 | 김경미 | Apparatus and method for providing personal image in on-line interface |
KR101563124B1 (en) | 2014-02-07 | 2015-10-27 | 정연아 | Personal color matching system and matching method thereof |
KR20190046532A (en) * | 2017-10-26 | 2019-05-07 | 김양지 | Personal color dignosis device and the method |
KR20190116052A (en) * | 2018-04-03 | 2019-10-14 | 고려대학교 산학협력단 | Deep learning based personal color diagnosis and virtual make-up method and apparatus |
-
2019
- 2019-11-04 KR KR1020190139513A patent/KR102114273B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050022676A (en) * | 2003-08-29 | 2005-03-08 | (주)워치비젼 | Apparatus and method for providing physiognomy information using face recognition technology |
KR20100096393A (en) * | 2009-02-24 | 2010-09-02 | 김경미 | Apparatus and method for providing personal image in on-line interface |
KR101563124B1 (en) | 2014-02-07 | 2015-10-27 | 정연아 | Personal color matching system and matching method thereof |
KR20190046532A (en) * | 2017-10-26 | 2019-05-07 | 김양지 | Personal color dignosis device and the method |
KR20190116052A (en) * | 2018-04-03 | 2019-10-14 | 고려대학교 산학협력단 | Deep learning based personal color diagnosis and virtual make-up method and apparatus |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11481586B2 (en) | 2019-11-21 | 2022-10-25 | Samsung Electronics Co.. Ltd. | Electronic apparatus and controlling method thereof |
US11694078B2 (en) | 2019-11-21 | 2023-07-04 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
KR20220051516A (en) * | 2020-10-19 | 2022-04-26 | 한동대학교 산학협력단 | Personal color diagnostic method and system based on machine learning and augmented reality |
KR102425873B1 (en) * | 2020-10-19 | 2022-07-27 | 한동대학교 산학협력단 | Personal color diagnostic method and system based on machine learning and augmented reality |
WO2023153223A1 (en) * | 2022-02-10 | 2023-08-17 | 内藤弘子 | Digital color diagnosis system |
JP7334004B1 (en) * | 2022-02-10 | 2023-08-28 | 弘子 内藤 | DIGITAL COLOR DIAGNOSTIC SYSTEM AND DIGITAL COLOR DIAGNOSTIC METHOD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dupré et al. | A performance comparison of eight commercially available automatic classifiers for facial affect recognition | |
US12035005B2 (en) | Sensitivity assessment for media production using artificial intelligence | |
US11062698B2 (en) | Image-based approaches to identifying the source of audio data | |
KR101870689B1 (en) | Method for providing information on scalp diagnosis based on image | |
US11138302B2 (en) | Access control using multi-authentication factors | |
Raghavendra et al. | Robust scheme for iris presentation attack detection using multiscale binarized statistical image features | |
KR102114273B1 (en) | Method for personal image diagnostic providing and computing device for executing the method | |
CN111260545A (en) | Method and device for generating image | |
US10872412B2 (en) | Automatic graph scoring for neuropsychological assessments | |
US11126827B2 (en) | Method and system for image identification | |
KR102316286B1 (en) | Method for analyzing hair condition using artificial intelligence and computing device for executing the method | |
CN111183455A (en) | Image data processing system and method | |
US20220164852A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations | |
CN108509994B (en) | Method and device for clustering character images | |
CN110717407B (en) | Face recognition method, device and storage medium based on lip language password | |
CN117557941A (en) | Video intelligent analysis system and method based on multi-mode data fusion | |
CN108171208A (en) | Information acquisition method and device | |
CN111738199B (en) | Image information verification method, device, computing device and medium | |
CN111274447A (en) | Target expression generation method, device, medium and electronic equipment based on video | |
US12073655B2 (en) | Image synthesis for personalized facial expression classification | |
KR20210158711A (en) | Learning apparatus and method for creating emotion expression video and apparatus and method for emotion expression video creation | |
CN111259698A (en) | Method and device for acquiring image | |
KR20240018874A (en) | Method and electronic device for removing sensitive information from image data | |
Bernardos et al. | Design and deployment of a contactless hand-shape identification system for smart spaces | |
Dohare et al. | Human behaviour analysis and face detection using machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |