KR101969346B1 - Apparatus for classifying skin conditions, and apparatus for generating skin condition classification model used on the same apparatus and method thereof - Google Patents

Apparatus for classifying skin conditions, and apparatus for generating skin condition classification model used on the same apparatus and method thereof Download PDF

Info

Publication number
KR101969346B1
KR101969346B1 KR1020170015838A KR20170015838A KR101969346B1 KR 101969346 B1 KR101969346 B1 KR 101969346B1 KR 1020170015838 A KR1020170015838 A KR 1020170015838A KR 20170015838 A KR20170015838 A KR 20170015838A KR 101969346 B1 KR101969346 B1 KR 101969346B1
Authority
KR
South Korea
Prior art keywords
classifier
skin condition
skin
generating
classification model
Prior art date
Application number
KR1020170015838A
Other languages
Korean (ko)
Other versions
KR20180048226A (en
Inventor
이기천
이재환
박정현
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Publication of KR20180048226A publication Critical patent/KR20180048226A/en
Application granted granted Critical
Publication of KR101969346B1 publication Critical patent/KR101969346B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Dermatology (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Child & Adolescent Psychology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

피부 상태 분류 장치와, 그 장치에서 사용되는 피부 상태 분류 모형을 생성하는 장치 및 그 방법이 개시된다.
이 피부 상태 분류 모형 생성 장치의 구조체 저장부는 각각 복수의 피부 이미지에 대해 학습된 사전(dictionary), 상기 사전으로부터 추출되는 희소 표현(sparse representation) 및 상기 희소 표현으로부터 생성되는 분류기를 포함하는 복수의 분류기 구조체를 저장한다. 구조체 생성부는 복수의 피부 이미지의 데이터에 대해 희소 코딩(Sparse Coding) 알고리즘을 사용하여 상기 복수의 분류기 구조체를 생성하여 상기 구조체 저장부에 저장한다. 최종 모형 생성부는 상기 구조체 저장부의 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 최종적인 피부 상태 분류 모형인 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)을 생성한다. 이러한 최종적인 피부 상태 분류 모형을 사용하여 피부 상태 분류 장치가 새로운 이미지에 대한 보다 정확한 피부 상태 분류를 수행할 수 있다.
An apparatus and method for generating a skin condition classifier and a skin condition classification model used in the apparatus are disclosed.
The structure storage unit of the skin condition classification model generation apparatus includes a plurality of classifiers including a learned dictionary for a plurality of skin images, a sparse representation extracted from the dictionary, and a classifier generated from the rare expression, Save the structure. The structure generating unit generates the plurality of classifier structures by using a sparse coding algorithm for data of a plurality of skin images and stores them in the structure storing unit. The final model generator generates a Boosting Sparse Coding Model, which is a final skin condition classification model, by applying an adoboosting algorithm to a plurality of classifiers of the structure storage unit. Using this final skin condition classification model, the skin condition classifier can perform more accurate skin condition classification on a new image.

Figure R1020170015838
Figure R1020170015838

Description

피부 상태 분류 장치와, 그 장치에서 사용되는 피부 상태 분류 모형을 생성하는 장치 및 그 방법 {APPARATUS FOR CLASSIFYING SKIN CONDITIONS, AND APPARATUS FOR GENERATING SKIN CONDITION CLASSIFICATION MODEL USED ON THE SAME APPARATUS AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a skin condition classification apparatus, a device for generating a skin condition classification model used in the apparatus,

본 발명은 피부 상태 분류 장치와, 그 장치에서 사용되는 피부 상태 분류 모형을 생성하는 장치 및 그 방법에 관한 것이다.The present invention relates to a skin condition classification apparatus, an apparatus and a method for generating a skin condition classification model used in the apparatus.

이미지 분류 기술은 입력이미지를 미리 정해진 카테고리 중 하나의 라벨로 분류해주는 기술이다. 이러한 기술의 정의는 매우 간단하지만 다양한 활용 가능성이 있는 컴퓨터 비전 분야의 핵심적인 문제 중 하나로 자리 잡고 있다.Image classification technology is a technique of classifying an input image into one of predetermined categories. The definition of this technology is very simple, but it has become one of the key issues in the field of computer vision that has various applications.

한편, 화장 카운슬링이나 의료의 분야에 있어서 피부의 상태를 해석하기 위한 여러가지 방법이 제안되어 왔다. 피부 상태는 나이, 계절적 요인 등 여러 가지 환경적 요인에 따라서 다양하게 변화하고, 동일인일지라도 상황에 따라서 피부 상태가 달라질 수 있으므로, 피부 관리를 위하여 구체적인 상황에서의 피부 상태를 파악하고, 파악된 피부 상태에 따라서 적절하게 피부 관리를 하기 위해 정확한 피부 상태 해석이 요구된다. On the other hand, various methods for analyzing the state of the skin have been proposed in the fields of make-up counseling and medical care. The skin condition varies according to various environmental factors such as age and seasonal factors. Even if the same person is the same person, the skin condition can be changed according to the situation. Therefore, it is necessary to grasp the skin condition in a specific situation, Accurate skin condition analysis is required in order to properly manage the skin according to the skin condition.

일반적으로, 피부의 상태 분류는 피부의 근접 촬영을 통해서 얻어진 피부 이미지를 분석하여 분류하는 것으로 수행된다. 그런데, 근접 촬영을 통해서 얻어지는 피부 이미지는 다른 이미지들과 다르게 '색(color)'과 '코너(corner)점' 등에 대한 변화가 미묘하다. 따라서, 동일한 장소에서 같은 피사체를 찍더라도 다르게 주어지는 상황의 변화에도 불구하고 동일한 장소에서 동일한 피사체를 촬영했다고 인식하는 알고리즘인 SIFT(Scale-Invariant Feature Transform)와 같은 기존의 영상 특징 추출 알고리즘을 사용하여 피부 이미지가 가지는 특징들을 추출하는 데 있어서는 어려움이 따른다. 예를 들면, 도 1의 (a)의 피부 이미지로부터 도 1의 (b)와 같이 피부 이미지 특징을 추출한 경우 잔털에 의한 픽셀이 변하는 곳만 특징이 추출되는 것을 확인할 수 있다.In general, classification of the skin condition is performed by analyzing and classifying the skin image obtained through close-up of the skin. However, unlike other images, the skin image obtained through close-up photography is subtle in the change of 'color' and 'corner point'. Therefore, even if the same subject is photographed at the same place, the existing image feature extraction algorithm such as SIFT (Scale-Invariant Feature Transform), which is an algorithm for recognizing that the same subject is photographed in the same place, There are difficulties in extracting features of an image. For example, when the skin image feature is extracted from the skin image of FIG. 1 (a) as shown in FIG. 1 (b), it can be seen that the feature is extracted only where the pixel due to the fine hair changes.

따라서, 이미지를 패치 단위로 분석하여 유분/수분/각질에 대한 정보를 포함하는 사전(dictionary)를 구성하고, 기저들의 가중치로 입력 이미지를 표현하는 희소 코딩(Sparse Coding) 알고리즘이 근접 촬영을 통해서 얻어지는 피부 이미지로부터 피부의 유분/수분/각질 등의 특징을 추출하는 데 있어서 보다 효과적일 수 있다.Accordingly, a sparse coding algorithm for analyzing an image on a patch-by-patch basis to construct a dictionary containing information on oil / water / horny and representing an input image as a weight of bases is obtained through close-up photography It may be more effective in extracting features such as oil / moisture / keratin from the skin image.

그런데, 이러한 희소 코딩 알고리즘에서는, 사전을 구성하는 데 있어서, 기저들 간에 독립이라는 가정을 하지 않는다. 그러므로, 해당 이미지에 대한 희소 벡터 표현이 유일하지 않고, 이로 인해 분류의 정확도가 낮아지게 된다. 또한, 데이터를 얻는 과정에서 환경 요인(빛, 그림자)의 영향을 많이 받은 입력 이미지 데이터의 경우 희소 벡터와의 오류율이 커져서, 기저들의 가중치로 얻어진 특징 벡터가 본래의 이미지 데이터를 정확하게 표현하지 못하게 된다. 결과적으로, 이미 구성이 되어있는 사전의 기저들을 사용하기 때문에 다양한 상황에 대처하지 못하다는 문제점을 가지고 있다.However, in such a rare coding algorithm, assuming that the bases are independent among the bases in constructing the dictionary, they are not assumed. Hence, the sparse vector representation for the image is not unique, which leads to poor classification accuracy. Also, in the case of input image data, which is influenced by environmental factors (light, shadow) in the process of obtaining data, the error rate with respect to the sparse vector becomes large, so that the feature vector obtained by the weight of the bases does not accurately represent the original image data . As a result, it has a problem that it can not cope with various situations because it uses the bases of the dictionaries already configured.

이러한 희소 코딩의 문제점을 보완하기 위해서 새로운 제약 조건을 추가한 향상된 희소 코딩 알고리즘이 제안되었다. 그런데, 제안된 향상된 희소 코딩 알고리즘에서는 보통 GraphSC(Graph regularized sparse coding)이나 DisScMM (Discriminative sparse coding)의 경우처럼 이미지의 공간 정보(local information)를 이용하게 된다. 그렇기 때문에 이미지에서 객체와 배경의 구분이 흐릿하고 이미지 형상의 경계선(edge)이 모호한 데이터에 대해서는 오히려 기존의 희소 코딩 알고리즘보다 좋지 못한 결과를 얻을 수 있다는 문제점이 있다.To overcome these problems, an improved sparse coding algorithm with new constraints has been proposed. However, the proposed improved sparse coding algorithm uses local information of the image as in the case of Graph regularized sparse coding (GraphSC) or Discriminative sparse coding (DisScMM). For this reason, there is a problem in that an object and a background are not distinguished from each other in an image, and data having an ambiguous edge of an image shape is obtained rather than a conventional rare coding algorithm.

따라서, 피부 이미지를 분류함에 있어서 종래의 기술보다 정확도를 향상시킬 수 있는 분류 기술이 요구된다. Therefore, there is a need for a classification technique that can improve the accuracy of the classification of skin images over the prior art.

본 발명이 이루고자 하는 기술적 과제는 피부 상태 분류에 대한 정확도를 향상시킬 수 있는 피부 상태 분류 장치와, 그 장치에서 사용되는 피부 상태 분류 모형을 생성하는 장치 및 그 방법을 제공한다.SUMMARY OF THE INVENTION The present invention provides a skin condition classifier capable of improving the accuracy of skin condition classification, an apparatus for generating a skin condition classification model used in the apparatus, and a method thereof.

본 발명의 한 특징에 따른 피부 상태 분류 장치는,According to an aspect of the present invention,

복수의 피부 이미지의 데이터에 대해 희소 코딩(Sparse Coding) 알고리즘을 사용하여 구축되는 복수의 분류기 구조체를 저장하는 구조체 저장부 - 상기 분류기 구조체는 각각 복수의 피부 이미지에 대해 학습된 사전(dictionary), 상기 사전으로부터 추출되는 희소 표현(sparse representation) 및 상기 희소 표현으로부터 생성되는 분류기를 포함함 -; 및 피부 상태 분류를 위해 입력되는 새로운 피부 이미지에 대해 피부 상태 분류 모형과 상기 구조체 저장부에 저장된 복수의 분류기 구조체를 사용하여 상기 새로운 피부 이미지에 대한 피부 상태를 분류하여 그 결과에 해당하는 피부 상태 분류 정보를 출력하는 피부 상태 분류부를 포함하며, 상기 피부 상태 분류 모형은 상기 구조체 저장부에 저장되어 있는 복수의 분류기에 대해 아다부스팅(Adaboosting) 알고리즘을 적용하여 최종적으로 생성된 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)이다.A structure storage unit for storing a plurality of classifier structures constructed using a sparse coding algorithm for data of a plurality of skin images, each classifier structure comprising a dictionary learned for a plurality of skin images, A sparse representation extracted from a dictionary and a classifier generated from the sparse representation; And a skin condition classification model for a new skin image inputted for skin condition classification and a plurality of classifier structures stored in the structure storage section to classify the skin condition of the new skin image, Wherein the skin condition classification model is a Boosting Sparse coding model that applies an adaboosting algorithm to a plurality of classifiers stored in the structure storage unit and outputs a skin condition classification model, Coding Model).

여기서, 상기 피부 상태 분류 모형은, 복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 적용하여 사전, 희소 표현 및 분류기를 포함하는 분류기 구조체를 생성하는 과정을 미리 설정된 회수만큼 반복 수행하여 복수의 분류기 구조체를 생성하고, 상기 복수의 분류기에 각각 포함되어 있는 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)인 피부 상태 분류 모형을 생성하는 피부 상태 분류 모형 생성 장치에 의해 생성된 것이다.Here, the skin condition classification model may include a process of generating a classifier structure including a dictionary, a rare expression, and a classifier by applying a sparse coding algorithm to data of a plurality of skin images repeatedly a predetermined number of times, Generating a skin condition classification model that generates a skin condition classification model that is a boosting sparse coding model by applying an adoboosting algorithm to a plurality of classifiers included in each of the plurality of classifiers, Device.

또한, 상기 피부 이미지는 수분, 유분, 각질, 수분 함량에 대한 라벨이 정해져 있는 피부 이미지이다.In addition, the skin image is a skin image in which a label for moisture, oil, keratin, and moisture content is determined.

본 발명의 다른 특징에 따른 피부 상태 분류 모형 생성 장치는,According to another aspect of the present invention, there is provided an apparatus for generating a skin condition classification model,

각각 복수의 피부 이미지에 대해 학습된 사전(dictionary), 상기 사전으로부터 추출되는 희소 표현(sparse representation) 및 상기 희소 표현으로부터 생성되는 분류기를 포함하는 복수의 분류기 구조체를 저장하는 구조체 저장부; 복수의 피부 이미지의 데이터에 대해 희소 코딩(Sparse Coding) 알고리즘을 사용하여 상기 복수의 분류기 구조체를 생성하여 상기 구조체 저장부에 저장하는 구조체 생성부; 및 상기 구조체 저장부의 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 최종적인 피부 상태 분류 모형인 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)을 생성하는 최종 모형 생성부를 포함한다.A structure storage unit for storing a plurality of classifier structures including a dictionary learned for a plurality of skin images, a sparse representation extracted from the dictionary, and a classifier generated from the rare expression; A structure generation unit for generating the plurality of classifier structures by using a sparse coding algorithm for data of a plurality of skin images and storing the plurality of classifier structures in the structure storage unit; And a final model generation unit for generating a boosting sparse coding model, which is a final skin state classification model, by applying an adoboosting algorithm to a plurality of classifiers of the structure storage unit.

여기서, 상기 구조체 생성부는, 상기 복수의 피부 이미지의 데이터에 대해 교차 최소화(Alternating Minimization) 알고리즘을 사용하여 학습된 사전을 구성하며, 구성된 사전을 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 사전 구성부; 상기 사전 구성부에서 구성되는 사전을 이용하여 상기 복수의 피부 이미지의 데이터에 대한 희소 표현을 추출하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 희소 표현 추출부; 및 상기 희소 표현 추출부에 의해 추출되는 희소 표현에 기계 학습 알고리즘을 적용하여 분류기를 생성하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 분류기 생성부를 포함한다.Here, the structure generation unit may include a dictionary construction unit that constructs a learned dictionary by using an alternating minimization algorithm for the data of the plurality of skin images, and stores the constructed dictionary in a corresponding classifier structure of the structure storage unit, ; A rare expression extracting unit for extracting a rare expression for data of the plurality of skin images using a dictionary formed by the pre-constructing unit and storing the extracted rare expression in a corresponding classifier structure of the structure storing unit; And a classifier generator for generating a classifier by applying a machine learning algorithm to the sparse expression extracted by the sparse expression extractor and storing the generated classifier in a corresponding classifier structure of the structure storage unit.

또한, 상기 사전 구성부는, 상기 복수의 피부 이미지의 데이터로부터 패치 매트릭스로 구성하는 패치 매트릭스 구성부; 및 상기 패치 매트릭스 구성부에 의해 구성되는 상기 패치 매트릭스에 대해 교차 최소화 알고리즘을 적용한 학습을 수행하여 최종적으로 학습된 사전을 구성하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 교차 최소화 수행부를 포함한다.The pre-configuration unit may include: a patch matrix constructing unit configured to construct a patch matrix from the data of the plurality of skin images; And an intersection minimization unit for constructing a finally learned dictionary by performing learning using the cross minimization algorithm for the patch matrix constituted by the patch matrix constituent unit and storing the constructed dictionary in a corresponding classifier structure of the structure storage unit.

또한, 상기 패치 매트릭스 구성부는 상기 복수의 피부 이미지의 데이터로부터 복수의 패치 데이터들을 구성하고, 상기 복수의 패치 데이터 각각을 매트릭스 형태로 재배열하여 하나의 패치 매트릭스를 구성한다.The patch matrix forming unit forms a plurality of patch data from the data of the plurality of skin images, and rearranges each of the plurality of patch data in a matrix form to constitute one patch matrix.

또한, 상기 교차 최소화 수행부에 의해 수행되는 상기 교차 최소화 알고리즘은, 희소 벡터를 고정시킨 상태에서 라그랑주 듀얼 문제(Lagrange dual problem)를 이용하여 상기 사전을 구하고, 상기 사전을 고정시킨 상태에서 특징 사인 탐색(feature sign search) 알고리즘을 이용하여 상기 희소 벡터를 구하는 과정을 수렴 조건이 성립할 때까지 반복 수행하여 최종적으로 학습된 사전을 구성한다.In addition, the cross minimization algorithm performed by the cross minimization performing unit may include: obtaining the dictionary using a Lagrange dual problem in a state in which a sparse vector is fixed, (feature sign search) algorithm to obtain the sparse vector until the convergence condition is satisfied, thereby constructing the finally learned dictionary.

또한, 상기 교차 최소화 수행부에 의해 수행되는 상기 교차 최소화 알고리즘은 다음의 수학식The intersection minimization algorithm performed by the intersection minimization performing unit may be expressed by the following equation

Figure 112017011852009-pat00001
Figure 112017011852009-pat00001

여기서, Φ는 사전이고, a는 희소 벡터임    Here,? Is a dictionary and a is a rare vector

을 따른다..

또한, 상기 희소 표현 추출부는, 상기 사전 구성부에 의해 최종적으로 구성되는 사전에 특징 사인 탐색(feature sign search) 알고리즘을 수행하는 특징 사인 탐색(feature sign search) 수행부; 및 상기 특징 사인 탐색 수행부에 수행된 결과 데이터에 대해 섬 풀링(sum pooling)을 수행하여 상기 피부 이미지 각각에 대한 희소 표현을 추출하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 섬 풀링(sum pooling) 수행부를 포함한다.Also, the rare expression extracting unit may include a feature sign search performing unit that performs a feature sign search algorithm in advance, which is ultimately configured by the pre-configuration unit; And a sum pooling unit that performs sum pooling on the result data performed by the feature search unit and extracts a rare expression for each skin image and stores the extracted rare expression in a corresponding classifier structure of the structure storing unit, ) Performing unit.

또한, 상기 분류기 생성부에 의해 사용되는 기계 학습 알고리즘은 SVM(Support Vector Machine) 알고리즘이다.In addition, the machine learning algorithm used by the classifier generator is a SVM (Support Vector Machine) algorithm.

또한, 상기 구조체 생성부가 한 번의 생성 작업을 통해 사전, 희소 표현 및 분류기를 포함하는 하나의 분류기 구조체를 생성하는 방식으로, 상기 구조체 생성부가 복수의 반복 작업을 통해 상기 복수의 분류기 구조체를 생성한다.In addition, the structure generating unit generates a plurality of classifiers through a plurality of iterations in a manner of generating one classifier structure including a dictionary, a rare expression, and a classifier through a single generating operation.

또한, 상기 분류기 생성부는, 상기 반복 작업마다 패치들의 가중치를 학습 오류율에 따라 업데이트하여 분류기별 아다부스트 파라미터를 생성하고, 상기 최종 모형 생성부는 상기 분류기별 아다부스트 파라미터의 선형 결합을 통해 최종적인 피부 상태 분류 모형을 생성한다.In addition, the classifier generator may generate the Adaboost parameter for each classifier by updating the weights of the patches according to the learning error rate for each iterative operation, and the final model generator generates a final skin condition Create a classification model.

또한, 상기 패치들의 가중치에 대한 업데이트는, 오 분류된 희소 표현에 해당되는 패치들의 가중치 업데이트와 상기 반복 작업에서 사전을 생성하기 위해 처음에 뽑혀진 패치들에 대한 가중치 업데이트를 포함한다.The updating of the weights of the patches also includes updating the weights of the patches corresponding to the misclassified rare expressions and updating the weights for the patches initially drawn to generate the dictionary in the repeated operation.

또한, 상기 최종 모형 생성부는 패치들의 가중치를 학습 오류율에 따라 업데이트시키며, 상기 패치들의 가중치와 오류율을 이용하여 상기 분류기마다 아다부스팅 가중치를 구하여 최종적인 피부 상태 분류 모형을 생성한다.Also, the final model generation unit updates the weights of the patches according to the learning error rate, and calculates the final skin condition classification model by obtaining the adaboasting weight for each classifier using the weights and the error rates of the patches.

또한, 상기 최종적인 피부 상태 분류 모형(

Figure 112017011852009-pat00002
)은 다음의 수학식In addition, the final skin condition classification model (
Figure 112017011852009-pat00002
) Is expressed by the following equation

Figure 112017011852009-pat00003
Figure 112017011852009-pat00003

여기서,

Figure 112017011852009-pat00004
는 가중치이고,
Figure 112017011852009-pat00005
는 분류기이며,
Figure 112017011852009-pat00006
는 이미지이고,
Figure 112017011852009-pat00007
는 지시함수이며, k는 클래스 라벨이고,here,
Figure 112017011852009-pat00004
Is a weight,
Figure 112017011852009-pat00005
Is a classifier,
Figure 112017011852009-pat00006
Is an image,
Figure 112017011852009-pat00007
Is an indicator function, k is a class label,

Figure 112017011852009-pat00008
이며,
Figure 112017011852009-pat00008
Lt;

Figure 112017011852009-pat00009
Figure 112017011852009-pat00009
being

을 따른다..

본 발명의 또 다른 특징에 따른 피부 상태 분류 모형 생성 방법은,According to another aspect of the present invention,

피부 상태 분류 모형 생성 장치가 피부 이미지에 대한 피부 상태를 분류하는 데 사용되는 피부 상태 분류 모형을 생성하는 방법으로서, 복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 적용하여 사전, 희소 표현 및 분류기를 포함하는 분류기 구조체를 생성하는 과정을 미리 설정된 회수만큼 반복 수행하여 복수의 분류기 구조체를 생성하는 단계; 및 상기 복수의 분류기에 각각 포함되어 있는 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)인 최종적인 피부 상태 분류 모형을 생성하는 단계를 포함한다.CLAIMS What is claimed is: 1. A method for generating a skin condition classification model used by a skin condition classification model generation device to classify a skin condition for a skin image, the method comprising: applying a sparse coding algorithm to data of a plurality of skin images to generate a dictionary, Generating a plurality of classifier structures by repeating a process of generating a classifier structure including a plurality of classifiers by a predetermined number of times; And generating a final skin condition classification model, which is a boosting sparse coding model, by applying an adaboosting algorithm to a plurality of classifiers respectively included in the plurality of classifiers.

여기서, 상기 복수의 분류기 구조체를 생성하는 단계 전에, 상기 복수의 피부 이미지의 데이터로부터 복수의 패치 데이터들을 구성하고, 상기 복수의 패치 데이터 각각을 매트릭스 형태로 재배열하여 하나의 패치 매트릭스를 구성하는 단계를 더 포함한다.Here, before the step of generating the plurality of classifier structures, a step of constructing a plurality of patch data from the data of the plurality of skin images and rearranging each of the plurality of patch data in a matrix form to form one patch matrix .

또한, 상기 복수의 분류기 구조체를 생성하는 단계는, 상기 복수의 피부 이미지의 데이터에 대해 교차 최소화(Alternating Minimization) 알고리즘을 사용하여 학습된 사전을 구성하여 대응되는 분류기 구조체에 저장하는 단계; 구성되는 사전을 이용하여 상기 복수의 피부 이미지의 데이터에 대한 희소 표현을 추출하여 대응되는 분류기 구조체에 저장하는 단계; 추출되는 희소 표현에 SVM(Support Vector Machine) 알고리즘을 적용하여 분류기를 생성하여 대응되는 분류기 구조체에 저장하는 단계; 및 상기 미리 설정된 회수만큼 상기 학습된 사전을 구성하여 대응되는 분류기 구조체에 저장하는 단계, 상기 희소 표현을 추출하여 대응되는 분류기 구조체에 저장하는 단계, 및 상기 분류기를 생성하여 대응되는 분류기 구조체에 저장하는 단계를 반복 수행하여 상기 복수의 분류기 구조체를 생성하는 단계를 포함한다.The generating of the plurality of classifier structures may include constructing a learned dictionary using data of the plurality of skin images using an alternating minimization algorithm and storing the learned data in a corresponding classifier structure; Extracting a sparse representation of the data of the plurality of skin images using a dictionary formed and storing the extracted sparse expressions in a corresponding classifier structure; Generating a classifier by applying an SVM (Support Vector Machine) algorithm to the extracted rare expression, and storing the classifier in a corresponding classifier structure; And constructing the learned dictionary by the predetermined number of times and storing the learned dictionary in a corresponding classifier structure, extracting the rare expression and storing the extracted rare expression in a corresponding classifier structure, and storing the generated classifier in a corresponding classifier structure And generating the plurality of classifier structures by repeating the steps.

또한, 상기 교차 최소화 알고리즘은, 희소 벡터를 고정시킨 상태에서 라그랑주 듀얼 문제(Lagrange dual problem)를 이용하여 상기 사전을 구하고, 상기 사전을 고정시킨 상태에서 특징 사인 탐색(feature sign search) 알고리즘을 이용하여 상기 희소 벡터를 구하는 과정을 수렴 조건이 성립할 때까지 반복 수행하여 최종적으로 학습된 사전을 구성하는 알고리즘이다.In addition, the crossover minimization algorithm may be performed by using a Lagrange dual problem with the sparse vector fixed, obtaining the dictionary, and using the feature sign search algorithm with the dictionary fixed And the process of obtaining the sparse vector is repeated until the convergence condition is satisfied, thereby constructing the finally learned dictionary.

또한, 상기 희소 표현을 추출하여 대응되는 분류기 구조체에 저장하는 단계에서 상기 사전에 특징 사인 탐색(feature sign search) 알고리즘을 수행한 후 섬 풀링(sum pooling)을 수행하여 상기 피부 이미지 각각에 대한 희소 표현을 추출한다.In addition, in the step of extracting the rare expression and storing it in a corresponding classifier structure, a feature sign search algorithm is performed in the dictionary, and then a sum pooling is performed to obtain a rare expression .

또한, 상기 복수의 분류기 구조체를 생성하는 단계에서, 상기 반복 수행마다 패치들의 가중치를 학습 오류율에 따라 업데이트하여 분류기별 아다부스트 파라미터를 생성하고, 상기 최종적인 피부 상태 분류 모형을 생성하는 단계에서, 상기 분류기별 아다부스트 파라미터의 선형 결합을 통해 최종적인 피부 상태 분류 모형을 생성한다.In addition, in the step of generating the plurality of classifier structures, the weights of the patches are updated according to the learning error rate for each iteration to generate the adaboost parameters for each classifier, and in the final skin condition classification model, A final skin condition classification model is created by linear combination of the AdaBoost parameters for each classifier.

본 발명의 또 다른 특징에 따른 컴퓨터 판독 가능 기록 매체는,According to another aspect of the present invention, there is provided a computer-

피부 상태 분류 모형 생성 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체로서, 복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 적용하여 사전, 희소 표현 및 분류기를 포함하는 분류기 구조체를 생성하는 과정을 미리 설정된 회수만큼 반복 수행하여 복수의 분류기 구조체를 생성하는 기능; 및 상기 복수의 분류기에 각각 포함되어 있는 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)인 최종적인 피부 상태 분류 모형을 생성하는 기능을 포함한다.A computer-readable recording medium storing a program for performing a method for generating a skin condition classification model, the method comprising: generating a classifier structure including a dictionary, a rare expression, and a classifier by applying a rare coding algorithm to data of a plurality of skin images; Generating a plurality of classifier structures by repeatedly performing a predetermined number of times; And a function of generating a final skin condition classification model, which is a boosting sparse coding model, by applying an adaboosting algorithm to a plurality of classifiers respectively included in the plurality of classifiers.

본 발명에 따르면, 피부 상태 분류시 사용자의 환경(빛, 그림자, 실내외 등)에 보다 강인해진다.According to the present invention, the skin condition classification becomes more robust to the user's environment (light, shadow, indoor / outdoor, etc.).

또한, 특징 벡터가 유일해져 분류의 오류를 낮출 수 있다.In addition, the feature vector is unique, and the classification error can be reduced.

따라서, 종래의 기술에 비해 피부 상태 분류에 대한 정확도가 향상된다. Therefore, the accuracy with respect to the skin condition classification is improved as compared with the conventional technique.

도 1은 종래 SIFT 알고리즘에 따른 피부 이미지 특징 추출 예를 도시한 도면이다.
도 2는 일반적으로 희소 코딩 알고리즘에서 기저들을 이용하여 이미지 패치를 희소한 가중치 벡터로 재표현한 개념을 도시한 도면이다.
도 3은 본 발명의 실시예에 따른 피부 상태 분류 장치의 개략적인 구성을 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 피부 상태 분류 모형 생성 장치의 개략적인 구성 블록도이다.
도 5는 도 4에 도시된 구조체 저장부의 구성 예를 도시한 도면이다.
도 6은 도 4에 도시된 사전 구성부의 구체적인 구성을 도시한 도면이다.
도 7은 도 6에 도시된 패치 매트릭스 구성부가 패치 매트릭스를 구성하는 예를 도시한 도면이다.
도 8은 도 4에 도시된 희소 표현 추출부의 구체적인 구성을 도시한 도면이다.
도 9는 본 발명의 실시예에 따른 오 분류에 간접적으로 영향을 미치는 패치의 가중치 업데이트 방법을 개략적으로 도시한 도면이다.
도 10은 본 발명의 실시예에 따른 피부 상태 분류 모형을 생성하는 방법의 흐름도이다.
도 11은 도 10에 도시된 구조체를 생성하는 단계의 구체적인 흐름도이다.
도 12는 본 발명의 실시예에서 피부 상태 분류를 위해 입력되는 피부 이미지 데이터 샘플의 예를 도시한 도면이다.
도 13은 본 발명의 실시예에 따른 피부 상태 분류 방법에 따라 학습된 사전의 예를 도시한 도면이다.
도 14는 본 발명의 실시예에 따른 피부 상태 분류 방법에 따른 교차 최소화 알고리즘 매트릭스 연산의 개념을 개략적으로 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 피부 상태 분류 방법에 따라 반복 회수만큼 구성된 분류기 구조체의 예를 도시한 도면이다.
도 16은 본 발명의 실시예에 따른 피부 상태 분류 방법에서 반복 회수에 따른 정확도를 도시한 도면이다.
1 is a view showing an example of skin image feature extraction according to the conventional SIFT algorithm.
2 is a diagram illustrating the concept of re-rendering an image patch as a rare weight vector using bases in a sparse coding algorithm in general.
FIG. 3 is a view showing a schematic configuration of a skin condition classifying apparatus according to an embodiment of the present invention.
4 is a schematic block diagram of an apparatus for generating a skin condition classification model according to an embodiment of the present invention.
5 is a view showing a configuration example of the structure storage unit shown in FIG.
Fig. 6 is a diagram showing a specific configuration of the pre-configuration unit shown in Fig. 4. Fig.
FIG. 7 is a view showing an example in which the patch matrix constitution unit shown in FIG. 6 constitutes a patch matrix.
8 is a diagram showing a specific configuration of the rare expression extracting unit shown in FIG.
FIG. 9 is a view schematically showing a method of updating weights of patches indirectly affecting misclassification according to an embodiment of the present invention.
10 is a flowchart of a method of generating a skin condition classification model according to an embodiment of the present invention.
11 is a specific flowchart of a step of creating the structure shown in FIG.
12 is a diagram showing an example of a skin image data sample input for skin condition classification in the embodiment of the present invention.
13 is a diagram showing an example of a dictionary learned according to the skin condition classification method according to the embodiment of the present invention.
FIG. 14 is a diagram schematically illustrating the concept of a matrix minimizing algorithm according to a skin condition classification method according to an embodiment of the present invention. Referring to FIG.
FIG. 15 is a view showing an example of a classifier structure constructed by the number of iterations according to the skin condition classification method according to the embodiment of the present invention.
16 is a diagram illustrating the accuracy according to the number of repetitions in the skin condition classification method according to the embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as " comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, " " module, " and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.

먼저, 기존의 희소 코딩 알고리즘에서는 각각의 학습 이미지에서 임의의 패치들을 뽑아 사전을 구성한다. 이 때, 사전을 구성하는 기저(basis)들은 새로운 패치가 들어왔을 때, 기저들의 선형 결합으로서 패치를 재해석하게 된다. 예를 들어 새로운 패치 이미지가 오버컴플리트(overcomplete)된 사전 내에서 수 개의 기저들만으로 표현이 가능하다면, 선택된 기저들의 가중치를 제외한 나머지 기저들의 가중치는 모두 0이 될 것이다. 따라서 패치 이미지는 매우 희소(sparse)한 가중치 벡터로서 재해석되고 표현된다. 희소 코딩 알고리즘에서 기저(basis)들을 이용하여 이미지 패치를 희소(sparse)한 가중치 벡터로 재표현한 개념이 도시된 도 2가 참조될 수 있다. 여기서, 0이 아닌 가중치는 이미지 패치에 대한 '특징 추출'이라할 수 있고, 희소(sparse)한 벡터로서 다시 표현 한다는 의미를 갖는다.First, in the existing sparse coding algorithm, a dictionary is constructed by extracting arbitrary patches from each learning image. At this time, the bases constituting the dictionary reinterpret the patch as a linear combination of bases when a new patch comes in. For example, if a new patch image can be represented with only a few baselines in an overcomplicated dictionary, the weights of all the bases except for the weight of the selected bases will be zero. Thus, the patch image is reinterpreted and represented as a very sparse weight vector. Reference can be made to FIG. 2, which illustrates the concept of re-rendering an image patch as a sparse weight vector using basis in a sparse coding algorithm. Here, a non-zero weight value can be referred to as 'feature extraction' for an image patch, meaning that it is expressed again as a sparse vector.

그러나, 상기한 바와 같이, 기존의 희소 코딩 알고리즘에서는 해당 이미지에 대한 희소 벡터 표현이 유일하지 않아 분류의 정확도가 낮아지게 되고, 또한 사용자의 환경에 보다 강인하지 못하다는 문제점을 가지고 있다.However, as described above, the existing sparse coding algorithm has a problem that the classification accuracy is low because the sparse vector expression for the image is not unique, and the sparse vector representation is not robust to the user's environment.

이하, 상기한 문제점을 해결하기 위한 본 발명의 실시예에 대해 설명한다.Hereinafter, embodiments of the present invention for solving the above problems will be described.

도 3은 본 발명의 실시예에 따른 피부 상태 분류 장치의 개략적인 구성을 도시한 도면이다.FIG. 3 is a view showing a schematic configuration of a skin condition classifying apparatus according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 피부 상태 분류 장치(100)는 피부 상태 분류를 위해 근접 촬영된 피부 이미지를 입력으로 받아서 해당 피부 이미지의 피부 상태 분류 정보를 출력한다.As shown in FIG. 3, the skin condition classification apparatus 100 according to an embodiment of the present invention receives a close-up skin image as an input for skin condition classification and outputs skin condition classification information of the skin image.

이러한 피부 상태 분류 장치(100)는 구조체 저장부(110), 피부 상태 분류 모형(120) 및 피부 상태 분류부(130)를 포함한다.The skin condition classification apparatus 100 includes a structure storage unit 110, a skin condition classification model 120, and a skin condition classification unit 130.

구조체 저장부(110)는 복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 사용하여 구축되는 복수의 분류기 구조체를 포함하며, 각 분류기 구조체는 다수의 피부 이미지에 대해 학습된 사전(dictionary), 학습된 사전으로부터 추출되는 희소 표현(sparse representation) 및 희소 표현에 의해 생성되는 분류기를 포함한다. 이에 대해서는 추후 구체적으로 설명한다.The structure storage unit 110 includes a plurality of classifier structures constructed using a sparse coding algorithm for data of a plurality of skin images. Each classifier structure includes a dictionary learned for a plurality of skin images, A sparse representation extracted from a dictionary, and a classifier generated by a rare representation. This will be described in detail later.

피부 상태 분류 모형(120)은 구조체 저장부(110)에 저장되어 있는 복수의 분류기 구조체에 대해 멀티클래스 아도부스팅(Multiclass Adaboosting) 알고리즘을 적용하여 최종적으로 생성된 피부 상태 분류 모형인 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)이다. 이 때, 피부 상태 분류 모형(120)은 부스팅 희소 코딩 모형에 따른 알고리즘을 수행할 수 있는 처리 장치일 수 있다.The skin condition classification model 120 may be constructed by applying a multiclass adaboosting algorithm to a plurality of classifier structures stored in the structure storage unit 110 to generate a final skin state classification model called a boosting rare coding model Boosting Sparse Coding Model). At this time, the skin condition classification model 120 may be a processing device capable of performing an algorithm according to a boosting sparse coding model.

피부 상태 분류부(130)는 피부 상태 분류를 위해 외부로부터 입력되는 피부 이미지에 대해 피부 상태 분류 모형(120)의 부스팅 희소 코딩 모형과 구조체 저장부(110)에 저장된 복수의 분류기 구조체를 사용하여 피부 이미지에 대한 피부 상태를 분류하여 그 결과에 해당하는 피부 상태 분류 정보를 출력한다. 여기서, 피부 이미지는 수분, 유분, 각질, 수분 함량(%)에 대한 라벨이 정해져 있는 피부 이미지일 수 있으며, 이 경우 피부 상태 분류부(130)에 의해 출력되는 피부 상태 분류 정보는 각각의 라벨별로 피부의 상태를 분류한 정보가 포함된다.The skin condition classifying unit 130 classifies the skin image inputted from the outside for the skin condition classification by using a boosting rare coding model of the skin condition classification model 120 and a plurality of classifier structures stored in the structure storing unit 110, The skin condition for the image is classified and the skin condition classification information corresponding to the result is outputted. Here, the skin image may be a skin image having a label for moisture, oil, keratin, and moisture content (%). In this case, the skin condition classification information output by the skin condition classifier 130 may be classified by each label Information that classifies the condition of the skin is included.

이하, 본 발명의 실시예에 따른 피부 상태 분류 모형을 생성하는 장치 및 그 방법에 대해 설명한다.Hereinafter, an apparatus and method for generating a skin condition classification model according to an embodiment of the present invention will be described.

도 4는 본 발명의 실시예에 따른 피부 상태 분류 모형 생성 장치의 개략적인 구성 블록도이다.4 is a schematic block diagram of an apparatus for generating a skin condition classification model according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 실시예에 따른 피부 상태 분류 모형 생성 장치(200)는 구조체 저장부(210), 구조체 생성부(220) 및 최종 모형 생성부(230)를 포함한다.4, an apparatus 200 for generating a skin condition classification model according to an embodiment of the present invention includes a structure storage unit 210, a structure generation unit 220, and a final model generation unit 230.

구조체 저장부(210)는 도 3에서 설명한 바와 같은 구조체 저장부(110)와 동일하며, 복수의 분류기 구조체(211, 213, 215)를 포함한다.The structure storage unit 210 is the same as the structure storage unit 110 described with reference to FIG. 3 and includes a plurality of classifier structures 211, 213, and 215.

각 분류기 구조체(211, 213, 215)는 도 5에 도시된 바와 같이, 사전(2111), 희소 표현(2113) 및 분류기(2115)를 포함한다. 분류기 구조체(211, 213, 215) 각각에 포함되어 있는 사전, 희소 표현 및 분류기는 서로 상이할 것이다.Each classifier structure 211, 213, and 215 includes a dictionary 2111, a rare expression 2113, and a classifier 2115, as shown in FIG. The dictionary, the rare representation, and the classifier included in each of the classifier structures 211, 213, and 215 will be different from each other.

구조체 생성부(220)는 구조체 저장부(210)에 저장되는 복수의 분류기 구조체(211, 213, 215)를 생성한다. 구조체 생성부(220)는 복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 사용하여 분류기 구조체(211, 213, 215)를 생성하며, 이 때 구조체 생성부(220)는 하나의 분류기 구조체를 생성하는 과정을 반복 수행하여 복수의 분류기 구조체(211, 213, 215)를 생성하게 된다. 예를 들어, 분류기 구조체(211)가 구조체 생성부(220)에 의해 처음 생성되는 구조체이고, 분류기 구조체(213)는 구조체 생성부(220)의 반복 수행에 의해 두 번째로 생성되는 구조체이며, 분류기 구조체(215)는 구조체 생성부(220)의 n번째 반복 수행에 의해 생성되는 구조체를 나타낸다. 이와 같은 반복 회수를 나타내기 위해 각 분류기 구조체(211, 213, 215)에 대해 1, 2, 및 n을 사용하여 표시하였다.The structure generating unit 220 generates a plurality of classifier structures 211, 213, and 215 stored in the structure storing unit 210. The structure generating unit 220 generates a classifier structure 211, 213, and 215 using a sparse coding algorithm for data of a plurality of skin images, and the structure generating unit 220 generates a classifier structure A plurality of classifier structures 211, 213, and 215 are generated. For example, the classifier structure 211 is a structure that is first generated by the structure generation unit 220, the classifier structure 213 is a structure that is generated secondarily by repetitive execution of the structure generation unit 220, The structure 215 represents a structure generated by the n-th iteration of the structure generating unit 220. In order to show such a repetition number, 1, 2, and n are used for each classifier structure 211, 213, and 215, respectively.

구체적으로, 구조체 생성부(220)는 사전 구성부(221), 희소 표현 추출부(223) 및 분류기 생성부(225)를 포함한다.Specifically, the structure generating unit 220 includes a pre-forming unit 221, a rare expression extracting unit 223, and a classifier generating unit 225.

사전 구성부(221)는 복수의 피부 이미지의 데이터에 대해 교차 최소화(Alternating Minimization) 알고리즘을 사용하여 학습된 사전을 구성하여 구조체 저장부(210)의 해당하는 분류기 구조체, 예를 들어 분류기 구조체(221)에 저장한다. 즉, 사전 구성부(221)는 구조체 생성부(220)의 반복 수행에 의해 또한 사전 구성 동작을 반복하여 반복시 각각 구성되는 사전(사전1, 사전2, …, 사전n)을 반복 회수에 대응되는 분류기 구조체(211, 213, 215)에 각각 저장한다.The pre-construction unit 221 constructs a learned dictionary using data of a plurality of skin images using an alternating minimization algorithm, and generates a corresponding classifier structure of the structure storage unit 210, for example, a classifier structure 221 ). That is, the pre-construction unit 221 repeats the pre-configuration operation by repetition of the structure generation unit 220 so that the dictionary (dictionary 1, dictionary 2, ..., dictionary n) Respectively, in the classifier structures 211, 213, and 215, respectively.

도 6은 도 4에 도시된 사전 구성부(221)의 구체적인 구성을 도시한 도면이다.FIG. 6 is a diagram showing a specific configuration of the pre-configuration unit 221 shown in FIG.

도 6에 도시된 바와 같이, 사전 구성부(221)는 패치 매트릭스(patch matrix) 구성부(2211) 및 교차 최소화 수행부(2213)를 포함한다.As shown in FIG. 6, the pre-configuration unit 221 includes a patch matrix configuration unit 2211 and an intersection minimization performance unit 2213.

매치 매트릭스 구성부(2211)는, 도 7에 도시된 바와 같이, 복수의 피부 이미지의 데이터를 패치들의 매트릭스로 구성한다. 도 7을 참조하면, 피부 이미지(21)로부터 복수의 패치(23)를 생성하고, 복수의 패치(23)의 각 데이터를 매트릭스 형태로 재배열하여 하나의 패치 매트릭스를 구성할 수 있다. As shown in FIG. 7, the match matrix construction unit 2211 constructs a matrix of patches of data of a plurality of skin images. Referring to FIG. 7, a plurality of patches 23 may be generated from the skin image 21, and each patch of the patches 23 may be rearranged in a matrix form to form one patch matrix.

교차 최소화 수행부(2213)는 패치 매트릭스 구성부(2211)에 의해 구성되는 패치 매트릭스에 대해 교차 최소화 알고리즘을 적용한 학습을 수행하여 최종적으로 학습된 사전을 구성하여 구조체 저장부(210)에 저장한다.The cross minimization performing unit 2213 performs learning using the cross minima algorithm for the patch matrix constituted by the patch matrix construction unit 2211 to construct the finally learned dictionary and stores the dictionary in the structure storage unit 210. [

구체적으로, 교차 최소화 수행부(2213)는 [수학식 1]과 같은 교차 최소화 알고리즘을 수행한다.Specifically, the intersection minimization unit 2213 performs an intersection minimization algorithm such as Equation (1).

[수학식 1][Equation 1]

Figure 112017011852009-pat00010
Figure 112017011852009-pat00010

[수학식 1]을 참조하면, 사전(Φ)은 희소 벡터(a)를 고정시킨 상태에서 라그랑주 듀얼 문제(Lagrange dual problem)을 이용하여 구하고, 희소 벡터(a)는 사전(Φ)을 고정시킨 상태에서 특징 사인 탐색(feature sign search) 알고리즘을 이용하여 구한다. 상기한 과정이 수렴 조건이 성립할 때까지 반복된 후에 최종적인 사전이 구성된다. Referring to Equation (1), the dictionary Φ is obtained by using a Lagrange dual problem with the sparse vector a fixed, and the sparse vector a is obtained by fixing the Φ (Feature sign search algorithm). The final dictionary is constructed after the above process is repeated until the convergence condition is established.

희소 표현 추출부(223)는 사전 구성부(221)에서 구성된 사전을 이용하여 복수의 피부 이미지의 데이터에 대한 희소 표현을 추출하여 구조체 저장부(210)의 해당하는 분류기 구조체, 예를 들어 분류기 구조체(221)에 저장한다. 즉, 희소 표현 추출부(223)는 구조체 생성부(220)의 반복 수행에 의해 또한 희소 표현 추출 동작을 반복하여 반복시 각각 구성되는 사전(희소 표현1, 희소 표현2, …, 희소 표현n)을 반복 회수에 대응되는 분류기 구조체(211, 213, 215)에 각각 저장한다.The sparse expression extracting unit 223 extracts a sparse representation of data of a plurality of skin images using a dictionary constructed in the pre-constituent unit 221 and extracts a corresponding classifier structure of the structure storage unit 210, (221). That is, the sparse expression extracting unit 223 extracts a dictionary (sparse expression 1, sparse expression 2, ..., sparse expression n), which are each formed by repeating the operation of extracting the rare expression by repeated execution of the structure generating unit 220, Are stored in the classifier structures 211, 213, and 215 corresponding to the number of iterations, respectively.

도 8은 도 4에 도시된 희소 표현 추출부(223)의 구체적인 구성을 도시한 도면이다.8 is a diagram showing a specific configuration of the rare expression extracting unit 223 shown in FIG.

도 8에 도시된 바와 같이, 희소 표현 추출부(223)는 특징 사인 탐색 수행부(2231) 및 섬 풀링(sum pooling) 수행부(2233)를 포함한다.8, the rare expression extracting unit 223 includes a feature sine search performing unit 2231 and a sum pooling performing unit 2233.

특징 사인 탐색 수행부(2231)는 사전 구성부(221)에 의해 최종적으로 구성된 사전에 특징 사인 탐색(feature sign search) 알고리즘을 수행한다.The feature search search performing unit 2231 performs a feature search search algorithm in a dictionary configured by the pre-configuration unit 221 in advance.

섬 풀링 수행부(2233)는 특징 사인 탐색 수행부(2231)에 의해 특징 사인 탐색이 수행된 데이터에 대해 섬 풀링을 수행하여 피부 이미자 각각에 대한 희소 표현을 추출하여 구조체 저장부(210)에 저장한다. 이 때, 사전은 이미 학습이 되어 구조체 저장부(210)의 분류기 구조체(211, 213, 215)에 저장되어 있는 것을 사용한다.The island pulling performing unit 2233 performs island fill-up on the data on which feature sine search has been performed by the feature sine search performing unit 2231 to extract a rare expression for each skin image and stores it in the structure storing unit 210 do. At this time, the dictionary is already learned and uses the one stored in the classifier structure 211, 213, 215 of the structure storing unit 210.

분류기 생성부(225)는 희소 표현 추출부(223)에 의해 추출되는 희소 표현에 기계 학습 알고리즘을 적용하여 대응되는 분류기를 생성하여 구조체 저장부(210)의 해당하는 분류기 구조체, 예를 들어 분류기 구조체(221)에 저장한다. 즉, 분류기 생성부(225)는 구조체 생성부(220)의 반복 수행에 의해 또한 분류기 생성 동작을 반복하여 반복시 각각 구성되는 분류기(분류기1, 분류기2, …, 분류기n)을 반복 회수에 대응되는 분류기 구조체(211, 213, 215)에 각각 저장한다.The classifier generating unit 225 generates a corresponding classifier by applying a machine learning algorithm to the rare expression extracted by the sparse expression extracting unit 223 and outputs the corresponding classifier structure of the classifier storage unit 210, (221). That is, the classifier generating unit 225 repeats the classifier generating operation by repeatedly performing the structure generating unit 220 to perform the classifier 1 (classifier 1, classifier 2, ..., classifier n) Respectively, in the classifier structures 211, 213, and 215, respectively.

본 발명의 실시예에서 분류기 생성을 위해 사용되는 기계 학습 알고리즘으로는 SVM(Support Vector Machine) 알고리즘이 사용된다. 이러한 SVM 알고리즘은 데이터들을 분류하기 위한 최적의 분리 경계면을 제공하는 지도 학습 알고리즘으로, 최적의 분리 경계면은 각 클래스의 데이터 사이의 중간에 위치하도록 학습된다. 이에 대해서는 통상의 기술자에게 잘 알려져 있으므로 여기에서는 구체적인 설명을 생략한다.In the embodiment of the present invention, SVM (Support Vector Machine) algorithm is used as the machine learning algorithm used for classifier generation. This SVM algorithm is a mapping learning algorithm that provides an optimal separation boundary for classifying data. The optimal separation boundary is learned to be located between data of each class. This is well known to those of ordinary skill in the art, and a detailed description thereof will be omitted here.

다음, 최종 모형 생성부(230)는 구조체 저장부(210)의 각 분류기 구조체(211, 213, 215)에 저장되어 있는 복수의 분류기를 종합하여 최종적인 하나의 피부 상태 분류 모형을 생성한다. 이 때, 최종 모형 생성부(230)는 아다부스팅(Adaboosting) 알고리즘을 사용하여 다수의 분류기를 종합하여 최종의 피부 상태 분류 모형을 생성한다. 여기서, 생성되는 최종의 피부 상태 분류 모형은 희소 코딩 알고리즘에 기반한 아다부스팅 알고리즘에 의해 생성되는 것이므로 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)이라고도 한다. 한편, 본 발명의 실시예에서 사용되는 아다부스팅 알고리즘은, 반복 단계마다 여러 약 분류기(weak classifier)를 이용하여 샘플들을 인식하고, 인식된 샘플에 대해서는 가중치를 감소시키고, 잘못 인식된 샘플에 대해서는 가중치를 증가시켜 다음 단계의 약 분류기에 반영하는 학습 방법으로, 최종 분류기는 각 단계에서 생성된 분류기들의 합으로 구성된다. 이에 대해서는 잘 알려져 있으므로 구체적인 설명은 생략한다.Next, the final model generation unit 230 generates a final skin condition classification model by synthesizing a plurality of classifiers stored in the classifier structures 211, 213, and 215 of the structure storage unit 210. At this time, the final model generation unit 230 synthesizes a plurality of classifiers using an adaboosting algorithm to generate a final skin condition classification model. Here, the final skin condition classification model to be generated is called a Boosting Sparse Coding Model since it is generated by the adaboing algorithm based on the rare coding algorithm. Meanwhile, the adaboosting algorithm used in the embodiment of the present invention recognizes samples using several weak classifiers at each iteration step, reduces the weight for the recognized samples, And the final classifier consists of the sum of the classifiers generated in each step. Since this is well known, a detailed description is omitted.

본 발명의 실시예에서는 반복 과정 마다 학습되는 사전과 희소 표현들을 이용하여 기계학습 알고리즘(SVM)을 적용하고, 임의로 뽑히는 패치들의 가중치를 학습 오류율에 따라 업데이트 시켜준다. 여기서, 패치의 가중치를 업데이트할 때에는 두 가지 측면이 고려된다. In the embodiment of the present invention, a machine learning algorithm (SVM) is applied using dictionaries and rare expressions that are learned every iterative process, and the weights of randomly selected patches are updated according to the learning error rate. Here, two aspects are considered when updating the weights of the patches.

첫 번째로, 오 분류된 임의의 한 희소 표현에 대해서, 해당되는 모든 패치들의 가중치 업데이트가 고려된다. 두 번째로, 각 반복 과정에서 사전을 생성하기 위해 처음에 뽑혀진 임의의 패치들도 오 분류에 영향을 미치기 때문에 이들에 대한 가중치 업데이트도 고려된다. 이 두 가지 방법에서 가중치 업데이트 과정은 서로 독립적으로 일어나게 되고, 두 방법을 모두 채택하기 위해 각각에서 구해진 가중치들의 합을 다음 작업에 이용하도록 한다. 이 과정을 거쳐서 얻은 가중치와 오류율을 이용하여 분류기 마다 아다부스트 파라미터를 구할 수 있다.First, for any one rarely misclassified expression, weight update of all applicable patches is considered. Second, since any patch initially drawn to generate the dictionary in each iteration also affects the misclassification, updating of the weights for these is also considered. In both of these methods, the weight updating process occurs independently of each other. In order to adopt both methods, the sum of the weights obtained in each of the two methods is used for the next operation. The adaboost parameter can be obtained for each classifier using the weight and the error rate obtained through this process.

따라서, 최종 모형 생성부(230)는 전술한 바와 같이 구해져 있는 분류기별 아다부스트 파라미터의 선형 결합을 통해 최종적인 피부 상태 분류 모형을 생성할 수 있다. Accordingly, the final model generation unit 230 can generate a final skin condition classification model through linear combination of the obtained Adaboost parameters according to the classification.

전술한 가중치 업데이트에 대해 구체적으로 설명한다.The weight updating described above will be described in detail.

먼저 첫 번째 경우의 가중치 업데이트, 즉 직접적으로 오 분류와 연관있는 패치의 가중치 업데이트는 기존의 멀티클래스 아다부스트 방법론이 이용된다. 즉, 오 분류된 패치들을 통하여 오류율(

Figure 112017011852009-pat00011
)을 [수학식 2]와 같이 구할 수 있다. First, the existing multi-class Ada Boost methodology is used to update the weights of the first case, that is, to update the weights of the patches directly associated with the misclassification. That is, the error rate
Figure 112017011852009-pat00011
Can be obtained as shown in [Equation 2].

[수학식 2]&Quot; (2) "

Figure 112017011852009-pat00012
Figure 112017011852009-pat00012

여기서, m은 반복 회수이고,

Figure 112017011852009-pat00013
는 패치 가중치이며,
Figure 112017011852009-pat00014
는 분류기이고,
Figure 112017011852009-pat00015
는 지시 함수이다.Here, m is the number of repetitions,
Figure 112017011852009-pat00013
Is the patch weight,
Figure 112017011852009-pat00014
Is a classifier,
Figure 112017011852009-pat00015
Is an indicator function.

[수학식 2]를 통해 얻어지는 오류율(

Figure 112017011852009-pat00016
)을 통해서 아다부스트 파라미터(
Figure 112017011852009-pat00017
)가 [수학식 3]과 같이 구해질 수 있다.The error rate obtained through the equation (2)
Figure 112017011852009-pat00016
) Through the Adaboost parameter (
Figure 112017011852009-pat00017
) Can be obtained as shown in Equation (3).

[수학식 3]&Quot; (3) "

Figure 112017011852009-pat00018
Figure 112017011852009-pat00018

여기서,

Figure 112017011852009-pat00019
는 피부 클래스 수준이다.here,
Figure 112017011852009-pat00019
Is the skin class level.

이와 같이, 각 반복마다 아다부스트 파라미터(

Figure 112017011852009-pat00020
)가 구해지면 패치의 가중치 업데이트가 [수학식 4]와 같이 이루어진다.Thus, for each iteration, the Adaboost parameter (
Figure 112017011852009-pat00020
) Is obtained, the update of the weight of the patch is performed as in Equation (4).

[수학식 4]&Quot; (4) "

Figure 112017011852009-pat00021
Figure 112017011852009-pat00021

여기서,

Figure 112017011852009-pat00022
는 실제 피부 클래스 수준이고,
Figure 112017011852009-pat00023
는 예측된 피부 클래스 수준이다. here,
Figure 112017011852009-pat00022
Is the actual skin class level,
Figure 112017011852009-pat00023
Is the predicted skin class level.

전술한 과정을 거쳐서 오 분류된 패치들의 가중치가 업데이트될 수 있다.The weight of the misclassified patches may be updated through the above process.

다음 두 번째 경우의 가중치 업데이트, 즉, 각 반복 과정마다 사전을 구성하기 위해서 처음에 뽑힌 임의의 패치들에 대한 가중치 업데이트에 대해 설명한다.We next describe the updating of the weights for the second case, that is, the updating of weights for any patches initially picked to construct a dictionary for each iteration.

만약에 오 분류된 패치가 처음 임의로 선택된 패치들 중에 포함이 되어 있다면(예를 들어, 도 9의 (a)에서 P1), 그 패치(P1)와 겹쳐진 패치(예를 들어, 도 9의 (a)에서 P2)는 모두 가중치를 업데이트 시켜준다. 도 9의 예에서, 패치(P1)는 직접적으로 오 분류에 영향을 미치는 패치이고, 패치(P2)는 도 9의 (b)에서 영역(A1)만큼 간접적으로 영향을 미치는 패치이다. 결국, 패치(P2)가 처음 임의로 선택된 패치(P1)에 속하지 않더라도 일부 포함되어 있는 영역(A1)만큼 간접적으로 오 분류에 영향을 미치게 된다. 따라서 간접적으로 오 분류에 영향을 주는 패치에 대한 업데이트도 실행해 주게 된다. 도 9의 (c)에서 빗금친 부분(A2)이 실제 업데이트 될 픽셀 부분을 의미하게 된다. If a misclassified patch is included in the initially arbitrarily selected patches (for example, P1 in FIG. 9 (a)), the patch overlapped with the patch P1 (for example, ) To P2) all update the weights. In the example of Fig. 9, the patch P1 is a patch that directly affects the misclassification, and the patch P2 is a patch that indirectly affects the region A1 in Fig. 9 (b). As a result, even if the patch P2 does not belong to the patch P1 which is initially randomly selected, it affects the misclassification indirectly as the region A1 partially included. Therefore, it also updates patches indirectly affecting misclassification. In FIG. 9C, the hatched portion A2 indicates the pixel portion to be actually updated.

먼저, 도 9의 (a)에서 패치(P1)에 대한 업데이트를 전술한 첫 번째 방법에서의 가중치 업데이트 방법을 통해서 업데이트 시켜준다. 즉, [수학식 2], [수학식 3], 및 [수학식 4]가 적용되는 것이다.First, in (a) of FIG. 9, the update for the patch P1 is updated through the weight update method in the first method described above. That is, [Equation 2], [Equation 3], and [Equation 4] are applied.

그리고, 업데이트가 실행되면 가능한 모든 패치에 대해서 겹쳐지는 부분의 픽셀 개수(예를 들어, 도 9의 (c)에서 빗금친 부분(A2))를 [수학식 5]를 통해 계산한다.Then, when the update is executed, the number of pixels (for example, the hatched portion A2 in FIG. 9C) overlapping with all the possible patches is calculated through the expression (5).

[수학식 5]&Quot; (5) "

Figure 112017011852009-pat00024
Figure 112017011852009-pat00024

여기서, p는 패치의 차원이고, patch_d는 패치(P1)이며, pixel은 패치(P2)의 각 필셀을 의미한다. Here, p is the dimension of the patch, patch_d is the patch (P1), and pixel is each of the pixels of the patch (P2).

그 후, 각각의 겹치는 패치에 대해서 픽셀의 개수가 정해지면 [수학식 6]과 같이 그 개수만큼 가중치를 업데이트를 시켜준다.Thereafter, when the number of pixels is determined for each overlapping patch, the weight is updated by the number of pixels as in Equation (6).

[수학식 6]&Quot; (6) "

Figure 112017011852009-pat00025
Figure 112017011852009-pat00025

여기서,

Figure 112017011852009-pat00026
은 먼저 구한 패치(P1)의 가중치이고,
Figure 112017011852009-pat00027
는 업데이트될 패치(P2)의 가중치이다.here,
Figure 112017011852009-pat00026
Is the weight of the patch P1 obtained first,
Figure 112017011852009-pat00027
Is the weight of the patch P2 to be updated.

한편, 전술한 첫 번째 방법 및 두 번째 방법에 따른 가중치 업데이트에서 모든 상황을 고려하기 위해서 두 가중치를 합한 가중치가 다음 업데이트를 위한 입력 데이터가 된다. 합한 가중치는 다음 반복 작업에서 첫 번째 방법과 두 번째 방법에 따른 가중치 업데이트시 재귀적 수행에 사용된다. On the other hand, in the weight updating according to the first method and the second method described above, the weight obtained by adding the two weights becomes the input data for the next update in order to consider all situations. The combined weights are used in the first iteration in the next iteration and in the recursive execution in updating the weights according to the second.

한편, 최종 모형 생성부(230)에 의해 생성되는 최종의 피부 상태 분류 모형인 최종 분류기(

Figure 112017011852009-pat00028
), 즉 최종 모형은 다음의 [수학식 7]과 같다.On the other hand, the final classifier (final classifier), which is the final skin condition classification model generated by the final model generator 230
Figure 112017011852009-pat00028
), That is, the final model is expressed by the following equation (7).

[수학식 7]&Quot; (7) "

Figure 112017011852009-pat00029
Figure 112017011852009-pat00029

여기서,

Figure 112017011852009-pat00030
는 가중치이고,
Figure 112017011852009-pat00031
는 분류기이며,
Figure 112017011852009-pat00032
는 이미지이고,
Figure 112017011852009-pat00033
는 지시함수이며, k는 클래스 수준이고,here,
Figure 112017011852009-pat00030
Is a weight,
Figure 112017011852009-pat00031
Is a classifier,
Figure 112017011852009-pat00032
Is an image,
Figure 112017011852009-pat00033
Is an indicator function, k is a class level,

Figure 112017011852009-pat00034
이며,
Figure 112017011852009-pat00034
Lt;

Figure 112017011852009-pat00035
이다.
Figure 112017011852009-pat00035
to be.

이와 같이, 최종 모형 생성부(230)에서 생성되는 최종의 피부 분류 상태 모형이 도 1에 도시된 피부 상태 분류 장치(100)에서 사용될 수 있다.As described above, the final skin classification state model generated by the final model generation unit 230 can be used in the skin condition classification apparatus 100 shown in FIG.

이하, 본 발명의 실시예에 따른 피부 상태 분류 모형을 생성하는 방법에 대해 설명한다.Hereinafter, a method for generating a skin condition classification model according to an embodiment of the present invention will be described.

도 10은 본 발명의 실시예에 따른 피부 상태 분류 모형을 생성하는 방법의 흐름도이다.10 is a flowchart of a method of generating a skin condition classification model according to an embodiment of the present invention.

도 10을 참조하면, 먼저, 피부 상태 분류 학습을 위해 사용되는 복수의 피부 이미지의 데이터를 패치들의 매트릭스로 구성한다(S110). 여기서, 상기 단계(S110)는 전술한 도 6에서의 패치 매트릭스 구성부(2211)에 대해 설명한 부분에 대응된다.Referring to FIG. 10, first, data of a plurality of skin images used for skin condition classification learning is configured as a matrix of patches (S110). Here, the step (S110) corresponds to the part described above with respect to the patch matrix forming section 2211 in Fig.

그 후, 패치 매트릭스에 대해 희소 코딩 알고리즘을 적용하여 사전, 희소 표현 및 분류기를 포함하는 구조체(241)를 생성한다(S120). 상기 단계(S120)는 전술한 도 4에서의 구조체 생성부(220)에 대해 설명한 부분에 대응된다. Then, a rare-coding algorithm is applied to the patch matrix to generate a structure 241 including a dictionary, a rare expression, and a classifier (S120). The step S120 corresponds to the portion described for the structure generating unit 220 in FIG.

상기 단계(S120)는 여러 번에 걸쳐 반복 수행되며(S130) 이러한 반복 과정은 구조체를 생성하는데 사용되는 희소 코딩 알고리즘에 의해 결정되거나 또는 사용자에 의해 설정될 수 있다. The step S120 is repeated several times (S130) and the iterative process may be determined by a rare coding algorithm used to generate the structure or may be set by the user.

그 후 상기 단계(S120)의 반복 수행이 완료되면(S130), 상기 단계(S120)를 통해 생성된 구조체의 복수의 분류기를 종합하여 최종적인 하나의 피부 상태 분류 모형을 생성한다(S140). 상기 단계(S140)는 전술한 도 4에서의 최종 모형 생성부(230)에 대해 설명한 부분에 대응된다.When the repetition of step S120 is completed (S130), a plurality of classifiers of the structure generated through the step S120 are combined to generate a final skin condition classification model (S140). The step S140 corresponds to the portion described for the final model generation unit 230 in FIG.

이하, 도 12를 참조하여 구조체를 생성하는 단계(S120)에 대해 구체적으로 설명한다.Hereinafter, the step of creating a structure (S120) will be described in detail with reference to FIG.

도 12는 도 11에 도시된 구조체 생성 단계(S120)의 구체적인 흐름도이다.12 is a specific flowchart of the structure generation step (S120) shown in FIG.

도 12를 참조하면, 상기 단계(S110)에서 생성된 패치 매트릭스에 대해 교차 최소화 알고리즘을 적용한 학습을 수행하여 최종적으로 학습된 사전을 구성한다(S121). 이렇게 구성된 사전은 구조체(241) 내에 저장된다. 상기 단계(S121)는 전술한 도 4에서의 사전 구성부(221)에 대해 설명한 부분에 대응된다.Referring to FIG. 12, learning is performed by applying an intersection minimization algorithm to the patch matrix generated in step S110 to construct a finally learned dictionary (S121). The dictionary thus constructed is stored in the structure 241. The step S121 corresponds to the portion described above with respect to the pre-configuration unit 221 in Fig.

그 후, 상기 단계(S121)에서 구성된 사전을 이용하여 복수의 피부 이미지의 데이터에 대한 희소 표현을 추출한다(S122). 이렇게 추출된 희소 표현은 구조체(241) 내에 저장된다. 상기 단계(S122)는 전술한 도 4에서의 희소 표현 추출부(223)에 대해 설명한 부분에 대응된다.Thereafter, a rare expression for data of a plurality of skin images is extracted using the dictionary constructed in step S121 (S122). The thus extracted rare expression is stored in the structure 241. The step S122 corresponds to the portion described for the rare expression extracting unit 223 in FIG.

다음, 상기 단계(S122)에서 추출되는 희소 표현에 기계 학습 알고리즘, 예를 들어 SVM 알고리즘을 적용하여 대응되는 분류기를 생성한다. 이렇게 생성된 분류기는 구조체 저장부(210) 내에 저장된다. 상기 단계(S123)는 전술한 도 4에서의 분류기 생성부(225)에 대해 설명한 부분에 대응된다. 한편, 상기 단계(S123)에서는 전술한 바와 같은 패치들의 가중치가 학습 오류율에 따라 업데이트될 수 있다. 이에 대해서는 상기에서 구체적으로 설명하였으므로 여기에서는 생략한다.Next, a corresponding classifier is generated by applying a machine learning algorithm, for example, an SVM algorithm, to the rare expression extracted in the step S122. The generated classifier is stored in the structure storing unit 210. The step S123 corresponds to the part described above with respect to the classifier generating unit 225 in Fig. Meanwhile, in step S123, the weights of the patches described above may be updated according to the learning error rate. Since this has been described in detail above, it is omitted here.

본 발명의 목적, 특징, 및 장점을 보다 명확하고 이해 가능하도록 하기 위해, 이하에서 첨부 도면을 참조하여 본 발명의 구체적인 구현 방식에 대해 상세하게 설명한다.In order that the objects, features, and advantages of the present invention become more apparent and understandable, specific embodiments of the present invention will be described in detail with reference to the accompanying drawings.

실시예Example

<학습 부분><Learning part>

1. 데이터 수집1. Data collection

데이터 수집을 위하여 파라미터 측정 기계를 사용하였고, 사용자의 수분, 유분, 세포 조직 상태, 수분 함량 퍼센트 정보를 수집하였으며, 스마트 스코프(Smart Scope)를 이용하여 피부 데이터를 촬영하였다. The data were collected by using a parameter measuring machine and the user 's moisture, oil, cellular structure, and moisture percentage were collected and skin data were recorded using Smart Scope.

데이터 수집된 결과는 다음과 같다. The data collected are as follows.

각각의 수집 데이터마다 수분, 유분, 세포 조직, 수분 함량 퍼센트 정보에 대한 라벨을 기록하였다. 예를 들어, 11132의 경우에는 수분 레벨 1, 유분 레벨 1, 세포 조직 상태 레벨 1, 수분 함량 퍼센트 32% 임을 나타낸다. 이미지 데이터와 라벨에 대한 예시는 도 11과 같다.For each collected data, a label was recorded for moisture, oil, cell tissue, and percent moisture information. For example, 11132 indicates a moisture level of 1, an oil level of 1, a cell tissue state level of 1, and a moisture content of 32%. An example of image data and labels is shown in FIG.

2. 수집한 이미지 데이터로부터 임의의 6ㅧ6ㅧ3 크기의 패치로 수집한다. 수집한 패치는 벡터로 변환시켜서 패치를 모아둔 하나의 패치 매트릭스로 구성한다.2. From the collected image data, collect it with an arbitrary 6 ㅧ 6 ㅧ 3 size patch. The collected patches are converted into vectors, and a patch matrix is formed by collecting the patches.

3. 패치 매트릭스에 교차 최소화 알고리즘을 적용하여 사전을 학습시킨다. 이 때, 알고리즘 수행을 위해서 처음 사전 값을 임의로 초기화 시킨다. 3. Apply the cross minima algorithm to the patch matrix to learn the dictionary. At this time, the algorithm initializes the initial value at random.

4. 도 13에 도시된 바와 같은 160,000개의 기저로 이루어진 학습된 사전을 이용하여 입력 이미지에 대한 희소 표현(sparse representation)을 구한다. 입력 이미지는 패치의 모임으로 이루어진 매트릭스로 변환되고 학습된 사전과 특징 사인 탐색(feature sign search) 알고리즘을 이용하여 희소 표현을 구성하게 된다. 이 때, 희소 표현의 차원은 변환된 패치의 개수와 사전의 기저의 개수로 표현된다. 그 후, 적절한 섬 폴링(sum pooling)을 거쳐서 결국 1ㅧ3072(32ㅧ32ㅧ3)의 벡터로 표시되는 이미지 데이터는 1ㅧ12800의 벡터로 표현되고 매우 희소한 벡터가 된다. 패치 매트릭스에 적용되는 교차 최소화 알고리즘의 매트릭스 연산의 개념이 도 14에 도시된다. 도 14에서, n은 패치 개수이고, m은 패치 차원이며, d는 기저 개수를 나타낸다.4. A sparse representation of the input image is obtained using a learned dictionary of 160,000 bases as shown in FIG. The input image is transformed into a matrix of patches, and a rare expression is constructed using the learned dictionary and feature sign search algorithm. At this time, the dimension of the rare expression is expressed by the number of converted patches and the number of bases of the dictionary. Then, through proper sum pooling, the image data expressed as a vector of 1 ㅧ 3072 (32 ㅧ 32 ㅧ 3) is represented as a vector of 1 ㅧ 12800 and becomes a very rare vector. The concept of matrix operation of a cross minima algorithm applied to a patch matrix is shown in Fig. 14, n is the patch number, m is the patch dimension, and d is the base number.

5. 여러 번의 반복 과정을 거쳐서 사전과 희소 표현, 그리고 분류기를 포함하는 구조체를 생성한다. 그 후, 여러 개의 분류기를 아다부스팅(Adaboost) 기법을 적용하여 최종 피부 상태 분류 모형인 부스팅 희소 코딩(Boosting Sparse Coding) 모형을 생성한다. 도 15에 반복 회수만큼 구성된 구조체가 도시되어 있다. 도 15에서 SVM은 희소 표현으로부터 생성되는 분류기가 SVM(Support Vector Machine) 알고리즘에 의해 생성된 분류기임을 나타내고자 한 것이다. 도 15에서는 반복 회수가 k인 것을 나타낸다.5. Create a structure containing dictionary, rare expression, and classifier through several iterations. After that, Adaboost method is applied to several classifiers to generate a final skin condition classification model, Boosting Sparse Coding model. A structure constructed by the number of repetitions is shown in Fig. In FIG. 15, the SVM indicates that the classifier generated from the rare expression is a classifier generated by the SVM (Support Vector Machine) algorithm. 15 shows that the number of repetitions is k.

<분석 부분><Analysis part>

6. 전술한 학습 과정에서 각각의 구조체 내부에서 오류율에 따라 패치와 아다부스트 가중치를 업데이트 시킨다. 새로운 입력 이미지가 들어왔을 때, 새로운 입력 이미지는 각 구조체의 학습된 사전을 통한 희소 표현값을 추출하고, 내부의 분류기를 통해서 입력 이미지에 대한 피부 상태 분류의 의사 결정을 하게 된다. 6. In the above-mentioned learning process, patches and AdaBoost weights are updated according to the error rate within each structure. When a new input image arrives, the new input image extracts the rare representation value from the learned dictionary of each structure and determines the skin condition classification for the input image through the internal classifier.

7. 반복 횟수가 많을수록 정확도가 높아지는 것을 확인할 수 있다.7. The greater the number of repetitions, the higher the accuracy.

예를 들면, 다음과 같은 학습 데이터 개수, 검증 데이터 개수 및 유분 레벨에 대해 반복 회수별로 수행된 분석 부분의 정확도가 도 16에 도시되어 있다.For example, the accuracy of the analysis part performed for each number of iterations with respect to the number of learning data, the number of verification data, and the oil level is shown in FIG.

학습 데이터 개수 : 1800개 , 차원 32ㅧ32ㅧ3 픽셀Number of learning data: 1800, dimension 32 ㅧ 32 ㅧ 3 pixels

검증 데이터 개수 : 684개 , 차원 32ㅧ32ㅧ3 픽셀Verification data count: 684, dimension 32 ㅧ 32 ㅧ 3 pixels

label : 유분 레벨(1, 2, 3, 4, 5)label: oil level (1, 2, 3, 4, 5)

도 16을 통해, 반복 횟수가 많을수록 정확도가 높아지는 것을 확인하였다.It is confirmed from FIG. 16 that the more the number of repetitions, the higher the accuracy.

이와 같이, 본 발명의 실시예에 따르면, 사용자의 환경(빛, 그림자, 실내외 등)에 보다 강인해지고, 특징 벡터가 유일해져 분류의 오류를 낮출 수 있다.As described above, according to the embodiment of the present invention, it becomes more robust to the user's environment (light, shadow, indoor and outdoor), and the feature vector becomes unique, thereby lowering the classification error.

따라서, 종래의 기술에 비해 피부 상태 분류에 대한 정확도가 향상된다. Therefore, the accuracy with respect to the skin condition classification is improved as compared with the conventional technique.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (22)

복수의 피부 이미지의 데이터에 대해 희소 코딩(Sparse Coding) 알고리즘을 사용하여 구축되는 복수의 분류기 구조체를 저장하는 구조체 저장부 - 상기 분류기 구조체는 각각 복수의 피부 이미지에 대해 학습된 사전(dictionary), 상기 사전으로부터 추출되는 희소 표현(sparse representation) 및 상기 희소 표현으로부터 생성되는 분류기를 포함함 -; 및
피부 상태 분류를 위해 입력되는 새로운 피부 이미지에 대해 피부 상태 분류 모형과 상기 구조체 저장부에 저장된 복수의 분류기 구조체를 사용하여 상기 새로운 피부 이미지에 대한 피부 상태를 분류하여 그 결과에 해당하는 피부 상태 분류 정보를 출력하는 피부 상태 분류부
를 포함하며,
상기 피부 상태 분류 모형은 상기 구조체 저장부에 저장되어 있는 복수의 분류기에 대해 아다부스팅(Adaboosting) 알고리즘을 적용하여 최종적으로 생성된 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)인,
피부 상태 분류 장치.
A structure storage unit for storing a plurality of classifier structures constructed using a sparse coding algorithm for data of a plurality of skin images, each classifier structure comprising a dictionary learned for a plurality of skin images, A sparse representation extracted from a dictionary and a classifier generated from the sparse representation; And
A skin condition classification model for a new skin image input for classification of a skin condition and a plurality of classifier structures stored in the structure storage section to classify the skin condition of the new skin image, A skin condition classifying unit
/ RTI &gt;
The skin condition classification model is a Boosting Sparse Coding Model that is finally generated by applying an adaboosting algorithm to a plurality of classifiers stored in the structure storage unit,
Skin condition classifier.
제1항에 있어서,
상기 피부 상태 분류 모형은,
복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 적용하여 사전, 희소 표현 및 분류기를 포함하는 분류기 구조체를 생성하는 과정을 미리 설정된 회수만큼 반복 수행하여 복수의 분류기 구조체를 생성하고, 상기 복수의 분류기에 각각 포함되어 있는 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)인 피부 상태 분류 모형을 생성하는 피부 상태 분류 모형 생성 장치에 의해 생성된 것인,
피부 상태 분류 장치.
The method according to claim 1,
The skin condition classification model includes:
A plurality of classifiers are generated by repeating a process of generating a classifier structure including a dictionary, a rare expression, and a classifier by a predetermined number of times by applying a sparse coding algorithm to data of a plurality of skin images, And generating a skin condition classification model generating a skin condition classification model, which is a boosting sparse coding model, by applying an adaboosting algorithm to a plurality of classifiers included in the classifier,
Skin condition classifier.
제1항 또는 제2항에 있어서,
상기 피부 이미지는 수분, 유분, 각질, 수분 함량에 대한 라벨이 정해져 있는 피부 이미지인,
피부 상태 분류 장치.
3. The method according to claim 1 or 2,
Wherein the skin image is a skin image having a label for moisture, oil, keratin, and moisture content,
Skin condition classifier.
각각 복수의 피부 이미지에 대해 학습된 사전(dictionary), 상기 사전으로부터 추출되는 희소 표현(sparse representation) 및 상기 희소 표현으로부터 생성되는 분류기를 포함하는 복수의 분류기 구조체를 저장하는 구조체 저장부;
복수의 피부 이미지의 데이터에 대해 희소 코딩(Sparse Coding) 알고리즘을 사용하여 상기 복수의 분류기 구조체를 생성하여 상기 구조체 저장부에 저장하는 구조체 생성부; 및
상기 구조체 저장부의 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 최종적인 피부 상태 분류 모형인 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)을 생성하는 최종 모형 생성부
를 포함하는 피부 상태 분류 모형 생성 장치.
A structure storage unit for storing a plurality of classifier structures including a dictionary learned for a plurality of skin images, a sparse representation extracted from the dictionary, and a classifier generated from the rare expression;
A structure generation unit for generating the plurality of classifier structures by using a sparse coding algorithm for data of a plurality of skin images and storing the plurality of classifier structures in the structure storage unit; And
A final model generation unit for generating a boosting sparse coding model, which is a final skin state classification model, by applying an adoboosting algorithm to a plurality of classifiers of the structure storage unit;
A skin condition classification model generating device for generating a skin condition classification model;
제4항에 있어서,
상기 구조체 생성부는,
상기 복수의 피부 이미지의 데이터에 대해 교차 최소화(Alternating Minimization) 알고리즘을 사용하여 학습된 사전을 구성하며, 구성된 사전을 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 사전 구성부;
상기 사전 구성부에서 구성되는 사전을 이용하여 상기 복수의 피부 이미지의 데이터에 대한 희소 표현을 추출하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 희소 표현 추출부; 및
상기 희소 표현 추출부에 의해 추출되는 희소 표현에 기계 학습 알고리즘을 적용하여 분류기를 생성하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 분류기 생성부
를 포함하는, 피부 상태 분류 모형 생성 장치.
5. The method of claim 4,
The structure generating unit includes:
A dictionary organizing unit configured to organize the learned dictionary by using an alternating minimization algorithm for the data of the plurality of skin images and storing the constructed dictionary in a corresponding classifier structure of the structure storing unit;
A rare expression extracting unit for extracting a rare expression for data of the plurality of skin images using a dictionary formed by the pre-constructing unit and storing the extracted rare expression in a corresponding classifier structure of the structure storing unit; And
Generating a classifier by applying a machine learning algorithm to a sparse expression extracted by the sparse expression extraction unit and storing the generated classifier in a corresponding classifier structure of the structure storage unit;
Wherein the skin condition classification model generating device comprises:
제5항에 있어서,
상기 사전 구성부는,
상기 복수의 피부 이미지의 데이터로부터 패치 매트릭스로 구성하는 패치 매트릭스 구성부; 및
상기 패치 매트릭스 구성부에 의해 구성되는 상기 패치 매트릭스에 대해 교차 최소화 알고리즘을 적용한 학습을 수행하여 최종적으로 학습된 사전을 구성하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 교차 최소화 수행부
를 포함하는, 피부 상태 분류 모형 생성 장치.
6. The method of claim 5,
The pre-
A patch matrix forming unit for forming a patch matrix from data of the plurality of skin images; And
A crossing minimization unit for constructing a finally learned dictionary by performing learning using the cross minima algorithm for the patch matrix constituted by the patch matrix unit and storing the dictionary in a corresponding classifier structure of the structure storage unit,
Wherein the skin condition classification model generating device comprises:
제6항에 있어서,
상기 패치 매트릭스 구성부는 상기 복수의 피부 이미지의 데이터로부터 복수의 패치 데이터들을 구성하고, 상기 복수의 패치 데이터 각각을 매트릭스 형태로 재배열하여 하나의 패치 매트릭스를 구성하는,
피부 상태 분류 모형 생성 장치.
The method according to claim 6,
Wherein the patch matrix forming unit forms a plurality of patch data from the data of the plurality of skin images and rearranges each of the plurality of patch data in a matrix form to form one patch matrix,
Skin condition classification model generation device.
제6항에 있어서,
상기 교차 최소화 수행부에 의해 수행되는 상기 교차 최소화 알고리즘은, 희소 벡터를 고정시킨 상태에서 라그랑주 듀얼 문제(Lagrange dual problem)를 이용하여 상기 사전을 구하고, 상기 사전을 고정시킨 상태에서 특징 사인 탐색(feature sign search) 알고리즘을 이용하여 상기 희소 벡터를 구하는 과정을 수렴 조건이 성립할 때까지 반복 수행하여 최종적으로 학습된 사전을 구성하는,
피부 상태 분류 모형 생성 장치.
The method according to claim 6,
The intersection minimization algorithm performed by the intersection minimization performing unit may be configured to obtain the dictionary using a Lagrange dual problem while the sparse vector is fixed and perform a feature search sign search algorithm to find the sparse vector until the convergence condition is satisfied,
Skin condition classification model generation device.
제8항에 있어서,
상기 교차 최소화 수행부에 의해 수행되는 상기 교차 최소화 알고리즘은 다음의 수학식
Figure 112017011852009-pat00036

여기서, Φ는 사전이고,
a는 희소 벡터임
을 따르는, 피부 상태 분류 모형 생성 장치.
9. The method of claim 8,
Wherein the intersection minimization algorithm performed by the intersection minimization performing unit comprises:
Figure 112017011852009-pat00036

Here,? Is a dictionary,
a is a rare vector
The skin condition classification model generation device according to claim 1.
제5항에 있어서,
상기 희소 표현 추출부는,
상기 사전 구성부에 의해 최종적으로 구성되는 사전에 특징 사인 탐색(feature sign search) 알고리즘을 수행하는 특징 사인 탐색(feature sign search) 수행부; 및
상기 특징 사인 탐색 수행부에 수행된 결과 데이터에 대해 섬 풀링(sum pooling)을 수행하여 상기 피부 이미지 각각에 대한 희소 표현을 추출하여 상기 구조체 저장부의 대응되는 분류기 구조체에 저장하는 섬 풀링(sum pooling) 수행부
를 포함하는, 피부 상태 분류 모형 생성 장치.
6. The method of claim 5,
Wherein the sparse expression extracting unit extracts,
A feature sign search performing unit that performs a feature sign search algorithm in advance, which is finally configured by the pre-configuration unit; And
A sum pooling unit that performs sum pooling on the result data performed by the feature search unit and extracts a rare expression for each skin image and stores the extracted rare expression in a corresponding classifier structure of the structure storing unit; Performance department
Wherein the skin condition classification model generating device comprises:
제5항에 있어서,
상기 분류기 생성부에 의해 사용되는 기계 학습 알고리즘은 SVM(Support Vector Machine) 알고리즘인,
피부 상태 분류 모형 생성 장치.
6. The method of claim 5,
The machine learning algorithm used by the classifier generator is a support vector machine (SVM)
Skin condition classification model generation device.
제5항에 있어서,
상기 구조체 생성부가 한 번의 생성 작업을 통해 사전, 희소 표현 및 분류기를 포함하는 하나의 분류기 구조체를 생성하는 방식으로, 상기 구조체 생성부가 복수의 반복 작업을 통해 상기 복수의 분류기 구조체를 생성하는,
피부 상태 분류 모형 생성 장치.
6. The method of claim 5,
Wherein the structure generating unit generates one classifier structure including a dictionary, a rare expression, and a classifier through a single generating operation, the constructor generating unit generates the plurality of classifiers through a plurality of iterative operations,
Skin condition classification model generation device.
제12항에 있어서,
상기 분류기 생성부는, 상기 반복 작업마다 패치들의 가중치를 학습 오류율에 따라 업데이트하여 분류기별 아다부스트 파라미터를 생성하고,
상기 최종 모형 생성부는 상기 분류기별 아다부스트 파라미터의 선형 결합을 통해 최종적인 피부 상태 분류 모형을 생성하는,
피부 상태 분류 모형 생성 장치.
13. The method of claim 12,
Wherein the classifier generator updates the weights of the patches according to the learning error rate for each repetitive operation to generate an adaboost parameter for each classifier,
Wherein the final model generating unit generates a final skin condition classification model through linear combination of the Adaboost parameters for each classifier,
Skin condition classification model generation device.
제13항에 있어서,
상기 패치들의 가중치에 대한 업데이트는,
오 분류된 희소 표현에 해당되는 패치들의 가중치 업데이트와 상기 반복 작업에서 사전을 생성하기 위해 처음에 뽑혀진 패치들에 대한 가중치 업데이트를 포함하는,
피부 상태 분류 모형 생성 장치.
14. The method of claim 13,
The updating of the weights of the patches,
Updating the weights of the patches corresponding to the misclassified rare expressions and updating the weights for the patches originally selected to generate the dictionary in the repeat operation,
Skin condition classification model generation device.
제13항에 있어서,
상기 최종적인 피부 상태 분류 모형(
Figure 112017011852009-pat00037
)은 다음의 수학식
Figure 112017011852009-pat00038

여기서,
Figure 112017011852009-pat00039
는 가중치이고,
Figure 112017011852009-pat00040
는 분류기이며,
Figure 112017011852009-pat00041
는 이미지이고,
Figure 112017011852009-pat00042
는 지시함수이며,
k는 클래스 라벨이고,
Figure 112017011852009-pat00043
이며,
Figure 112017011852009-pat00044

을 따르는, 피부 상태 분류 모형 생성 장치.
14. The method of claim 13,
The final skin condition classification model (
Figure 112017011852009-pat00037
) Is expressed by the following equation
Figure 112017011852009-pat00038

here,
Figure 112017011852009-pat00039
Is a weight,
Figure 112017011852009-pat00040
Is a classifier,
Figure 112017011852009-pat00041
Is an image,
Figure 112017011852009-pat00042
Is an indicator function,
k is a class label,
Figure 112017011852009-pat00043
Lt;
Figure 112017011852009-pat00044
being
The skin condition classification model generation device according to claim 1.
피부 상태 분류 모형 생성 장치가 피부 이미지에 대한 피부 상태를 분류하는 데 사용되는 피부 상태 분류 모형을 생성하는 방법에 있어서,
복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 적용하여 사전, 희소 표현 및 분류기를 포함하는 분류기 구조체를 생성하는 과정을 미리 설정된 회수만큼 반복 수행하여 복수의 분류기 구조체를 생성하는 단계; 및
상기 복수의 분류기에 각각 포함되어 있는 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)인 최종적인 피부 상태 분류 모형을 생성하는 단계
를 포함하는 피부 상태 분류 모형 생성 방법.
A method for generating a skin condition classification model used by a skin condition classification model generating apparatus to classify a skin condition of a skin image,
Generating a plurality of classifier structures by repeating a process of generating a classifier structure including a dictionary, a rare expression, and a classifier by a predetermined number of times by applying a sparse coding algorithm to data of a plurality of skin images; And
Generating a final skin condition classification model that is a boosting sparse coding model by applying an adaboosting algorithm to a plurality of classifiers respectively included in the plurality of classifiers;
The method comprising the steps of:
제16항에 있어서,
상기 복수의 분류기 구조체를 생성하는 단계 전에,
상기 복수의 피부 이미지의 데이터로부터 복수의 패치 데이터들을 구성하고, 상기 복수의 패치 데이터 각각을 매트릭스 형태로 재배열하여 하나의 패치 매트릭스를 구성하는 단계를 더 포함하는,
피부 상태 분류 모형 생성 방법.
17. The method of claim 16,
Before the step of generating the plurality of classifier structures,
Further comprising constructing a plurality of patch data from the data of the plurality of skin images and rearranging each of the plurality of patch data in a matrix form to form one patch matrix,
How to create a skin condition classification model.
제16항에 있어서,
상기 복수의 분류기 구조체를 생성하는 단계는,
상기 복수의 피부 이미지의 데이터에 대해 교차 최소화(Alternating Minimization) 알고리즘을 사용하여 학습된 사전을 구성하여 대응되는 분류기 구조체에 저장하는 단계;
구성되는 사전을 이용하여 상기 복수의 피부 이미지의 데이터에 대한 희소 표현을 추출하여 대응되는 분류기 구조체에 저장하는 단계;
추출되는 희소 표현에 SVM(Support Vector Machine) 알고리즘을 적용하여 분류기를 생성하여 대응되는 분류기 구조체에 저장하는 단계; 및
상기 미리 설정된 회수만큼 상기 학습된 사전을 구성하여 대응되는 분류기 구조체에 저장하는 단계, 상기 희소 표현을 추출하여 대응되는 분류기 구조체에 저장하는 단계, 및 상기 분류기를 생성하여 대응되는 분류기 구조체에 저장하는 단계를 반복 수행하여 상기 복수의 분류기 구조체를 생성하는 단계
를 포함하는, 피부 상태 분류 모형 생성 방법.
17. The method of claim 16,
Wherein the generating of the plurality of classifier structures comprises:
Constructing a learned dictionary using data of the plurality of skin images using an alternating minimization algorithm and storing the constructed dictionary in a corresponding classifier structure;
Extracting a sparse representation of the data of the plurality of skin images using a dictionary formed and storing the extracted sparse expressions in a corresponding classifier structure;
Generating a classifier by applying an SVM (Support Vector Machine) algorithm to the extracted rare expression, and storing the classifier in a corresponding classifier structure; And
Constructing the learned dictionary by a predetermined number of times and storing the learned dictionary in a corresponding classifier structure, extracting the rare expression and storing the extracted rare expression in a corresponding classifier structure, and storing the classifier in a corresponding classifier structure To generate the plurality of classifier structures
And generating a skin condition classification model.
제18항에 있어서,
상기 교차 최소화 알고리즘은, 희소 벡터를 고정시킨 상태에서 라그랑주 듀얼 문제(Lagrange dual problem)를 이용하여 상기 사전을 구하고, 상기 사전을 고정시킨 상태에서 특징 사인 탐색(feature sign search) 알고리즘을 이용하여 상기 희소 벡터를 구하는 과정을 수렴 조건이 성립할 때까지 반복 수행하여 최종적으로 학습된 사전을 구성하는 알고리즘인,
피부 상태 분류 모형 생성 방법.
19. The method of claim 18,
The crossover minimization algorithm is a method of obtaining the dictionary using a Lagrange dual problem while fixing a sparse vector and using the feature sign search algorithm with the dictionary fixed, The algorithm for finding the vector is repeated until the convergence condition is satisfied,
How to create a skin condition classification model.
제18항에 있어서,
상기 희소 표현을 추출하여 대응되는 분류기 구조체에 저장하는 단계에서 상기 사전에 특징 사인 탐색(feature sign search) 알고리즘을 수행한 후 섬 풀링(sum pooling)을 수행하여 상기 피부 이미지 각각에 대한 희소 표현을 추출하는,
피부 상태 분류 모형 생성 방법.
19. The method of claim 18,
Extracting the sparse representation and storing the sparse representation in a corresponding classifier structure, performs a feature sign search algorithm in the dictionary, and then performs a sum pooling to extract a rare representation of each of the skin images doing,
How to create a skin condition classification model.
제18항에 있어서,
상기 복수의 분류기 구조체를 생성하는 단계에서, 상기 반복 수행마다 패치들의 가중치를 학습 오류율에 따라 업데이트하여 분류기별 아다부스트 파라미터를 생성하고,
상기 최종적인 피부 상태 분류 모형을 생성하는 단계에서, 상기 분류기별 아다부스트 파라미터의 선형 결합을 통해 최종적인 피부 상태 분류 모형을 생성하는,
피부 상태 분류 모형 생성 방법.
19. The method of claim 18,
Wherein the generating of the plurality of classifiers comprises: generating patches for each classifier by updating the weights of the patches according to the learning error rate for each iteration;
Generating a final skin condition classification model by linear combination of the adaboost parameters according to the classifier in the step of generating the final skin condition classification model,
How to create a skin condition classification model.
피부 상태 분류 모형 생성 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체에 있어서,
복수의 피부 이미지의 데이터에 대해 희소 코딩 알고리즘을 적용하여 사전, 희소 표현 및 분류기를 포함하는 분류기 구조체를 생성하는 과정을 미리 설정된 회수만큼 반복 수행하여 복수의 분류기 구조체를 생성하는 기능; 및
상기 복수의 분류기에 각각 포함되어 있는 복수의 분류기에 대해 아다부스팅(Adoboosting) 알고리즘을 적용하여 부스팅 희소 코딩 모형(Boosting Sparse Coding Model)인 최종적인 피부 상태 분류 모형을 생성하는 기능
을 포함하는 프로그램을 저장하는 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium storing a program for performing a method for generating a skin condition classification model,
A function of generating a plurality of classifier structures by repeating a process of generating a classifier structure including a dictionary, a rare expression, and a classifier by a predetermined number of times by applying a sparse coding algorithm to data of a plurality of skin images; And
A function of generating a final skin condition classification model which is a boosting sparse coding model by applying an adaboosting algorithm to a plurality of classifiers included respectively in the plurality of classifiers
The computer-readable recording medium according to claim 1,
KR1020170015838A 2016-10-29 2017-02-03 Apparatus for classifying skin conditions, and apparatus for generating skin condition classification model used on the same apparatus and method thereof KR101969346B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160142580 2016-10-29
KR1020160142580 2016-10-29

Publications (2)

Publication Number Publication Date
KR20180048226A KR20180048226A (en) 2018-05-10
KR101969346B1 true KR101969346B1 (en) 2019-04-19

Family

ID=62185228

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170015838A KR101969346B1 (en) 2016-10-29 2017-02-03 Apparatus for classifying skin conditions, and apparatus for generating skin condition classification model used on the same apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR101969346B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235566A1 (en) * 2020-05-19 2021-11-25 주식회사 룰루랩 Multiple skin lesion detection system, multiple skin lesion detection method and computer-readable recording medium having program for implementing same recorded thereon

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020261442A1 (en) * 2019-06-26 2020-12-30 株式会社資生堂 Program, information processing device, skin texture estimating method, learned model, information processing system and method for generating learned model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101500900B1 (en) 2014-04-28 2015-03-12 한양대학교 산학협력단 Method and System for Classifying Text Using Classifier Produced by Learning Data
US20160012314A1 (en) 2013-03-15 2016-01-14 Karthikeyan Ramamurthy Ensemble sparse models for image analysis and restoration

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160012314A1 (en) 2013-03-15 2016-01-14 Karthikeyan Ramamurthy Ensemble sparse models for image analysis and restoration
KR101500900B1 (en) 2014-04-28 2015-03-12 한양대학교 산학협력단 Method and System for Classifying Text Using Classifier Produced by Learning Data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235566A1 (en) * 2020-05-19 2021-11-25 주식회사 룰루랩 Multiple skin lesion detection system, multiple skin lesion detection method and computer-readable recording medium having program for implementing same recorded thereon
US11593939B2 (en) 2020-05-19 2023-02-28 Lululab Inc. Multiple skin lesion detection system, multiple skin lesion detection method and computer-readable recording medium having program for implementing same recorded thereon

Also Published As

Publication number Publication date
KR20180048226A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
CN110414377B (en) Remote sensing image scene classification method based on scale attention network
CN111476284B (en) Image recognition model training and image recognition method and device and electronic equipment
Van der Maaten et al. Visualizing data using t-SNE.
EP3388978B1 (en) Image classification method, electronic device, and storage medium
CN109993102B (en) Similar face retrieval method, device and storage medium
Sun et al. Classification of contour shapes using class segment sets
JP6050223B2 (en) Image recognition apparatus, image recognition method, and integrated circuit
CN110188827B (en) Scene recognition method based on convolutional neural network and recursive automatic encoder model
CN111767962B (en) One-stage target detection method, system and device based on generation countermeasure network
Wang et al. Person re-identification in identity regression space
CN112819686A (en) Image style processing method and device based on artificial intelligence and electronic equipment
CN112949740B (en) Small sample image classification method based on multilevel measurement
CN110414616B (en) Remote sensing image dictionary learning and classifying method utilizing spatial relationship
Wu et al. Manifold kernel sparse representation of symmetric positive-definite matrices and its applications
KR102225586B1 (en) System and Merhod for Log Euclidean Metric Learning using Riemannian Submanifold Framework on Symmetric Positive Definite Manifolds
CN114998220A (en) Tongue image detection and positioning method based on improved Tiny-YOLO v4 natural environment
CN112163114B (en) Image retrieval method based on feature fusion
CN107766895B (en) Induced non-negative projection semi-supervised data classification method and system
JP5311899B2 (en) Pattern detector learning apparatus, learning method, and program
KR101969346B1 (en) Apparatus for classifying skin conditions, and apparatus for generating skin condition classification model used on the same apparatus and method thereof
Mosinska-Domanska et al. Active learning for delineation of curvilinear structures
CN108805280B (en) Image retrieval method and device
CN103336974B (en) A kind of flowers classification discrimination method based on local restriction sparse representation
Gabriel et al. Analysis of the discriminative generalized Hough transform as a proposal generator for a deep network in automatic pedestrian and car detection
CN104200077A (en) Embedded type attribute selection method based on subspace learning and application of embedded type attribute selection method based on subspace learning

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right