KR101484003B1 - Evaluating system for face analysis - Google Patents

Evaluating system for face analysis Download PDF

Info

Publication number
KR101484003B1
KR101484003B1 KR1020130141218A KR20130141218A KR101484003B1 KR 101484003 B1 KR101484003 B1 KR 101484003B1 KR 1020130141218 A KR1020130141218 A KR 1020130141218A KR 20130141218 A KR20130141218 A KR 20130141218A KR 101484003 B1 KR101484003 B1 KR 101484003B1
Authority
KR
South Korea
Prior art keywords
feature
face
algorithm
data
facial
Prior art date
Application number
KR1020130141218A
Other languages
Korean (ko)
Inventor
채옥삼
이찬우
류병용
김재면
Original Assignee
(주)나노인사이드
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)나노인사이드, 경희대학교 산학협력단 filed Critical (주)나노인사이드
Priority to KR1020130141218A priority Critical patent/KR101484003B1/en
Application granted granted Critical
Publication of KR101484003B1 publication Critical patent/KR101484003B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a facial analysis evaluation system. The facial analysis evaluation system according to an embodiment of the present invention includes a data input device which configures and outputs facial image data based on input facial images; a face detection device which detects the face areas in the facial image data to output the face areas; a code generation device which generates and outputs codes by using code generation algorithms selected by a user; a feature expression device which expresses the facial images as facial feature vectors to output feature data; and a classification device outputting the facial recognition result.

Description

얼굴 분석 평가 시스템{EVALUATING SYSTEM FOR FACE ANALYSIS }{EVALUATING SYSTEM FOR FACE ANALYSIS}

본 발명은 얼굴 분석 평가 시스템에 관한 것으로, 보다 상세하게는 얼굴 분석에 사용되는 각 알고리즘의 성능을 동일한 환경 조건에서 정확하게 비교 평가할 수 있는 얼굴 분석 평가 시스템에 관한 것이다.
The present invention relates to a face analysis evaluation system, and more particularly, to a face analysis evaluation system capable of accurately comparing and evaluating the performance of each algorithm used in face analysis under the same environmental conditions.

최근, 얼굴 인식 및 얼굴 표정 인식과 같은 얼굴 영상 분석 기술의 응용 분야가 많아지고 있다. 얼굴 영상 분석의 응용 분야는 제품을 차별화하고, 사용자의 관심과 구매를 유도하기 때문에 이에 관한 연구가 활발하게 진행되고 있다. 이러한 얼굴 영상 분석 방법은 크게 기하학적 특징 기반 방법(Geometric feature based method)과 외형 특징 기반 방법(Appearance feature based method)이 있다. Recently, facial image analysis techniques such as face recognition and facial expression recognition have been increasingly applied. The application field of facial image analysis is actively researching because it differentiates products and induces users' interest and purchase. These facial image analysis methods are classified into a geometric feature based method and an appearance feature based method.

기하학적 특징 방법은 얼굴의 구성요소인 눈, 코, 입, 입술, 눈썹 등의 위치와 얼굴의 구성요소 간의 관계를 이용하여 얼굴의 형태와 표정의 변화를 표현하는 방식이다. 이러한 기학적 특징 방법은 얼굴 특징을 소수의 인자로 간단하게 표현할 수 있고, 각 구성요소의 위치, 크기, 방위 변화에 쉽게 대응이 가능하지만 얼굴의 구성요소를 정확하게 검출하는 것이 매우 어렵기 때문에 많이 사용되지 않고 있다. The geometric feature method is a method of expressing the shape of the face and the change of the facial expression by using the relationship between the positions of the eyes, nose, mouth, lips, eyebrows, and the components of the face. This geometric feature method can easily represent facial features as a few factors and can easily cope with changes in position, size, and azimuth of each component, but it is very difficult to accurately detect facial components .

외형 특징 기반 방법(Appearance feature base method)은 전체적인 또는 지역적인 얼굴 영상을 대상으로 얼굴 영상의 특징을 표현하는 방식이다. 이때, 얼굴 영상의 특징을 표현하기 위해 사용되는 영상의 크기에 따라 전역 특징 기반 방법(Holistic image based approach)과 지역 특징 기반 방법(Local image based approach)로 구분된다. Appearance feature base method is a method of expressing facial image features on whole or local facial images. At this time, the image is classified into a holistic image based approach and a local image based approach according to the size of the image used to express the feature of the facial image.

전역 특징 기반 방법은 얼굴 영상을 구성하는 각 화소를 하나의 특징 요소(feature element)로 보고 영상 전체를 하나의 특징벡터로 표현하는 방식이다. 이러한 전역 특징 기반 방법은 별도의 특징 추출 과정을 거치지 않고 영상 전체를 대상으로 하기 때문에 영상 처리 방식이 간단하지만 얼굴 영상의 일부분에 나타나는 얼굴 영상의 표정이나 조명으로 인한 밝기 변화에 대한 특징을 수용하지 못하기 때문에 얼굴 인식 성능이 떨어지는 문제점이 있다. The global feature-based method is a method of representing each pixel constituting a facial image as one feature element and displaying the entire image as one feature vector. Since the global feature-based method is based on the entire image without a separate feature extraction process, the image processing method is simple. However, the feature of the facial image appearing on a part of the facial image can not be accepted The face recognition performance is deteriorated.

반면에, 지역 특징 기반 방법은 미세한 얼굴 영상의 특징을 수용할 수 있도록 변화가 일어날 수 있는 영역에 지역적인 윈도우를 설정하고, 윈도우 내의 밝기분포를 바탕으로 특징을 추출하여 전체적인 얼굴의 형태를 나타내는 특징 벡터를 구성하는 방식이다. 지역 특징 기반 방법은 얼굴 영상 변화의 특징을 수용하기 때문에 전역 특징 기반 방법보다 안정적이고 인식률이 높은 얼굴 영상 분석 결과를 보여준다. On the other hand, the regional feature-based method sets a local window in a region where a change can occur so as to accommodate the characteristics of a fine facial image, extracts features based on the brightness distribution in the window, It is a method of constructing a vector. Since the feature - based method accepts features of facial image change, it shows stable facial image analysis result with higher recognition rate than global feature based method.

일반적으로 외형 기반 특징 얼굴 분석 방법은 얼굴 영상 입력 과정, 얼굴 영상의 특징 추출 과정, 특징을 이용한 특징 벡터 생성 과정, 학습 및 테스트 과정을 수행하게 된다. 이러한 외형 기반 특징 얼굴 분석은 과정마다 입력되는 데이터, 특징 추출 알고리즘, 벡터 생성 알고리즘, 학습 및 테스트 방식에 따라서 다양한 결과가 출력된다. In general, the feature-based face analysis method performs a face image input process, a face image feature extraction process, a feature vector generation process, a learning process, and a test process. This outline-based feature face analysis outputs various results according to the data input every process, feature extraction algorithm, vector generation algorithm, learning and test method.

대부분의 외형 기반 특징 얼굴 분석 방법은 이미 알려져 있는 얼굴 데이터베이스로부터 얻어진 얼굴 영상을 주로 사용하거나 자체적으로 생성한 얼굴 영상을 사용한다. 그리고 외형 기반 특징 얼굴 분석 방법은 특징 추출, 벡터 생성 및 학습/테스트를 위한 자체적인 알고리즘을 이용하여 얼굴 영상 분석 결과를 보여준다.Most appearance-based features facial analysis methods use facial images obtained from a known face database or use self-generated facial images. And the feature based feature analysis method shows the facial image analysis result using its own algorithm for feature extraction, vector generation and learning / testing.

이러한 외형 기반 특징의 얼굴 영상 분석 방법은 자체적인 알고리즘으로 구현된 영상 분석 결과와 다른 방식의 알고리즘으로 구현된 영상 분석 결과를 비교해보면 부정확한 비교 결과가 출력된다. 따라서, 상이한 알고리즘으로 구현한 얼굴 영상 분석에 대한 정확한 비교 결과를 얻기 위해, 외형 기반 특징의 얼굴 영상 분석 방법은 여러 가지 검증 절차를 거치거나 어느 하나의 알고리즘 방식에 맞도록 다시 얼굴 영상 분석 방법을 구현해야 한다.The facial image analysis method of the feature based feature extracts the image analysis result implemented by the own algorithm and the image analysis result implemented by the other type of algorithm, and outputs an incorrect comparison result. Therefore, in order to obtain an accurate comparison result of facial image analysis implemented with different algorithms, the facial image analysis method of the outline-based feature may be implemented through various verification procedures or a facial image analysis method corresponding to any one of the algorithm methods Should be.

그러나, 표준화된 알고리즘이 아니라 자체적인 알고리즘을 이용하여 외형 기반 특징의 얼굴 영상 분석 시스템을 구현하기 때문에 얼굴 영상 분석을 위한 각 과정에 사용되는 알고리즘의 재사용 및 이식이 쉽지 않다. However, since facial image analysis system based on outline based features is implemented by using its own algorithm instead of standardized algorithm, it is difficult to reuse and transfer the algorithm used in each process for facial image analysis.

또한, 얼굴 영상 분석 방법을 정확하게 비교 평가하기 위해서는 여러 가지 환경 변화를 고려해야 하지만, 자체적인 알고리즘으로 구현되는 얼굴 영상 분석 결과들은 동일한 환경 변화를 적용하기 때문에 정확한 비교 평가가 사실상 불가능하다는 문제점이 있다. In addition, although various environmental changes must be considered in order to accurately compare and evaluate the facial image analysis method, facial image analysis results implemented by the own algorithm have the problem that accurate comparison evaluation is practically impossible because the same environmental change is applied.

즉, 얼굴 영상 분석 방법의 각 과정에서 어떤 알고리즘이 사용되었는지, 소정의 알고리즘들이 최적 성능을 수행하는 최적 성능 조건과 최적 성능에서의 환경 조건을 확인할 수 없다. That is, it is impossible to confirm which algorithm is used in each process of the facial image analysis method, the optimum performance condition in which predetermined algorithms perform optimum performance, and the environmental condition in optimum performance.

제1 얼굴 분석 시스템과 제2 얼굴 분석 시스템이 존재할 경우에, 제1 얼굴 분석 시스템은 제1 환경 조건과 제1 알고리즘을 사용하여 얼굴 분석 결과를 도출하고, 제2 얼굴 분석 시스템은 제2 환경 조건과 제2 알고리즘을 사용하여 얼굴 분석 결과를 도출할 수 있다.When the first facial analysis system and the second facial analysis system exist, the first facial analysis system derives the facial analysis result using the first environmental condition and the first algorithm, and the second facial analysis system uses the second environmental condition And the second algorithm can be used to derive the facial analysis results.

이때, 제1 환경 조건과 제2 환경 조건이 동일하지 않고, 각기 다른 환경 조건에서 제1 알고리즘과 제2 알고리즘이 구현되어 얼굴 분석 결과를 각각 도출하기 때문에 각 얼굴 분석 결과에 대한 비교 및 평가가 사실상 불가능하다. In this case, since the first environmental condition and the second environmental condition are not the same, and the first algorithm and the second algorithm are implemented under different environmental conditions to derive the respective facial analysis results, impossible.

따라서, 다양한 알고리즘이 적용되는 얼굴 분석 시스템은 환경 변화를 고려하여 얼굴 영상의 분석 결과를 정확하게 비교 및 평가할 수 있는 평가 시스템이 절실히 필요한 실정이다.
Therefore, a face analysis system to which various algorithms are applied needs an evaluation system that can accurately compare and evaluate the analysis results of facial images in consideration of environmental changes.

본 발명은 외형 특징 기반 방법을 이용한 얼굴 영상 분석에 사용되는 각 알고리즘의 성능 차이를 동일한 환경 조건에서 비교 평가함으로써 환경에 따라 최적의 얼굴 분석 알고리즘을 선택할 수 있도록 하고, 그로 인해 최적의 얼굴 분석 및 얼굴 인식 결과를 도출할 수 있는 얼굴 분석 평가 시스템을 제공한다.
The present invention is to compare and evaluate the performance difference of each algorithm used in facial image analysis using the feature feature-based method under the same environmental conditions, thereby making it possible to select an optimal facial analysis algorithm according to the environment, And provides a facial analysis evaluation system capable of deriving recognition results.

실시예들 중에서, 얼굴 분석 평가 시스템은, 얼굴 영상 분석에 사용되는 얼굴 이미지를 입력받아 얼굴 영상 데이터를 구성하여 출력하는 데이터 입력장치; 적어도 하나 이상의 얼굴 검출 알고리즘을 저장하고, 상기 얼굴 영상 데이터를 입력받아 상기 얼굴 검출 알고리즘 중 사용자에 의해 선택된 얼굴 검출 알고리즘을 이용하여 상기 얼굴 영상 데이터에서 얼굴 영역을 검출하여 출력하는 얼굴 검출 장치; 적어도 하나 이상의 코드 생성 알고리즘을 저장하고, 상기 얼굴 검출 장치에서 얼굴 영상 데이터를 입력받아 상기 코드 생성 알고리즘 중 사용자에 의해 선택된 코드 생성 알고리즘을 이용하여 코드를 생성하여 출력하는 코드 생성 장치; 지역 또는 전역 정보를 이용하는 얼굴 특징 표현 알고리즘을 적어도 하나 이상 저장하고, 상기 코드를 입력받아 상기 얼굴 특징 표현 알고리즘 중 사용자에 의해 선택된 얼굴 특징 표현 알고리즘을 이용하여 상기 얼굴 영상을 얼굴 특징 벡터로 표현하여 특징 데이터를 출력하는 특징 표현 장치; 및 적어도 하나 이상의 학습/분류 알고리즘을 저장하고, 상기 학습 알고리즘의 경우에 상기 특징 데이터를 학습 데이터로 저장하며, 상기 분류 알고리즘의 경우에 상기 특징 데이터를 기 저장된 상기 학습 데이터와 비교하여 얼굴 인식 결과를 출력하는 분류 장치를 포함한다.Among the embodiments, the face analysis evaluation system includes a data input device that receives a face image used for analyzing a face image and constructs and outputs face image data; A face detection device that stores at least one face detection algorithm, receives face image data, detects a face area in the face image data using a face detection algorithm selected by a user among the face detection algorithms, and outputs the detected face area; A code generation device that stores at least one code generation algorithm, receives face image data from the face detection device and generates and outputs a code using a code generation algorithm selected by a user among the code generation algorithms; A facial feature extraction unit that extracts facial feature vectors from the facial feature vector by using at least one facial feature expression algorithm that uses local or global information, A feature expressing device for outputting data; And storing at least one learning / classifying algorithm, storing the feature data as learning data in the case of the learning algorithm, comparing the feature data with the previously stored learning data in the case of the classification algorithm, And a sorting device for outputting the classified data.

일 실시예로, 얼굴 분석 평가 시스템은, 상기 특징 표현 장치와 상기 분류 장치 사이에 위치하며, 적어도 하나 이상의 특징 선택 알고리즘을 저장하고, 사용자에 의해 선택된 특징 선택 알고리즘을 이용하여 상기 특징 데이터를 저차원의 특징 데이터 또는 확률 기반의 특징 데이터로 축소하는 특징 축소 장치를 더 포함하는 것을 특징으로 한다. In one embodiment, the face analysis evaluation system includes at least one feature selection algorithm that is located between the feature expression device and the classification device, stores at least one feature selection algorithm, and uses the feature selection algorithm selected by the user to convert the feature data into low dimensional And a characteristic reduction device for reducing the feature data or the probability-based feature data.

이때, 상기 얼굴 영상 데이터는 영상의 가로 및 세로 해상도, 영상 버퍼 정보, 영상 데이터 타입, 컬러 순서 정보 중 적어도 하나 이상을 포함하고, 상기 특징 데이터는 차원 정보, 각 차원의 크기, 데이터 타입 중 적어도 하나 이상을 포함하는 것을 특징으로 한다.At this time, the face image data includes at least one of horizontal and vertical resolution of the image, image buffer information, image data type, color order information, and the feature data includes at least one of dimension information, Or more.

상기 데이터 입력 장치는, 얼굴 영상 분석에 사용되는 얼굴 이미지를 저장하는 적어도 하나 이상의 데이터베이스를 포함하는 얼굴 데이터베이스 모듈; 상기 얼굴 이미지를 파일 형태로 저장하는 파일 저장 모듈; 외부에서 전송되는 얼굴 영상이 실시간 입력되는 외부 입력 모듈; 상기 얼굴 데이터 모듈, 파일 저장 모듈 및 외부 입력 모듈 중 어느 하나를 통해 입력되는 얼굴 영상을 선택하여 얼굴 영상 데이터로 출력하는 이미지 선택 모듈을 포함하는 것을 특징으로 한다.Wherein the data input device comprises: a face database module including at least one database for storing face images used for face image analysis; A file storage module for storing the face image in a file format; An external input module for inputting facial images transmitted from outside in real time; And an image selection module for selecting a face image input through any one of the face data module, the file storage module, and the external input module and outputting the selected face image as face image data.

상기 얼굴 검출 장치는, 상기 적어도 하나 이상의 얼굴 검출 알고리즘을 저장하고, 사용자에 의해 특정한 얼굴 검출 알고리즘이 선택되는 알고리즘 선택 모듈; 및 상기 선택된 얼굴 검출 알고리즘에 의해 상기 데이터 입력장치에서 입력받은 얼굴 영상 데이터에서 얼굴 영역을 검출하는 얼굴 검출 엔진을 포함하는 것을 특징으로 한다.Wherein the face detection apparatus comprises: an algorithm selection module storing the at least one face detection algorithm and selecting a specific face detection algorithm by a user; And a face detection engine for detecting a face area from face image data received from the data input device by the selected face detection algorithm.

상기 코드 생성 장치는, 상기 적어도 하나 이상의 코드 생성 알고리즘을 저장하고, 사용자에 의해 특정한 코드 생성 알고리즘이 선택되는 코드 선택 모듈; 및 상기 선택된 코드 생성 알고리즘에 의해 상기 얼굴 검출 장치에서 입력받은 얼굴 영상 데이터에서 외형 특징 벡터를 구성하기 위한 코드를 산출하는 코드 산출 엔진을 포함하는 것을 특징으로 한다.The code generation device comprising: a code selection module storing the at least one code generation algorithm and selecting a specific code generation algorithm by a user; And a code calculation engine for calculating a code for constructing an outline feature vector from the face image data input from the face detection device by the selected code generation algorithm.

상기 특징 표현 장치는, 상기 지역 또는 전역 정보를 이용하는 얼굴 특징 표현 알고리즘을 적어도 하나 이상 저장하고, 사용자에 의해 특정한 얼굴 특징 표현 알고리즘이 선택되는 알고리즘 선택 모듈; 및 상기 선택된 얼굴 특징 표현 알고리즘에 의해 상기 코드 생성 장치에서 입력받은 코드를 이용하여 상기 얼굴 영상 데이터를 얼굴 특징 벡터로 표현하여 특징 데이터를 출력하는 특징 산출 모듈을 포함하는 것을 특징으로 한다.Wherein the feature expression apparatus comprises an algorithm selection module storing at least one face feature expression algorithm using the regional or global information and selecting a specific face feature expression algorithm by a user; And a feature calculating module for expressing the face image data using a facial feature vector using the code input from the code generating device by the selected facial feature indicating algorithm to output feature data.

상기 특징 축소 장치는, 상기 특징 표현 장치에서 입력받은 특징 데이터를 확률 기반 특징 분석 방식 또는 주성분 분석 방식의 특징 선택 알고리즘 중 어느 하나를 이용하여 저차원의 특징 데이터 또는 확률 기반의 특징 데이터로 축소하는 특징 축소 엔진을 포함하는 것을 특징으로 한다.The feature reduction apparatus may further include a feature extraction unit that extracts feature data input from the feature expression apparatus by using either a probability-based feature analysis method or a principal component analysis feature selection algorithm to reduce the feature data to low-dimensional feature data or probability- And a reduction engine.

상기 분류 장치는, 학습 데이터를 저장하는 학습 데이터베이스; 적어도 하나 이상의 학습/분류 알고리즘을 저장하고, 사용자에 의해 특정한 분류 알고리즘이 선택되는 분류기 선택 모듈; 및 상기 분류 알고리즘을 수행할 경우에, 상기 선택된 분류 알고리즘을 이용하여 상기 특징 데이터를 상기 학습 데이터베이스에 저장된 상기 학습 데이터와 비교하여 얼굴 인식 결과를 출력하는 분류기 엔진을 포함하는 것을 특징으로 한다.
The classification device comprises: a learning database for storing learning data; A classifier selection module storing at least one learning / classifying algorithm, and wherein a classifying algorithm specific to the user is selected; And a classifier engine for comparing the feature data with the learning data stored in the learning database using the selected classification algorithm when the classification algorithm is performed, thereby outputting a face recognition result.

본 발명의 얼굴 분석 평가 시스템은 외형 특징 기반 방법을 이용한 얼굴 영상 분석 과정에 사용되는 각 과정의 알고리즘 간 성능 차이를 동일한 환경 조건에서 비교 평가함으로써 환경 조건에 따라 최적 성능을 구현하는 얼굴 분석 알고리즘을 선택할 수 고, 그로 인해 최적의 얼굴 분석 및 얼굴 인식 결과를 도출할 수 있는 수 있는 효과가 있다.
The facial analysis evaluation system of the present invention selects a face analysis algorithm that implements optimal performance according to environmental conditions by comparing and evaluating performance differences between algorithms of each process used in facial image analysis process using the feature feature based method under the same environmental conditions Therefore, it is possible to obtain optimal face analysis and face recognition result.

도 1은 본 발명의 일 실시예에 따른 얼굴 분석 평가 시스템의 전체 구성을 설명하는 블록도이다.
도 2는 도 1의 얼굴 분석 평가 시스템의 구성을 상세히 설명하는 블록도이다.
1 is a block diagram illustrating the entire configuration of a face analysis evaluation system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating the configuration of the face analysis evaluation system of FIG. 1 in detail.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The description of the present invention is merely an example for structural or functional explanation, and the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the present invention should be understood to include equivalents capable of realizing technical ideas. Also, the purpose or effect of the present invention should not be construed as limiting the scope of the present invention, since it does not mean that a specific embodiment should include all or only such effect.

한편, 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It should be understood that the singular " include "or" have "are to be construed as including a stated feature, number, step, operation, component, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the related art and can not be interpreted as having ideal or overly formal meaning unless explicitly defined in the present invention.

도 1은 본 발명의 일 실시예에 따른 얼굴 분석 평가 시스템의 전체 구성을 설명하는 블록도이다.1 is a block diagram illustrating the entire configuration of a face analysis evaluation system according to an embodiment of the present invention.

도 1을 참고하면, 얼굴 분석 평가 시스템(100)은 데이터 입력 장치(110), 얼굴 검출 장치(120), 코드 생성 장치(130), 특징 표현 장치(140), 특징 축소 장치(150) 및 분류 장치(160)를 포함한다.1, the face analysis evaluation system 100 includes a data input device 110, a face detection device 120, a code generation device 130, a feature expression device 140, a feature reduction device 150, Device 160 as shown in FIG.

데이터 입력 장치(110)는 얼굴 영상 분석에 사용되는 얼굴 이미지를 얼굴 데이터베이스, 실시간 영상, 얼굴 영상 파일 등의 형태로 입력받아 얼굴 영상 데이터를 구성하여 출력한다. The data input device 110 receives facial images used for facial image analysis in the form of a face database, a real-time image, a facial image file, etc., and outputs facial image data.

얼굴 검출 장치(120)는 적어도 하나 이상의 얼굴 검출 알고리즘을 저장하고, 데이터 입력 장치(110)에서 얼굴 영상 데이터를 입력받아 얼굴 검출 알고리즘 중 사용자에 의해 선택된 얼굴 검출 알고리즘을 이용하여 얼굴 영상 데이터에서 얼굴 영역을 검출하여 코드 생성 장치(130)로 출력한다. The face detection apparatus 120 stores at least one face detection algorithm, receives facial image data from the data input apparatus 110, and extracts facial image data from facial image data using a face detection algorithm selected by the user, And outputs the detected code to the code generation device 130.

코드 생성 장치(130)는 적어도 하나 이상의 코드 생성 알고리즘을 저장하고, 얼굴 검출 장치(120)에서 얼굴 영상 데이터를 입력받아 코드 생성 알고리즘 중 사용자에 의해 선택된 코드 생성 알고리즘을 이용하여 코드를 생성하여 특징 표현 장치(140)로 출력한다. The code generation device 130 stores at least one code generation algorithm, receives facial image data from the face detection device 120, generates codes using a code generation algorithm selected by the user among the code generation algorithms, And outputs it to the device 140.

특징 표현 장치(140)는 지역 또는 전역 정보를 이용하는 얼굴 특징 표현 알고리즘을 적어도 하나 이상 저장하고, 코드 생성 장치(130)에서 코드를 입력받아 얼굴 특징 표현 알고리즘 중 사용자에 의해 선택된 얼굴 특징 표현 알고리즘을 이용하여 얼굴 영상 데이터를 얼굴 특징 벡터로 표현하여 특징 데이터를 특징 축소 장치(150)로 출력한다.The feature expression unit 140 stores at least one facial feature expression algorithm using local or global information, receives code from the code generation unit 130, and uses a facial feature expression algorithm selected by the user in the facial feature expression algorithm And outputs the facial image data to the feature reducing apparatus 150 by expressing facial image data as a facial feature vector.

특징 축소 장치(150)는 적어도 하나 이상의 특징 선택 알고리즘을 저장하고, 사용자에 의해 선택된 특징 선택 알고리즘을 이용하여 특징 데이터를 저차원의 특징 데이터 또는 확률 기반의 특징 데이터로 축소하여 분류 장치(160)로 출력한다. The feature reduction device 150 stores at least one feature selection algorithm and reduces the feature data to low-dimensional feature data or probability-based feature data using the feature selection algorithm selected by the user, Output.

분류 장치(160)는 적어도 하나 이상의 학습/분류 알고리즘을 저장하고, 학습 알고리즘을 수행할 경우에 특징 데이터를 학습 데이터로 저장하며, 분류 알고리즘을 수행할 경우에 특징 데이터를 기 저장된 학습 데이터와 비교하여 얼굴 인식 결과를 출력한다. 이러한 분류 장치(160)는 학습 알고리즘을 수행할 경우에 학습 데이터를 출력하고, 테스트일 경우에 얼굴 인식 결과를 출력한다.
The classifying device 160 stores at least one learning / classifying algorithm, stores the characteristic data as learning data when performing the learning algorithm, compares the characteristic data with pre-stored learning data when performing the classification algorithm The face recognition result is output. The classifying device 160 outputs learning data when performing a learning algorithm, and outputs a face recognition result when the classifying device 160 is a test.

도 2는 도 1의 얼굴 분석 평가 시스템의 구성을 상세히 설명하는 블록도이다.FIG. 2 is a block diagram illustrating the configuration of the face analysis evaluation system of FIG. 1 in detail.

도 2를 참고하면, 데이터 입력 장치(110)는 얼굴 데이터베이스 모듈(111), 파일 저장 모듈(112), 외부 입력 모듈(113) 및 이미지 선택 모듈(114)을 포함한다.Referring to FIG. 2, the data input device 110 includes a face database module 111, a file storage module 112, an external input module 113, and an image selection module 114.

얼굴 데이터베이스 모듈(111)은 이미 알려져 있는 콘-카나데(Cohn-Kanade) 얼굴 데이터베이스, 자페(JAFFE) 얼굴 데이터베이스, 확장된 콘- 카나데(Cohn-Kanade) 얼굴 데이터베이스, MMI(Multi Machine Interface) 데이터베이스, CMU-PIE(Pose, Illumination, and Expression) 데이터베이스 중 어느 하나로부터 얼굴 이미지를 불러올 수 있다. 이때, 얼굴 데이터베이스 모듈(111)은 이미 알려져 있는 얼굴 데이터베이스를 사용자의 필요에 따라 추가할 수 있다. The face database module 111 includes a known Cohn-Kanade face database, a JAFFE face database, an extended Cohn-Kanade face database, an MMI (Multi-Machine Interface) database, a CMU You can import face images from any of the PIE (Pose, Illumination, and Expression) databases. At this time, the face database module 111 may add a known face database according to the user's needs.

파일 저장 모듈(112)은 얼굴 분석 평가 시스템을 구현하고 있는 컴퓨터 또는 분석 장치, 인터페이스를 통해 얼굴 분석 평가 시스템과 연결되는 외부 컴퓨터 또는 분석 장치에 분석하고자 하는 얼굴 이미지를 파일 형태로 저장한다. The file storage module 112 stores facial images to be analyzed in a file form in a computer or an analyzing device implementing the facial analysis evaluation system, an external computer connected to the facial analysis evaluation system through an interface, or an analyzing device.

외부 입력 모듈(113)은 카메라 장치 등의 외부 기기를 통해 전송되는 얼굴 영상이 실시간 입력된다. The external input module 113 inputs a face image transmitted through an external device such as a camera device in real time.

이미지 선택 모듈(114)은 얼굴 데이터베이스 모듈(111), 파일 저장 모듈(112) 및 외부 입력 모듈(113) 중 어느 하나를 통해 입력되는 얼굴 영상을 선택하여 얼굴 영상 데이터로 얼굴 검출 장치(120)로 출력한다. The image selection module 114 selects a face image input through the face database module 111, the file storage module 112 and the external input module 113 and outputs the face image data to the face detection device 120 Output.

얼굴 검출 장치(120)는 알고리즘 선택 모듈(121) 및 얼굴 검출 엔진(122)을 포함한다.The face detection apparatus 120 includes an algorithm selection module 121 and a face detection engine 122.

알고리즘 선택 모듈(121)은 PCA(Principal Component Analysis)를 이용한 얼굴 검출 알고리즘, 비올라-존스(Viola-Jones) 알고리즘, 순방향 특징 선택(Forward Feature Selection) 얼굴 검출 알고리즘 등의 얼굴 검출 알고리즘을 저장하고, 사용자에 의해 특정 얼굴 검출 알고리즘이 선택되도록 한다.The algorithm selection module 121 stores a face detection algorithm such as a face detection algorithm using PCA (Principal Component Analysis), a Viola-Jones algorithm, a forward feature selection face detection algorithm, So that a specific face detection algorithm is selected.

PCA는 주성분 분석법으로서, 연산량이 많고 처리가 어려운 고차원의 데이터를 저차원으로 줄여 연산량을 줄이는 통계적 방법이다.PCA is a statistical method that reduces computational complexity by reducing high-dimensional data with low computational complexity and difficult processing.

얼굴 검출 엔진 모듈(122)은 알고리즘 선택 모듈(121)에서 선택된 얼굴 검출 알고리즘에 의해 데이터 입력 장치(110)에서 입력받은 얼굴 영상 데이터에서 얼굴 영역을 검출하고, 검출한 얼굴 영역의 데이터를 얼굴 영상 분석에 적합한 해상도로 변환하는 기능을 수행한다.The face detection engine module 122 detects the face area from the face image data input from the data input device 110 by the face detection algorithm selected by the algorithm selection module 121, To a resolution suitable for the display device.

이러한 얼굴 검출 장치(120)는 얼굴 영역을 검출하는 복수 개의 얼굴 검출 알고리즘을 저장할 수 있고, 사용자가 복수 개의 얼굴 검출 알고리즘 중에 어느 하나를 선택하여 사용할 수 있도록 설계된다. The face detection apparatus 120 may store a plurality of face detection algorithms for detecting face regions, and the user may designate one of the plurality of face detection algorithms to use.

코드 생성 장치(130)는 코드 선택 모듈(131) 및 코드 산출 엔진(132)을 포함한다.The code generation device 130 includes a code selection module 131 and a code calculation engine 132. [

코드 선택 모듈(131)은 Local Directional Pattern, Local Binary Pattern, Gabor 필터, SIFT 등 적어도 하나 이상의 코드 생성 알고리즘을 저장하고, 사용자에 의해 특정한 코드 생성 알고리즘이 선택된다. The code selection module 131 stores at least one code generation algorithm such as Local Directional Pattern, Local Binary Pattern, Gabor filter, and SIFT, and a code generation algorithm specific to the user is selected.

코드 산출 엔진(132)은 코드 선택 모듈(131)에서 선택된 코드 생성 알고리즘에 의해 얼굴 검출 장치(120)에서 입력받은 얼굴 영상 데이터에서 외형 특징 벡터를 구성하기 위한 코드를 산출한다. The code calculation engine 132 calculates a code for constructing the cosmetic feature vector from the face image data input from the face detection device 120 by the code generation algorithm selected by the code selection module 131. [

코드 생성 장치(130)는 복수 개의 코드 생성 알고리즘을 등록하여 확장 가능하도록 설계된다. The code generation device 130 is designed to be able to register and extend a plurality of code generation algorithms.

특징 표현 장치(140)는 하나의 얼굴 영상 데이터를 특징 벡터로 표현하는 것으로서, 알고리즘 선택 모듈(141) 및 특징 산출 모듈(142)을 포함한다.The feature expression unit 140 expresses one facial image data as a feature vector, and includes an algorithm selection module 141 and a feature calculation module 142.

알고리즘 선택 모듈(141)은 지역 히스토그램 기반 특징 벡터, 전역 특징 벡터, 중첩된 지역 히스토그램 기반 특징 벡터를 표현하는 복수 개의 얼굴 특징 표현 알고리즘뿐만 아니라 이미 전체의 전역 정보를 이용하는 얼굴 특징 정보 등의 얼굴 특징 표현 알고리즘을 적어도 하나 이상 저장하고, 사용자에 의해 특정한 얼굴 특징 표현 알고리즘이 선택된다.The algorithm selection module 141 may include a plurality of face feature expression algorithms expressing a local histogram-based feature vector, a global feature vector, and a superimposed local histogram-based feature vector, as well as a face feature expression At least one algorithm is stored, and a face feature expression algorithm specific to the user is selected.

특징 산출 모듈(142)은 알고리즘 선택 모듈(141)에서 선택된 얼굴 특징 표현 알고리즘에 의해 코드 생성 장치(130)에서 입력받은 코드를 이용하여 얼굴 영상 데이터를 얼굴 특징 벡터로 표현하여 특징 데이터를 출력한다.The feature calculating module 142 expresses facial image data as facial feature vectors using the code input from the code generating device 130 by the facial feature indicating algorithm selected by the algorithm selecting module 141 and outputs the feature data.

특징 축소 장치(150)는 특징 표현 장치(140)에서 입력되는 특징 벡터의 길이가 길어지면 분류 장치(160)에서 분류를 위한 연산량이 급격히 증가하게 되므로 특징 축소 엔진(151)을 이용하여 특징 데이터를 확률 기반 특징 분석 방식 또는 주성분 분석 방식 중 어느 하나를 이용하여 저차원의 특징 데이터 또는 확률 기반의 특징 데이터로 축소한다. If the length of the feature vector input from the feature expression unit 140 is long, the feature reduction unit 150 rapidly increases the amount of operation for classification in the classification unit 160, Dimensional feature data or probability-based feature data by using either the probability-based feature analysis method or the principal component analysis method.

분류 장치(160)는 학습과 분류를 수행하는 것으로서, 학습 기능과 테스트 기능을 수행한다. 이러한 분류 장치(160)는 학습 데이터베이스(161), 분류기 선택 모듈(162) 및 분류기 엔진(163)을 포함한다.The classification device 160 performs learning and classification, and performs a learning function and a test function. The classification device 160 includes a learning database 161, a classifier selection module 162, and a classifier engine 163.

학습 데이터베이스(161)는 학습 기능 수행시, 학습 데이터를 저장한다.The learning database 161 stores learning data when performing a learning function.

분류기 선택 모듈(162)은 SVM, Templete Matching, Ada Boost, Dempater-Shafer 등의 분류기를 저장하고, 이러한 분류기를 실행하는 적어도 하나 이상의 학습/분류 알고리즘을 저장하며, 사용자에 의해 분류기가 선택되면 그에 해당되는 분류 알고리즘이 실행되도록 한다. The classifier selection module 162 stores classifiers such as SVM, Template Matching, Ada Boost, and Dempater-Shafer, stores at least one learning / classifying algorithm for executing the classifiers, and when the classifier is selected by the user To be executed.

분류기 엔진(163)은 분류 기능 수행시, 사용자에 의해 선택된 분류기 및 분류 알고리즘을 이용하여 특징 데이터를 학습 데이터베이스(161)에 저장된 학습 데이터와 비교하여 가장 유사한 얼굴 인식 결과를 출력한다.
The classifier engine 163 compares the feature data with the learning data stored in the learning database 161 using the classifier and classification algorithm selected by the user when performing the classifying function, and outputs the most similar facial recognition result.

이러한 얼굴 분석 평가 시스템(100)은 각 장치(110~160)에 해당하는 알고리즘을 사용자가 선택 및 교체할 수 있기 때문에 상호 호환성을 유지하기 위해 각 장치에 입력 및 출력되는 데이터를 정확하게 정의해야 한다.Since the facial analysis evaluation system 100 can select and replace an algorithm corresponding to each of the devices 110 to 160, data to be input to and output from each device must be accurately defined in order to maintain mutual compatibility.

표 1은 얼굴 분석 평가 시스템의 장치별 입력 데이터와 출력 데이터를 설명하는 것으로서, 각 장치의 입력과 출력에 사용되는 데이터를 정의하여 알고리즘의 재사용성을 높이고, 얼굴 인식에 대한 정확한 비교 평가가 가능하도록 한다.
Table 1 describes input data and output data for each device of the facial analysis evaluation system. It defines the data used for the input and output of each device to increase the reusability of the algorithm, do.

장치Device 입력 데이터Input data 출력 데이터Output data 데이터 입력장치Data input device 얼굴 이미지 파일 경로 or 데이터베이스 파일 경로 or 실시간 영상 입력(CAM) or 진리표(학습시 입력)Face image file path or database file path or real-time image input (CAM) or truth table (input during learning) 얼굴 영상 데이터Face image data 얼굴 검출 장치Face detection device 얼굴 영상 데이터Face image data 얼굴 영상 데이터Face image data 코드 생성 장치Code generation device 얼굴 영상 데이터Face image data 특징 데이터Feature data 특징 표현 장치Feature presentation device 특징 데이터Feature data 특징 데이터Feature data 특징 축소 장치Feature reduction device 특징 데이터Feature data 특징 데이터Feature data 분류 장치Classification device 특징 데이터Feature data 학습: 누적된 특징 데이터
테스트: 인식 결과 미 인식률(%)
Learning: Accumulated feature data
Test: Unknown recognition rate (%)

표 1에서, 얼굴 영상 데이터는 영상의 가로 및 세로 해상도, 영상 정보가 들어 있는 영상 버퍼 정보, 영상 데이터 타입, RGB 또는 BGR 등의 컬러 순서 정보 등을 포함하고, 특징 데이터는 1차원, 2차원, 3차원 등의 차원 정보, 각 차원의 크기, C 또는 C++의 표준 데이터 타입 등의 데이터 타입 등을 포함한다.
In Table 1, the facial image data includes the horizontal and vertical resolutions of the image, the image buffer information including the image information, the image data type, the color order information such as RGB or BGR, and the characteristic data includes one-, Dimensional data such as three-dimensional data, a size of each dimension, and a data type such as a standard data type of C or C ++.

만일, 사용자가 LDP 알고리즘과 LBP 알고리즘의 성능 차이를 동일한 환경에서 비교하고자 할 경우에 코드 생성 장치(130)를 제외한 나머지 데이터 입력 장치(110), 얼굴 검출 장치(120), 특징 표현 장치(140), 특징 축소 장치(150) 및 분류 장치(160)의 알고리즘을 동일하게 설정하고, 코드 생성 장치(130)에서 LDP 알고리즘과 LBP 알고리즘을 선택한 후에 분류 장치(160)에서 출력되는 인식 결과 또는 인식률을 확인한다.If the user desires to compare the performance difference between the LDP algorithm and the LBP algorithm in the same environment, the data input device 110, the face detection device 120, and the feature expression device 140, except for the code generation device 130, The feature reducing device 150 and the classifying device 160 are identical to each other and the LDP algorithm and the LBP algorithm are selected by the code generating device 130 and then the recognition result or recognition rate output from the classifying device 160 is checked do.

따라서, 사용자는 동일한 환경 조건에서 LDP 알고리즘과 LBP 알고리즘의 성능 차이를 정확하게 비교 평가할 수 있다.
Therefore, the user can accurately compare the performance difference between the LDP algorithm and the LBP algorithm under the same environmental conditions.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

110 : 데이터 입력 장치 120 : 얼굴 검출 장치
130 : 코드 생성 장치 140 : 특징 표현 장치
150 : 특징 축소 장치 160 : 분류 장치
110: data input device 120: face detection device
130: Code generation device 140: Characteristic expression device
150: Feature reduction device 160: Classifier

Claims (9)

얼굴 영상 분석에 사용되는 얼굴 이미지를 입력받아 얼굴 영상 데이터를 구성하여 출력하는 데이터 입력장치;
적어도 하나 이상의 얼굴 검출 알고리즘을 저장하고, 상기 얼굴 영상 데이터를 입력받아 상기 얼굴 검출 알고리즘 중 사용자에 의해 선택된 얼굴 검출 알고리즘을 이용하여 상기 얼굴 영상 데이터에서 얼굴 영역을 검출하여 출력하는 얼굴 검출 장치;
적어도 하나 이상의 코드 생성 알고리즘을 저장하고, 상기 얼굴 검출 장치에서 얼굴 영상 데이터를 입력받아 상기 코드 생성 알고리즘 중 사용자에 의해 선택된 코드 생성 알고리즘을 이용하여 코드를 생성하여 출력하는 코드 생성 장치;
지역 또는 전역 정보를 이용하는 얼굴 특징 표현 알고리즘을 적어도 하나 이상 저장하고, 상기 코드를 입력받아 상기 얼굴 특징 표현 알고리즘 중 사용자에 의해 선택된 얼굴 특징 표현 알고리즘을 이용하여 상기 얼굴 영상을 얼굴 특징 벡터로 표현하여 특징 데이터를 출력하는 특징 표현 장치; 및
적어도 하나 이상의 학습/분류 알고리즘을 저장하고, 상기 학습 알고리즘의 경우에 상기 특징 데이터를 학습 데이터로 저장하며, 상기 분류 알고리즘의 경우에 상기 특징 데이터를 기 저장된 상기 학습 데이터와 비교하여 얼굴 인식 결과를 출력하는 분류 장치를 포함하는 얼굴 분석 평가 시스템.
A data input device for inputting and outputting facial image data used for facial image analysis;
A face detection device that stores at least one face detection algorithm, receives face image data, detects a face area in the face image data using a face detection algorithm selected by a user among the face detection algorithms, and outputs the detected face area;
A code generation device that stores at least one code generation algorithm, receives face image data from the face detection device and generates and outputs a code using a code generation algorithm selected by a user among the code generation algorithms;
A facial feature extraction unit that extracts facial feature vectors from the facial feature vector by using at least one facial feature expression algorithm that uses local or global information, A feature expressing device for outputting data; And
Storing at least one learning / classifying algorithm, storing the feature data as learning data in the case of the learning algorithm, comparing the feature data with the previously stored learning data in the case of the classification algorithm, and outputting a face recognition result And a face image analyzing system including a classification device for performing face image analysis.
제1항에 있어서,
상기 특징 표현 장치와 상기 분류 장치 사이에 위치하며, 적어도 하나 이상의 특징 선택 알고리즘을 저장하고, 사용자에 의해 선택된 특징 선택 알고리즘을 이용하여 상기 특징 데이터를 저차원의 특징 데이터 또는 확률 기반의 특징 데이터로 축소하는 특징 축소 장치를 더 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
The method according to claim 1,
Wherein the feature extraction device is located between the feature expression device and the classification device and stores at least one feature selection algorithm and uses the feature selection algorithm selected by the user to reduce the feature data into low dimensional feature data or probability based feature data And a feature shrinking device for correcting the feature of the face image.
제1항에 있어서,
상기 얼굴 영상 데이터는 영상의 가로 및 세로 해상도, 영상 버퍼 정보, 영상 데이터 타입, 컬러 순서 정보 중 적어도 하나 이상을 포함하고,
상기 특징 데이터는 차원 정보, 각 차원의 크기, 데이터 타입 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
The method according to claim 1,
Wherein the face image data includes at least one of horizontal and vertical resolution of the image, image buffer information, image data type, color order information,
Wherein the feature data includes at least one of dimension information, size of each dimension, and data type.
제1항에 있어서, 상기 데이터 입력 장치는,
얼굴 영상 분석에 사용되는 얼굴 이미지를 저장하는 적어도 하나 이상의 데이터베이스를 포함하는 얼굴 데이터베이스 모듈;
상기 얼굴 이미지를 파일 형태로 저장하는 파일 저장 모듈;
외부에서 전송되는 얼굴 영상이 실시간 입력되는 외부 입력 모듈;
상기 얼굴 데이터 모듈, 파일 저장 모듈 및 외부 입력 모듈 중 어느 하나를 통해 입력되는 얼굴 영상을 선택하여 얼굴 영상 데이터로 출력하는 이미지 선택 모듈을 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
The data input apparatus according to claim 1,
A face database module including at least one database for storing face images used for facial image analysis;
A file storage module for storing the face image in a file format;
An external input module for inputting facial images transmitted from outside in real time;
And an image selection module for selecting a face image input through any one of the face data module, the file storage module, and the external input module, and outputting the selected face image as face image data.
제1항에 있어서, 상기 얼굴 검출 장치는,
상기 적어도 하나 이상의 얼굴 검출 알고리즘을 저장하고, 사용자에 의해 특정한 얼굴 검출 알고리즘이 선택되는 알고리즘 선택 모듈; 및
상기 선택된 얼굴 검출 알고리즘에 의해 상기 데이터 입력장치에서 입력받은 얼굴 영상 데이터에서 얼굴 영역을 검출하는 얼굴 검출 엔진을 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
The face detection apparatus according to claim 1,
An algorithm selection module storing the at least one face detection algorithm and selecting a specific face detection algorithm by the user; And
And a face detection engine for detecting a face area from face image data received from the data input device by the selected face detection algorithm.
제1항에 있어서, 상기 코드 생성 장치는,
상기 적어도 하나 이상의 코드 생성 알고리즘을 저장하고, 사용자에 의해 특정한 코드 생성 알고리즘이 선택되는 코드 선택 모듈; 및
상기 선택된 코드 생성 알고리즘에 의해 상기 얼굴 검출 장치에서 입력받은 얼굴 영상 데이터에서 외형 특징 벡터를 구성하기 위한 코드를 산출하는 코드 산출 엔진을 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
The apparatus according to claim 1,
A code selection module storing the at least one code generation algorithm and selecting a specific code generation algorithm by a user; And
And a code calculation engine for calculating a code for constructing an outline feature vector from the face image data input from the face detection device by the selected code generation algorithm.
제1항에 있어서, 상기 특징 표현 장치는,
상기 지역 또는 전역 정보를 이용하는 얼굴 특징 표현 알고리즘을 적어도 하나 이상 저장하고, 사용자에 의해 특정한 얼굴 특징 표현 알고리즘이 선택되는 알고리즘 선택 모듈; 및
상기 선택된 얼굴 특징 표현 알고리즘에 의해 상기 코드 생성 장치에서 입력받은 코드를 이용하여 상기 얼굴 영상 데이터를 얼굴 특징 벡터로 표현하여 특징 데이터를 출력하는 특징 산출 모듈을 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
The apparatus according to claim 1,
An algorithm selection module that stores at least one face feature expression algorithm using the regional or global information and selects a specific face feature expression algorithm by the user; And
And a feature calculating module for expressing the face image data as a face feature vector by using the code input from the code generating device by the selected face feature expression algorithm and outputting the feature data.
제2항에 있어서, 상기 특징 축소 장치는,
상기 특징 표현 장치에서 입력받은 특징 데이터를 확률 기반 특징 분석 방식 또는 주성분 분석 방식의 특징 선택 알고리즘 중 어느 하나를 이용하여 저차원의 특징 데이터 또는 확률 기반의 특징 데이터로 축소하는 특징 축소 엔진을 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
The apparatus according to claim 2,
And a feature reduction engine for reducing feature data input from the feature expression device to low-dimensional feature data or probability-based feature data using any one of a probability-based feature analysis method and a principal component analysis feature selection algorithm Feature analysis system for face analysis.
제1항에 있어서, 상기 분류 장치는,
학습 데이터를 저장하는 학습 데이터베이스;
적어도 하나 이상의 학습/분류 알고리즘을 저장하고, 사용자에 의해 특정한 분류 알고리즘이 선택되는 분류기 선택 모듈; 및
상기 분류 알고리즘을 수행할 경우에, 상기 선택된 분류 알고리즘을 이용하여 상기 특징 데이터를 상기 학습 데이터베이스에 저장된 상기 학습 데이터와 비교하여 얼굴 인식 결과를 출력하는 분류기 엔진을 포함하는 것을 특징으로 하는 얼굴 분석 평가 시스템.
2. The apparatus according to claim 1,
A learning database for storing learning data;
A classifier selection module storing at least one learning / classifying algorithm, and wherein a classifying algorithm specific to the user is selected; And
And a classifier engine for comparing the feature data with the learning data stored in the learning database using the selected classification algorithm when the classification algorithm is performed to output a face recognition result. .
KR1020130141218A 2013-11-20 2013-11-20 Evaluating system for face analysis KR101484003B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130141218A KR101484003B1 (en) 2013-11-20 2013-11-20 Evaluating system for face analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130141218A KR101484003B1 (en) 2013-11-20 2013-11-20 Evaluating system for face analysis

Publications (1)

Publication Number Publication Date
KR101484003B1 true KR101484003B1 (en) 2015-01-20

Family

ID=52590855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130141218A KR101484003B1 (en) 2013-11-20 2013-11-20 Evaluating system for face analysis

Country Status (1)

Country Link
KR (1) KR101484003B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9978119B2 (en) 2015-10-22 2018-05-22 Korea Institute Of Science And Technology Method for automatic facial impression transformation, recording medium and device for performing the method
US10559062B2 (en) 2015-10-22 2020-02-11 Korea Institute Of Science And Technology Method for automatic facial impression transformation, recording medium and device for performing the method
KR20210073986A (en) 2019-12-11 2021-06-21 광주과학기술원 A method and apparatus for analyzing attractiveness of target object using deep learning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030083510A (en) * 2002-04-23 2003-10-30 삼성전자주식회사 Method for verifying users and updating the data base, and face verification system using thereof
KR20030084570A (en) * 2002-04-27 2003-11-01 삼성전자주식회사 Method and apparatus for face recognition using component-based face descriptor
KR20080035213A (en) * 2006-10-18 2008-04-23 삼성전자주식회사 Image analysis method and apparatus, motion segmentation system
KR20130018763A (en) * 2010-02-05 2013-02-25 주식회사 에스원 Face detection and method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030083510A (en) * 2002-04-23 2003-10-30 삼성전자주식회사 Method for verifying users and updating the data base, and face verification system using thereof
KR20030084570A (en) * 2002-04-27 2003-11-01 삼성전자주식회사 Method and apparatus for face recognition using component-based face descriptor
KR20080035213A (en) * 2006-10-18 2008-04-23 삼성전자주식회사 Image analysis method and apparatus, motion segmentation system
KR20130018763A (en) * 2010-02-05 2013-02-25 주식회사 에스원 Face detection and method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9978119B2 (en) 2015-10-22 2018-05-22 Korea Institute Of Science And Technology Method for automatic facial impression transformation, recording medium and device for performing the method
US10559062B2 (en) 2015-10-22 2020-02-11 Korea Institute Of Science And Technology Method for automatic facial impression transformation, recording medium and device for performing the method
KR20210073986A (en) 2019-12-11 2021-06-21 광주과학기술원 A method and apparatus for analyzing attractiveness of target object using deep learning

Similar Documents

Publication Publication Date Title
Narihira et al. Learning lightness from human judgement on relative reflectance
WO2017193906A1 (en) Image processing method and processing system
JP2020526809A (en) Virtual face makeup removal, fast face detection and landmark tracking
US9213897B2 (en) Image processing device and method
Shih et al. Automatic reference color selection for adaptive mathematical morphology and application in image segmentation
KR20160068516A (en) Apparatus and Method of portrait image processing for style synthesis
Zhao et al. Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
Wei et al. Face recognition with occlusion using dynamic image-to-class warping (DICW)
Shanmugavadivu et al. Rapid face detection and annotation with loosely face geometry
Paul et al. PCA based geometric modeling for automatic face detection
KR101484003B1 (en) Evaluating system for face analysis
Mayer et al. Adjusted pixel features for robust facial component classification
US10268881B2 (en) Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium
JP2012123796A (en) Active appearance model machine, method for mounting active appearance model system, and method for training active appearance model machine
CN104298960A (en) Robust analysis for deformable object classification and recognition by image sensors
JP2014197342A (en) Object position detection device, object position detection method and program
Kilinc et al. Automatic human age estimation using overlapped age groups
TWI536280B (en) Text localization system for street view image and device thereof
Liu et al. Color constancy by combining low-mid-high level image cues
Chen et al. Regression-based active appearance model initialization for facial feature tracking with missing frames
JPWO2020065790A1 (en) Estimator, estimation method, and program
Ding et al. 3D face sparse reconstruction based on local linear fitting
Nguyen et al. Enhanced age estimation by considering the areas of non-skin and the non-uniform illumination of visible light camera sensor
Zeng et al. Face alignment refinement

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190311

Year of fee payment: 5