KR20090119565A - Apparatus for face detect and recognition based on embedded system and face dectect and recognition in using the apparatus - Google Patents

Apparatus for face detect and recognition based on embedded system and face dectect and recognition in using the apparatus Download PDF

Info

Publication number
KR20090119565A
KR20090119565A KR1020080045682A KR20080045682A KR20090119565A KR 20090119565 A KR20090119565 A KR 20090119565A KR 1020080045682 A KR1020080045682 A KR 1020080045682A KR 20080045682 A KR20080045682 A KR 20080045682A KR 20090119565 A KR20090119565 A KR 20090119565A
Authority
KR
South Korea
Prior art keywords
image information
face image
face
value
embedded system
Prior art date
Application number
KR1020080045682A
Other languages
Korean (ko)
Other versions
KR101001758B1 (en
Inventor
강훈
이용준
서우찬
이자용
고동환
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020080045682A priority Critical patent/KR101001758B1/en
Publication of KR20090119565A publication Critical patent/KR20090119565A/en
Application granted granted Critical
Publication of KR101001758B1 publication Critical patent/KR101001758B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: An embedded system-based face search and recognition device and a method thereof are provided to recognize/search the face video information in real time by using the AdaBoost algorithm. CONSTITUTION: The feature point of the received video information is analyzed through the AdaBoost algorithm(S910). If the received video information is the face information, the searched face image information is processed as the specific size(S920). The face part of the processed face information is recognized through the PCA(Principal Component Analysis) algorithm(S930). The face video information is ported with the embedded type(S940). The ported face video information is transmitted to the embedded application(S950).

Description

임베디드 시스템 기반의 얼굴 탐색 및 인식 장치와 상기 장치를 이용한 얼굴 탐색 및 인식 방법{APPARATUS FOR FACE DETECT AND RECOGNITION BASED ON EMBEDDED SYSTEM AND FACE DECTECT AND RECOGNITION IN USING THE APPARATUS}Face detection and recognition device based on embedded system and face detection and recognition method using the device {APPARATUS FOR FACE DETECT AND RECOGNITION BASED ON EMBEDDED SYSTEM AND FACE DECTECT AND RECOGNITION IN USING THE APPARATUS}

본 발명은 임베디드 시스템 기반의 얼굴 탐색 및 인식 장치와 상기 장치를 이용한 얼굴 탐색 및 인식 방법에 관한 것으로서, 보다 상세하게는 Adaboost 알고리즘을 이용하여 영상 정보에서 얼굴 영상 정보를 탐색하고, 상기 탐색된 얼굴 영상 정보에서 주성분 분석(PCA) 알고리즘을 이용하여 얼굴 영역을 인식한 후, 임베디드 시스템에 가용한 얼굴 영상 정보로 포팅할 수 있는 얼굴 탐색 및 인식 장치와 상기 장치를 이용한 얼굴 탐색 및 인식 방법에 관한 것이다.The present invention relates to an apparatus for searching and recognizing a face based on an embedded system and a method for searching and recognizing a face using the apparatus, and more particularly, searching for face image information from image information using an Adaboost algorithm, and searching the face image. The present invention relates to a face searching and recognizing apparatus capable of recognizing a face region using a principal component analysis (PCA) algorithm from information and to porting the face image information available to an embedded system, and a face searching and recognizing method using the apparatus.

오늘날 디지털 기술이 발전함에 따라 영상 정보를 분석하여 특정 영역 또는 특정 부분으로 구분할 수 있는 기술이 개발 되고 있다.Today, as the digital technology develops, a technology for analyzing image information and dividing it into a specific area or a specific part is being developed.

이러한, 분석 기술 중에 얼굴 인식 기술은 디지털 카메라뿐만 아니라, 보안 기술을 수행하는 장치 등에 접목 되는 기술로써, 다양한 방식으로 다각도로 연구 및 개발되고 있는 실정이다.Among the analysis techniques, the face recognition technique is a technology that is applied not only to a digital camera but also to a device that performs a security technique, and is being researched and developed in various ways in various ways.

또한, 상기 얼굴을 정확하게 인식하기 위해서는 영상 정보에서 얼굴 영상 정 보를 정확하게 탐색하는 기술도 수반되어야 한다. 기존의 얼굴 탐색 기술로는 피부색 기반 알고리즘 및 신경망 알고리즘 등을 이용하였다.In addition, in order to accurately recognize the face, a technique of accurately searching for face image information in image information should be accompanied. Conventional face searching techniques use skin color based algorithm and neural network algorithm.

하지만, 상기 피부색 알고리즘 및 신경망 알고리즘 등은 얼굴 영상 정보를 정확하게 탐색하지 못 하거나, 탐색 시간이 너무 많이 소요되는 단점이 있었다.However, the skin color algorithm and the neural network algorithm do not search face image information accurately, or the search time is too long.

따라서, 얼굴 탐색 및 인식 장치는 디지털 장치에 부합되도록 보다 빠른 속도로 영상 정보를 분석하여 실시간으로 얼굴 영상 정보를 탐색하거나 인식할 수 있는 방법이 필요한 실정이다. Accordingly, there is a need for a face searching and recognizing apparatus that can search for or recognize face image information in real time by analyzing image information at a higher speed so as to be matched with a digital device.

본 발명은 상술한 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 임베디드 시스템 기반의 얼굴 영상 정보를 탐색 및 인식 할 수 있는 방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-mentioned problems of the prior art, and an object thereof is to provide a method for searching and recognizing face image information based on an embedded system.

또한, 본 발명은 영상 정보를 AdaBoost 알고리즘을 이용하여 실시간으로 얼굴 영상 정보를 탐색할 수 있는 방법을 제공하는데 그 목적이 있다.Another object of the present invention is to provide a method for searching face image information in real time using the AdaBoost algorithm.

또한, 본 발명은 영상 정보를 주성분 분석(PCA) 알고리즘을 이용하여 정확한 얼굴 영상 정보를 인식 할 수 있는 방법을 제공하는데 그 목적이 있다.In addition, an object of the present invention is to provide a method for recognizing accurate face image information by using a principal component analysis (PCA) algorithm.

상기의 목적을 달성하고, 상술한 종래기술의 문제점을 해결하기 위하여, 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법은, AdaBoost 알고리즘을 통하여 수신된 영상 정보의 특징점(feature)을 분석하여 얼굴 영상 정보인지 여부를 탐색하는 단계, 상기 탐색 결과 상기 수신된 영상 정보가 얼굴 영상 정보인 경우, 기설정에 따라 상기 탐색된 얼굴 영상 정보를 특정 크기로 가공하는 단계, 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식하는 단계 및 상기 얼굴 영역이 인식된 얼굴 영상 정보를 임베디드 형식으로 포팅하는 단계를 포함한다.In order to achieve the above object and solve the above-mentioned problems of the prior art, the embedded system-based face searching and recognition method according to an embodiment of the present invention, the feature point of the image information received through the AdaBoost algorithm Analyzing whether the image information is face image information; if the received image information is face image information, processing the searched face image information to a specific size according to a preset setting; Recognizing a face region through a Principal Component Analysis (PCA) algorithm of the image information and porting the face image information recognized by the face region in an embedded format.

또한, 본 발명의 상기 얼굴 영상 정보인지 여부를 탐색하는 단계는 상기 수신된 영상 정보에 대한 무게(weight) 값을 초기화 하는 제1 단계, 상기 초기화된 무게 값을 정규화 시키는 제2 단계, 상기 특정 특징점에 대한 분류기(classifier)의 결과값 및 에러값을 계산하는 제3 단계, 상기 특정 분류기 중 에러값이 가장 작은 분류기를 선택하여 결과값을 데이터베이스에 저장하는 제4 단계, 상기 선택된 분류기의 결과값을 저장한 경우, 상기 무게 값을 업데이트 하는 제5 단계, 상기 제1 단계 내지 제 5 단계를 기설정된 횟수 동안 반복하고, 상기 제4 단계에서 저장된 분류기의 결과값을 조합하여 최종 분류기의 결과값으로 가공하는 제6 단계 및 상기 최종 분류기의 결과값을 통하여 상기 얼굴 영상 정보인지 여부를 판단하는 제7 단계를 포함한다.The searching of the face image information according to the present invention may include: a first step of initializing a weight value of the received image information, a second step of normalizing the initialized weight value, and the specific feature point A third step of calculating a resultant value and an error value of a classifier for the second step; a fourth step of selecting a classifier having the smallest error value among the specific classifiers and storing the result value in a database; When storing, repeating the fifth step of updating the weight value, the first step to the fifth step for a predetermined number of times, and combining the result values of the classifier stored in the fourth step into a result value of the final classifier. And a seventh step of determining whether the face image information is based on the result of the final classifier.

또한, 본 발명의 얼굴 영역을 인식하는 단계는 하나 이상의 얼굴 영상 정보로 인식되는 영상 정보를 열벡터 형식으로 변환한 학습 얼굴 영상 정보 결과값을 구하는 단계, 상기 얼굴 영상 정보로 인식되는 영상 정보의 평균 얼굴 영상 정보 결과값을 구하는 단계, 상기 학습 얼굴 영상 정보 결과값에 상기 평균 얼굴 영상 정보 결과값의 차인 얼굴 영상 정보 비교값을 데이터베이스에 저장하는 단계, 상기 얼굴 영상 정보 비교값의 공분산 행렬로 정렬한 얼굴 영상 정보 행렬값을 계산하는 단계, 상기 얼굴 영상 정보 행렬값의 고유값 및 고유 벡터의 크기를 계산하는 단계 및 상기 고유 벡터를 상기 고유값을 기준으로 크기순으로 정렬하는 단계를 포함한다. The recognizing of the face region may include obtaining a learning face image information result value obtained by converting image information recognized as one or more face image information into a column vector format, and averaging the image information recognized as the face image information. Obtaining a face image information result value, storing a face image information comparison value, which is a difference between the average face image information result value, in a database, and sorting the face image information result value by a covariance matrix of the face image information comparison value Calculating a face image information matrix value, calculating an eigenvalue of the face image information matrix value and a magnitude of an eigenvector, and arranging the eigenvectors in size order based on the eigenvalues.

또한, 본 발명의 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식하는 단계는, 상기 학습 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영하는 단계, 상기 가공된 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영하는 단계, 상기 사영된 학습 얼굴 영상 정보와 상기 사영된 가공된 얼굴 영상 정보의 유클리드 거리를 계산하는 단계 및 상기 계산된 유클리드 거리가 최소인 것을 최종 인식 얼굴 영상 정보로 판단하는 단계를 더 포함한다.The recognizing a face region through a principal component analysis (PCA) algorithm of the processed face image information of the present invention may include: projecting the learning face image information result value into the eigenvector; Projecting the resulting face image information result into the eigenvector, calculating a Euclidean distance between the projected learning face image information and the projected processed face image information, and finally recognizing that the calculated Euclidean distance is minimum The method may further include determining the face image information.

상기의 목적을 달성하고, 상술한 종래기술의 문제점을 해결하기 위하여, 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 장치는, AdaBoost 알고리즘을 통하여 수신된 영상 정보의 특징점(feature)을 분석하여 얼굴 영상 정보인지 여부를 탐색하는 얼굴 탐색부, 상기 탐색 결과 상기 수신된 영상 정보가 얼굴 영상 정보인 경우, 기설정에 따라 상기 탐색된 얼굴 영상 정보를 특정 크기로 가공하는 영상 가공부, 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식하는 얼굴 인식부 및 상기 얼굴 영역이 인식된 얼굴 영상 정보를 임베디드 형식으로 포팅하는 포팅 제어부, 상기 포팅된 얼굴 영상 정보를 임베디드 응용 수단으로 전송하는 얼굴 영상 정보 전송부를 포함한다. In order to achieve the above object and solve the above-mentioned problems of the prior art, the embedded system-based face search and recognition device according to an embodiment of the present invention, the feature point of the image information received through the AdaBoost algorithm A face searching unit for searching whether the face image information is analyzed by analyzing the image processing unit, and if the received image information is face image information as a result of the search, an image processing unit processing the found face image information according to a preset size to a specific size; A face recognition unit for recognizing a face region through a principal component analysis (PCA) algorithm among the processed face image information, and a porting controller for porting the face image information in which the face region is recognized in an embedded format, and the ported face. And a face image information transmitter for transmitting the image information to the embedded application means.

본 발명에 따르면 임베디드 시스템 기반의 얼굴 영상 정보를 탐색 및 인식 할 수 있다.According to the present invention, the facial image information based on the embedded system can be searched and recognized.

또한, 본 발명에 따르면 영상 정보를 AdaBoost 알고리즘을 이용하여 실시간으로 얼굴 영상 정보를 탐색할 수 있다.According to the present invention, the face information can be searched for in real time using the AdaBoost algorithm.

또한, 본 발명에 따르면 영상 정보를 주성분 분석(PCA) 알고리즘을 이용하여 정확한 얼굴 영상 정보를 인식 할 수 있다.In addition, according to the present invention, it is possible to recognize the correct face image information by using the principal component analysis (PCA) algorithm.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited to the embodiments.

한편, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.On the other hand, in describing the present invention, when it is determined that the detailed description of the related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terminology used herein is a term used to properly express a preferred embodiment of the present invention, which may vary according to a user, an operator's intention, or a custom in the field to which the present invention belongs. Therefore, the definitions of the terms should be made based on the contents throughout the specification.

도 1은 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 장치의 전체 구성을 도시한 블록도이다.1 is a block diagram illustrating the overall configuration of an apparatus for face searching and recognizing based on an embedded system according to an exemplary embodiment of the present invention.

본 발명은 임베디드 시스템을 기반으로 하는 실시간 얼굴 탐색 및 인식 방법을 제공한다. 즉, 임베디드 시스템으로 수신되는 영상 정보를 바탕으로 얼굴 탐색 및 인식 장치(100)로 AdaBoost 알고리즘을 사용하여 얼굴 영상 정보를 탐색하며, 주성분 분석 알고리즘을 사용하여 얼굴 영상 정보를 인식한 후, 임베디드 응용 수단(200)에서 재생 가능한 임베디드 시스템 형식으로 상기 얼굴 영상 정보를 포팅하여 제공할 수 있는 방법을 제공한다. The present invention provides a real-time face search and recognition method based on the embedded system. That is, based on the image information received by the embedded system, the face search and recognition apparatus 100 searches for face image information using the AdaBoost algorithm, recognizes the face image information using the principal component analysis algorithm, and then uses the embedded application means. Provided is a method of porting and providing the face image information in an embedded system format reproducible at 200.

이때, 상기 얼굴 탐색 및 인식 장치(100)는 임베디드 시스템 기반에 적용되는 카메라 등의 영상 정보를 처리할 수 있는 다양한 수단을 포함한다.In this case, the face searching and recognizing apparatus 100 includes various means for processing image information such as a camera applied to an embedded system base.

상기와 같은, 본 발명의 얼굴 영상 정보 탐색 및 인식 장치(100)를 도 2 내지 도 8을 참조하여 영상 정보를 수집하여 얼굴 영상 정보로 인식하기까지의 영상 정보의 순차적인 흐름에 따라 아래에서 자세히 설명하기로 한다.As described above, the facial image information searching and recognizing apparatus 100 according to the present invention is described in detail according to the sequential flow of image information until the image information is collected and recognized as the facial image information with reference to FIGS. 2 to 8. Let's explain.

도 2는 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 장치의 구성을 도시한 블록도이다.2 is a block diagram illustrating a configuration of an apparatus for face searching and recognizing based on an embedded system according to an exemplary embodiment of the present invention.

먼저, 얼굴 탐색부(110)는 AdaBoost 알고리즘을 통하여 수신된 영상 정보의 특징점(feature)을 분석하여 얼굴 영상 정보인지 여부를 탐색한다.First, the face searching unit 110 analyzes a feature of the image information received through the AdaBoost algorithm and searches whether the face image information is face image information.

즉, 얼굴 탐색부(110)는 사용자가 얼굴 탐색 및 인식 장치(100)가 연결된 촬영 수단 등을 이용하여 임의의 영상을 촬영함으로써, 얼굴 탐색 및 인식 장치(100)로 수신되는 영상 정보를 분석하여 얼굴 영상 정보인지 여부를 탐색한다.That is, the face searching unit 110 analyzes the image information received by the face searching and recognizing apparatus 100 by capturing an arbitrary image by a user using a photographing means connected to the face searching and recognizing apparatus 100. Search for face image information.

이때, 본 발명에서는 상기 영상 정보를 AdaBoost 알고리즘을 통하여 분석함으로써, 실시간으로 얼굴 영상 정보인지 여부를 탐색할 수 있다.At this time, in the present invention, by analyzing the image information through the AdaBoost algorithm, it is possible to search whether the face image information in real time.

본 발명에서 얼굴 영상 정보 탐색 기능은 상기 수신된 영상 정보의 장방형 특징점(Rectangle feature) 값을 상기 AdaBoost 알고리즘을 통하여 분석함으로써, 얼굴 영상 정보인지 여부를 탐색한다.In the present invention, the face image information search function searches for the face image information by analyzing a rectangular feature value of the received image information through the AdaBoost algorithm.

본 발명에서는 얼굴의 특징을 빠르게 분석하기 위하여 장방형 특징점 추출은 Haar basis function을 기초로 한다.In the present invention, the rectangular feature point extraction is based on the Haar basis function to quickly analyze the facial features.

도 3은 본 발명의 일실시예에 따른 특징점 분석 유형을 도시한 도면이다.3 is a diagram illustrating a feature point analysis type according to an embodiment of the present invention.

즉, 본 발명의 얼굴 영상 정보 탐색 방법은 도 3에 도시된 바와 같이 기본적으로 검은 영역과 흰 영역의 넓이는 같으며, feature값은 흰 영역의 밝기 값 의 합과 검은 영역의 밝기 값의 차로 계산된다. 예를 들어, 탐색할 윈도우의 크기가 24x24일 때 장방형 특징점의 크기와 위치를 달리 함으로써 구할 수 특징점들의 개수는, 약 4만개 정도이다. That is, in the face image information search method of the present invention, as shown in FIG. do. For example, when the size of the window to be searched is 24x24, the number of feature points that can be obtained by changing the size and position of the rectangular feature points is about 40,000.

본 발명에서 제공되는 얼굴 영상 정보 탐색 방법으로부터 최종적으로 구해지는 장방형 특징점 값을 상기 AdaBoost 알고리즘을 통하여 구하는 과정을 도 4를 참조하여 설명하면 다음과 같다.A process of obtaining the rectangular feature point value finally obtained from the face image information search method provided by the present invention through the AdaBoost algorithm will now be described with reference to FIG. 4.

도 4는 본 발명의 일실시예에 따른 AdaBoost 알고리즘을 이용하여 얼굴 영상 정보를 탐색한 예를 도시한 도면이다.4 is a diagram illustrating an example of searching for face image information using the AdaBoost algorithm according to an embodiment of the present invention.

먼저, 상기 수신된 영상 정보에 대한 무게(weight) 값을 초기화 한다(제1 단계).First, a weight value of the received image information is initialized (first step).

다음으로, 상기 초기화된 무게 값을 정규화 시킨다(제 2단계).Next, the initialized weight value is normalized (second step).

다음으로, 상기 특징점에 대한 분류기(classifier)의 결과값 및 에러값을 계산한다(제3 단계).Next, a result value and an error value of a classifier for the feature point are calculated (third step).

다음으로, 상기 분류기 중 에러값이 가장 작은 분류기를 선택하여 결과값을 데이터베이스(131)에 저장한다(제4 단계).Next, the classifier having the smallest error value is selected among the classifiers, and the result value is stored in the database 131 (step 4).

다음으로, 상기 선택된 분류기의 결과값을 저장한 경우, 상기 무게 값을 업데이트 한다(제5 단계).Next, when the result value of the selected classifier is stored, the weight value is updated (step 5).

다음으로, 상기 제1 단계 내지 제 5 단계를 기설정된 횟수 동안 반복하고, 상기 제4 단계에서 저장된 분류기의 결과값을 조합하여 최종 분류기의 결과값으로 가공한다(제6 단계).Next, the first to fifth steps are repeated for a predetermined number of times, and the resultant values of the classifier stored in the fourth step are combined and processed into the final value of the final classifier (sixth step).

즉, 본 발명의 얼굴 영상 정보 탐색 방법에 따르면, 상기 제6 단계를 통하여 상기 최종 분류기의 결과값에 따라 도 4에 도시된 바와 같이 반복적인 블록이 생성되며, 이를 분석하여 상기 얼굴 영상 정보인지 여부를 실시간으로 판단할 수 있다(제7 단계).That is, according to the face image information searching method of the present invention, a repetitive block is generated as shown in FIG. 4 according to the result value of the final classifier through the sixth step, and analyzed to determine whether it is the face image information. Can be determined in real time (step 7).

이때, 상기 최종 분류기의 결과값(h(x))은 아래 수학식 1을 통하여 계산될 수 있다.In this case, the result value h (x) of the final classifier may be calculated through Equation 1 below.

Figure 112008034936221-PAT00001
Figure 112008034936221-PAT00001

이때, 상기 h(1)은 상기 영상 정보가 얼굴 영상 정보로 판단되는 최종 분류기 결과값이고, 상기 h(0)은 상기 영상 정보가 얼굴 영상 정보가 아닌 것으로 판단되는 최종 분류기 값이고,

Figure 112008034936221-PAT00002
는 상기 무게값이다. In this case, h (1) is a final classifier result value in which the image information is determined to be face image information, and h (0) is a final classifier value in which it is determined that the image information is not face image information.
Figure 112008034936221-PAT00002
Is the weight value.

다음으로, 영상 가공부(120)는 상기 탐색 결과 상기 수신된 영상 정보가 얼굴 영상 정보인 경우, 기설정에 따라 상기 탐색된 얼굴 영상 정보를 특정 크기로 가공한다.Next, when the received image information is face image information, the image processing unit 120 processes the found face image information to a specific size according to a preset setting.

본 발명의 영상 가공부(120)는 상기 탐색된 얼굴 영상 정보의 크기 설정 정보를 수신하여, 상기 수신된 크기 설정 정보에 따라 상기 탐색된 얼굴 영상 정보를 적정 크기로 변환한 후, 상기 변환된 얼굴 영상 정보를 기설정된 표준 크기로 가공함으로써, 상기 탐색된 얼굴 영상 정보를 정확하게 인식 할 수 있는 포맷을 제공할 수 있다.The image processing unit 120 of the present invention receives the size setting information of the searched face image information, converts the searched face image information to an appropriate size according to the received size setting information, and then converts the converted face. By processing the image information to a predetermined standard size, it is possible to provide a format that can accurately recognize the searched face image information.

다음으로, 얼굴 인식부(130)는 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식한다.Next, the face recognition unit 130 recognizes a face region of the processed face image information through a Principal Component Analysis (PCA) algorithm.

본 발명은 상기 얼굴 영상 정보 인식에 있어 기초가 되는 얼굴 영상 정보를 미리 학습하여 저장할 수 있으며, 상기 주성분 분석 알고리즘을 이용하여 상기 학습된 얼굴 영상 정보를 기초로 하여 최종적인 얼굴 영상 정보를 인식 할 수 있다.According to the present invention, face image information which is the basis for face image information recognition can be learned and stored in advance, and final face image information can be recognized based on the learned face image information using the principal component analysis algorithm. have.

본 발명의 얼굴 영상 정보를 주성분 분석 알고리즘을 통하여 학습하는 과정을 살펴보면 다음과 같다.Looking at the process of learning the face image information of the present invention through the principal component analysis algorithm as follows.

먼저, 하나 이상의 얼굴 영상 정보로 인식되는 영상 정보를 열벡터 형식으로 변환한 학습 얼굴 영상 정보 결과값을 구한다.First, a result of learning face image information obtained by converting image information recognized as one or more face image information into a column vector format is obtained.

다음으로, 상기 얼굴 영상 정보로 인식되는 영상 정보의 평균 얼굴 영상 정보 결과값을 구한다.Next, an average face image information result value of the image information recognized as the face image information is obtained.

다음으로, 상기 학습 얼굴 영상 정보 결과값에 상기 평균 얼굴 영상 정보 결과값의 차인 얼굴 영상 정보 비교값(

Figure 112008034936221-PAT00003
)을 데이터베이스(131)에 저장한다.Next, a face image information comparison value that is a difference between the learning face image information result value and the average face image information result value (
Figure 112008034936221-PAT00003
) Is stored in the database 131.

다음으로, 상기 얼굴 영상 정보 비교값(

Figure 112008034936221-PAT00004
)의 공분산 행렬로 정렬한 얼굴 영상 정보 행렬값(Ω)을 계산한다.Next, the face image information comparison value (
Figure 112008034936221-PAT00004
The face image information matrix value (Ω) arranged by the covariance matrix of

다음으로, 상기 얼굴 영상 정보 행렬값(Ω)의 고유값 및 고유 벡터의 크기를 계산한다.Next, the eigen value of the face image information matrix value? And the magnitude of the eigenvector are calculated.

최종적으로, 상기 고유 벡터를 상기 고유값을 기준으로 크기순으로 도 5에 도시된 바와 같이 정렬할 수 있다. Finally, the eigenvectors may be arranged as shown in FIG. 5 in order of magnitude based on the eigenvalues.

도 5는 본 발명에 따른 주성분 분석 알고리즘을 이용하여 영상 정보의 결과값을 분류한 예를 도시한 도면이다.5 is a diagram illustrating an example of classifying result values of image information using a principal component analysis algorithm according to the present invention.

본 발명은 상기와 같이 학습된 얼굴 영상 정보를 기초로 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식할 수 있다.According to the present invention, a face region may be recognized through a principal component analysis (PCA) algorithm among the processed face image information based on the learned face image information.

도 6은 본 발명의 일실시예에 따른 주성분 분석 알고리즘을 통하여 추출된 고유 얼굴 영상 정보의 예를 도시한 도면이다.FIG. 6 is a diagram illustrating an example of unique face image information extracted through a principal component analysis algorithm according to an embodiment of the present invention.

예를 들어, 본 발명은 도 6에 도시된 바와 같이 학습된 고유 벡터는 얼굴 형태와 비슷하기 때문에 고유 얼굴 영상 정보라 할 수 있으며, 상기와 같이 학습된 영상 정보의 결과 값을 바탕으로 상기 가공된 얼굴 영상 정보를 비교함으로써, 정확한 얼굴 영상 정보를 다음과 같이 인식할 수 있다. For example, in the present invention, since the learned eigenvector is similar to the face shape as shown in FIG. 6, it can be referred to as eigenface image information, and the processed eigenvector is processed based on the result value of the learned image information. By comparing the face image information, accurate face image information can be recognized as follows.

먼저, 상기 학습 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영하고, 상기 가공된 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영한다.First, the learning face image information result value is projected on the eigenvector, and the processed face image information result value is projected on the eigenvector.

이때, 상기 사영된 학습 얼굴 영상 정보와 상기 사영된 가공된 얼굴 영상 정보의 유클리드 거리를 계산하고, 상기 계산된 유클리드 거리가 최소인 것을 최종 인식 얼굴 영상 정보로 판단할 수 있다.In this case, the Euclidean distance between the projected learning face image information and the projected processed face image information may be calculated, and it may be determined that the calculated Euclidean distance is minimum as the final recognized face image information.

도 7은 본 발명의 일실시에에 따른 주성분 분석 알고리즘을 통하여 인식된 최종 얼굴 영상 정보의 예를 도시한 도면이다.7 illustrates an example of final face image information recognized through a principal component analysis algorithm according to an embodiment of the present invention.

또한, 도 7에 도시된 바와 같이 주성분 분석 알고리즘을 통하여 인식된 최종 인식 얼굴 영상 정보는 조명에도 강인한 특성을 제공한다.In addition, as shown in FIG. 7, the final recognized face image information recognized through the principal component analysis algorithm provides robustness to illumination.

다음으로, 포팅 제어부(140)는 상기 얼굴 영역이 인식된 얼굴 영상 정보를 임베디드 형식으로 포팅한다.Next, the porting controller 140 ports the face image information in which the face region is recognized in an embedded format.

본 발명은 상기와 같이 AdaBoost 알고리즘 및 주성분 분석 알고리즘을 통하여 얼굴 영상 정보를 탐색 및 인식하여 상기 인식된 얼굴 영상 정보를 임베디드 응용 수단(200)에서 재생 가능한 형식으로 포팅하는 방법을 제공한다.The present invention provides a method for porting the recognized face image information into a reproducible format in the embedded application means 200 by searching and recognizing face image information through the AdaBoost algorithm and the principal component analysis algorithm as described above.

도 8은 본 발명의 일실시에에 따른 임베디드 형식으로 포팅하는 방법을 도시한 흐름도이다.8 is a flowchart illustrating a method for porting to an embedded form according to an embodiment of the present invention.

즉, 본 발명은 도8에 도시된 바와 같이 상기 인식된 얼굴 영상 정보를 임베디드 응용 수단(200)에서 재생 가능한 형식으로 포팅하는데, 상기 포팅 과정에 대한 일실시예를 설명하면 다음과 같다.That is, the present invention portes the recognized face image information in a format reproducible by the embedded application means 200 as shown in FIG. 8. An embodiment of the porting process will be described below.

먼저, PC에 Wince(Platform Builder) 설치하고, PC의 Platform Builder(P.B) 상에서 타깃 보드 구성하여, 컴포넌트(Component) 추가, 실행 Binary 파일(NK.bin, NK.nb0) 생성 및 필요한 확장 보드 구성한다.First, Wince (Platform Builder) is installed on the PC, and the target board is configured on the Platform Builder (PB) of the PC to add components, create executable binary files (NK.bin, NK.nb0), and configure necessary expansion boards. .

다음으로, PC의 P.B에서 타깃 보드의 SDK 생성 및 설치하고, 개발툴(EVC4.0) 을 설치한다.Next, create and install the target board's SDK from P.B on the PC, and install the development tool (EVC4.0).

다음으로, PC와 타깃 보드간의 통신 설정 및 Boot-Loader 설정한다.Next, set communication and boot-loader settings between the PC and the target board.

다음으로, PC와 타깃 보드간의 Boot-Loader 통신은 하이퍼 터미널로 구성하 고, 타깃 보드에 운영체제 즉, P.B상에서 생성한 실행 Binary 파일을 타깃보드에 설치한다.Next, Boot-Loader communication between PC and target board is composed of hyper terminal, and executable binary file created on OS, that is, P.B, is installed on target board.

최종적으로, 타깃 보드의 어플리케이션 생성 및 테스트하여 포팅 과정을 종료한다. 이때, MFC로 작성된 프로그램의 어플리케이션을 EVC에서 변환 하여 타깃 보드로 옮길 어플리케이션으로 변환하고 다운로드하여 테스트할 수 있다.Finally, the porting process is completed by creating and testing the application on the target board. At this time, the application of the program written in MFC can be converted into the application to be converted to the target board by EVC, downloaded, and tested.

상기와 같은 과정으로 포팅이 완료된 얼굴 영상 정보는 얼굴 영상 정보 전송부(150)를 통하여 임베디드 응용 수단(200)으로 전송된다.The face image information of which porting is completed in the above process is transmitted to the embedded application means 200 through the face image information transmitter 150.

이렇듯, 본 발명은 AdaBoost 알고리즘 및 주성분 분석 알고리즘을 통하여 얼굴 영상 정보를 탐색 및 인식하고, 상기 얼굴 영상 정보를 임베디드 응용 수단(200)의 형식에 맞는 정보로 포팅하여 제공할 수 있는 방법을 제시하고 있으며, 이를 도 9 내지 도 13을 참조하여 순차적으로 설명하도록 한다.As described above, the present invention provides a method for searching and recognizing face image information through AdaBoost algorithm and principal component analysis algorithm, and providing the face image information as information suitable for the format of the embedded application means 200. This will be described sequentially with reference to FIGS. 9 to 13.

이때, 상기 방법은 얼굴 탐색 및 인식 장치(200)에 준하는 내용이므로, 상기 장치의 기능적 요소를 모두 포함하고 있기 때문에 그에 따른 상세한 설명은 생략하여 간략히 설명하기로 한다.In this case, since the method corresponds to the face searching and recognizing apparatus 200, since the method includes all the functional elements of the apparatus, detailed description thereof will be omitted.

도 9는 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법을 도시한 흐름도이다.9 is a flowchart illustrating a face searching and recognition method based on an embedded system according to an exemplary embodiment of the present invention.

먼저, 본 발명의 얼굴 탐색부(110)는 도 9에 도시된 바와 같이 AdaBoost 알고리즘을 통하여 수신된 영상 정보의 특징점(feature)을 분석하여 얼굴 영상 정보인지 여부를 탐색한다(S910).First, the face search unit 110 of the present invention analyzes a feature of the image information received through the AdaBoost algorithm as shown in FIG. 9 and searches whether the face image information is face image information (S910).

본 단계(S910)는 도 10에 도시된 바와 같이 아래와 같은 과정으로 영상 정보 로부터 얼굴 영상 정보를 탐색할 수 있다.In operation S910, as shown in FIG. 10, face image information may be searched from the image information by the following process.

도 10은 본 발명의 일실시예에 따른 얼굴 영상 정보 탐색 방법을 도시한 흐름도이다.10 is a flowchart illustrating a method of searching for face image information according to an embodiment of the present invention.

먼저, 얼굴 탐색부(110)는 상기 수신된 영상 정보에 대한 무게(weight) 값을 초기화한다(S1010).First, the face search unit 110 initializes a weight value of the received image information (S1010).

다음으로, 얼굴 탐색부(110)는 상기 초기화된 무게 값을 정규화 시킨다(S1020).Next, the face search unit 110 normalizes the initialized weight value (S1020).

다음으로, 얼굴 탐색부(110)는 상기 특징점에 대한 분류기(classifier)의 결과값 및 에러값을 계산한다(S1030). Next, the face searching unit 110 calculates a result value and an error value of a classifier for the feature point (S1030).

다음으로, 얼굴 탐색부(110)는 상기 분류기 중 에러값이 가장 작은 분류기를 선택하여 결과값을 데이터베이스(131)에 저장한다(S1040).Next, the face searching unit 110 selects the classifier having the smallest error value among the classifiers and stores the result value in the database 131 (S1040).

다음으로, 얼굴 탐색부(110)는 상기 선택된 분류기의 결과값을 저장한 경우, 상기 무게 값을 업데이트 한다(S1050). Next, when the face search unit 110 stores the result value of the selected classifier, the face search unit 110 updates the weight value (S1050).

다음으로, 얼굴 탐색부(110)는 상기 제1 단계(S1010) 내지 제 5 단계(S1050)를 기설정된 횟수 동안 반복하고, 상기 제4 단계(S1040)에서 저장된 분류기의 결과값을 조합하여 최종 분류기의 결과값으로 가공한다(S1060).Next, the face searching unit 110 repeats the first step S1010 to the fifth step S1050 for a predetermined number of times, and combines the result values of the classifier stored in the fourth step S1040 to determine the final classifier. It is processed to the result of (S1060).

최종적으로, 얼굴 탐색부(110)는 상기 최종 분류기의 결과값을 통하여 상기 얼굴 영상 정보인지 여부를 판단한다(S1070).Finally, the face searching unit 110 determines whether the face image information is the result of the final classifier (S1070).

다음으로, 영상 가공부(120)는 상기 탐색 결과 상기 수신된 영상 정보가 얼굴 영상 정보인 경우, 기설정에 따라 상기 탐색된 얼굴 영상 정보를 특정 크기로 가공한다(S920).Next, when the received image information is face image information, the image processing unit 120 processes the searched face image information to a specific size according to a preset setting (S920).

본 단계(S920)는 도 11에 도시된 바와 같이 아래와 같은 과정으로 탐색된 얼굴 영상 정보를 특정 크기로 가공 할 수 있다.In operation S920, as illustrated in FIG. 11, the detected face image information may be processed to a specific size.

도 11은 본 발명의 일실시예에 따른 탐색된 얼굴 영상 정보를 특정 크기로 가공하는 방법을 도시한 흐름도이다.11 is a flowchart illustrating a method of processing the found face image information to a specific size according to an embodiment of the present invention.

먼저, 영상 가공부(120)는 상기 탐색된 얼굴 영상 정보의 크기 설정 정보를 수신한다(S1110).First, the image processor 120 receives size setting information of the searched face image information (S1110).

다음으로, 영상 가공부(120)는 상기 수신된 크기 설정 정보에 따라 상기 탐색된 얼굴 영상 정보를 적정 크기로 변환한다(S1120).Next, the image processing unit 120 converts the searched face image information to an appropriate size according to the received size setting information (S1120).

최종적으로, 영상 가공부(120)는 상기 변환된 얼굴 영상 정보를 기설정된 표준 크기로 가공한다(S1130).Finally, the image processing unit 120 processes the converted face image information to a predetermined standard size (S1130).

다음으로, 얼굴 인식부(130)는 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식한다(S130).Next, the face recognition unit 130 recognizes the face region through the principal component analysis (PCA) algorithm among the processed face image information (S130).

본 단계(S930)는 도 12에 도시된 바와 같이 아래와 같은 과정으로 가공된 얼굴 영상 정보 중 얼굴 영역을 인식 할 수 있다.In operation S930, as illustrated in FIG. 12, a face region may be recognized among face image information processed by the following process.

도 12는 본 발명의 일실시예에 따른 가공된 얼굴 영상 정보 중 얼굴 영역을 인식하는 학습 방법을 도시한 흐름도이다.12 is a flowchart illustrating a learning method of recognizing a face region of the processed face image information according to an embodiment of the present invention.

먼저, 얼굴 인식부(130)는 하나 이상의 얼굴 영상 정보로 인식되는 영상 정보를 열벡터 형식으로 변환한 학습 얼굴 영상 정보 결과값을 구한다(S1210).First, the face recognition unit 130 obtains a learning face image information result value obtained by converting image information recognized as one or more face image information into a column vector format (S1210).

다음으로, 얼굴 인식부(130)는 상기 얼굴 영상 정보로 인식되는 영상 정보의 평균 얼굴 영상 정보 결과값을 구한다(S1220).Next, the face recognizing unit 130 obtains an average face image information result value of the image information recognized as the face image information (S1220).

다음으로, 얼굴 인식부(130)는 상기 학습 얼굴 영상 정보 결과값에 상기 평균 얼굴 영상 정보 결과값의 차인 얼굴 영상 정보 비교값을 데이터베이스(131)에 저장한다(S1230).Next, the face recognizing unit 130 stores the face image information comparison value, which is a difference between the average face image information result value, in the database 131 in the learning face image information result value (S1230).

다음으로, 얼굴 인식부(130)는 상기 얼굴 영상 정보 비교값의 공분산 행렬로 정렬한 얼굴 영상 정보 행렬값을 계산한다(S1240).Next, the face recognition unit 130 calculates face image information matrix values arranged in the covariance matrix of the face image information comparison values (S1240).

다음으로, 얼굴 인식부(130)는 상기 얼굴 영상 정보 행렬값의 고유값 및 고유 벡터의 크기를 계산한다(S1250).Next, the face recognition unit 130 calculates the eigenvalue of the face image information matrix value and the magnitude of the eigenvector (S1250).

다음으로, 얼굴 인식부(130)는 상기 고유 벡터를 상기 고유값을 기준으로 크기순으로 정렬한다(S1260).Next, the face recognition unit 130 sorts the eigenvectors in size order based on the eigenvalues (S1260).

본 발명은 상기와 같은 방법으로 얼굴 영상 정보의 초기 학습에 대한 얼굴 영상 정보의 고유 벡터를 정렬한 후, 얼굴 영상 정보로 인식하고자 하는 영상 정보를 사영함으로써, 다음과 같이 최종적으로 얼굴 영상 정보의 얼굴 영역을 인식 할 수 있다.According to the present invention, after aligning the eigenvectors of the face image information for the initial learning of the face image information in the above manner, and projecting the image information to be recognized as the face image information, the face of the face image information is finally as follows. Area can be recognized.

도 13은 본 발명의 일실시예에 따른 가공된 얼굴 영상 정보 중 얼굴 영역을 인식하는 방법을 도시한 흐름도이다.FIG. 13 is a flowchart illustrating a method of recognizing a face region of processed face image information according to an exemplary embodiment of the present invention.

먼저, 얼굴 인식부(130)는 상기 학습 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영한다(S1310).First, the face recognition unit 130 projects the learning face image information result value into the eigenvector (S1310).

다음으로, 얼굴 인식부(130)는 상기 가공된 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영한다.Next, the face recognition unit 130 projects the processed face image information result value into the eigenvector.

다음으로, 얼굴 인식부(130)는 상기 사영된 학습 얼굴 영상 정보와 상기 사영된 가공된 얼굴 영상 정보의 유클리드 거리를 계산한다(S1320).Next, the face recognition unit 130 calculates a Euclidean distance between the projected learning face image information and the projected processed face image information (S1320).

최종적으로, 얼굴 인식부(130)는 상기 계산된 유클리드 거리가 최소인 것을 최종 인식 얼굴 영상 정보로 판단한다(S1330).Finally, the face recognition unit 130 determines that the calculated Euclidean distance is the minimum as final recognized face image information (S1330).

다음으로, 포팅 제어부(140)는 상기 얼굴 영역이 인식된 얼굴 영상 정보를 임베디드 형식으로 포팅한다.Next, the porting controller 140 ports the face image information in which the face region is recognized in an embedded format.

최종적으로, 얼굴 영상 정보 전송부(150)는 상기 포팅된 얼굴 영상 정보를 임베디드 응용 수단(200)으로 전송한다.Finally, the face image information transmitter 150 transmits the ported face image information to the embedded application means 200.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention can be implemented in the form of program instructions that can be executed by various computer means can be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

도 1은 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 장치의 전체 구성을 도시한 블록도이다.1 is a block diagram illustrating the overall configuration of an apparatus for face searching and recognizing based on an embedded system according to an exemplary embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 장치의 구성을 도시한 블록도이다.2 is a block diagram illustrating a configuration of an apparatus for face searching and recognizing based on an embedded system according to an exemplary embodiment of the present invention.

도 3은 본 발명의 일실시예에 따른 특징점 분석 유형을 도시한 도면이다.3 is a diagram illustrating a feature point analysis type according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 따른 AdaBoost 알고리즘을 이용하여 얼굴 영상 정보를 탐색한 예를 도시한 도면이다.4 is a diagram illustrating an example of searching for face image information using the AdaBoost algorithm according to an embodiment of the present invention.

도 5는 본 발명에 따른 주성분 분석 알고리즘을 이용하여 영상 정보의 결과값을 분류한 예를 도시한 도면이다.5 is a diagram illustrating an example of classifying result values of image information using a principal component analysis algorithm according to the present invention.

도 6은 본 발명의 일실시예에 따른 주성분 분석 알고리즘을 통하여 추출된 고유 얼굴 영상 정보의 예를 도시한 도면이다.FIG. 6 is a diagram illustrating an example of unique face image information extracted through a principal component analysis algorithm according to an embodiment of the present invention.

도 7은 본 발명의 일실시에에 따른 주성분 분석 알고리즘을 통하여 인식된 최종 얼굴 영상 정보의 예를 도시한 도면이다.7 illustrates an example of final face image information recognized through a principal component analysis algorithm according to an embodiment of the present invention.

도 8은 본 발명의 일실시에에 따른 임베디드 형식으로 포팅하는 방법을 도시한 흐름도이다.8 is a flowchart illustrating a method for porting to an embedded form according to an embodiment of the present invention.

도 9는 본 발명의 일실시예에 따른 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법을 도시한 흐름도이다.9 is a flowchart illustrating a face searching and recognition method based on an embedded system according to an exemplary embodiment of the present invention.

도 10은 본 발명의 일실시예에 따른 얼굴 영상 정보 탐색 방법을 도시한 흐름도이다.10 is a flowchart illustrating a method of searching for face image information according to an embodiment of the present invention.

도 11은 본 발명의 일실시예에 따른 탐색된 얼굴 영상 정보를 특정 크기로 가공하는 방법을 도시한 흐름도이다.11 is a flowchart illustrating a method of processing the found face image information to a specific size according to an embodiment of the present invention.

도 12는 본 발명의 일실시예에 따른 가공된 얼굴 영상 정보 중 얼굴 영역을 인식하는 학습 방법을 도시한 흐름도이다.12 is a flowchart illustrating a learning method of recognizing a face region of the processed face image information according to an embodiment of the present invention.

도 13은 본 발명의 일실시예에 따른 가공된 얼굴 영상 정보 중 얼굴 영역을 인식하는 방법을 도시한 흐름도이다.FIG. 13 is a flowchart illustrating a method of recognizing a face region of processed face image information according to an exemplary embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

110: 얼굴 탐색부110: face search unit

120: 영상 가공부120: image processing unit

130: 얼굴 인식부130: face recognition unit

131: 데이터베이스131: database

140: 포팅 제어부140: porting control unit

150: 얼굴 영상 정보 전송부150: face image information transmission unit

Claims (10)

AdaBoost 알고리즘을 통하여 수신된 영상 정보의 특징점(feature)을 분석하여 얼굴 영상 정보인지 여부를 탐색하는 단계;Analyzing whether a feature of the image information received through the AdaBoost algorithm is face image information; 상기 탐색 결과 상기 수신된 영상 정보가 얼굴 영상 정보인 경우, 기설정에 따라 상기 탐색된 얼굴 영상 정보를 특정 크기로 가공하는 단계;If the received image information is face image information, processing the searched face image information to a specific size according to a preset result; 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식하는 단계; 및Recognizing a face region through a principal component analysis (PCA) algorithm among the processed face image information; And 상기 얼굴 영역이 인식된 얼굴 영상 정보를 임베디드 형식으로 포팅하는 단계Porting the face image information recognized by the face region in an embedded format 를 포함하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.Face detection and recognition method based on the embedded system comprising a. 제1항에 있어서,The method of claim 1, 상기 포팅된 얼굴 영상 정보를 임베디드 응용 수단으로 전송하는 단계Transmitting the ported face image information to an embedded application means 를 더 포함하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.Face detection and recognition method based on the embedded system, characterized in that it further comprises. 제1항에 있어서,The method of claim 1, 상기 얼굴 영상 정보인지 여부를 탐색하는 단계는,The searching for the face image information may include: 상기 수신된 영상 정보의 장방형 특징점(Rectangle feature) 값을 상기 AdaBoost 알고리즘을 통하여 분석하여 얼굴 영상 정보인지 여부를 탐색하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.An embedded system-based face searching and recognition method according to claim 1, wherein the rectangular feature point of the received image information is analyzed through the AdaBoost algorithm to search whether the image information is face image information. 제1항에 있어서,The method of claim 1, 상기 얼굴 영상 정보인지 여부를 탐색하는 단계는,The searching for the face image information may include: 상기 수신된 영상 정보에 대한 무게(weight) 값을 초기화 하는 제1 단계;A first step of initializing a weight value for the received image information; 상기 초기화된 무게 값을 정규화 시키는 제2 단계;A second step of normalizing the initialized weight value; 상기 특징점에 대한 분류기(classifier)의 결과값 및 에러값을 계산하는 제3 단계; Calculating a resultant value and an error value of a classifier for the feature point; 상기 분류기 중 에러값이 가장 작은 분류기를 선택하여 결과값을 데이터베이스에 저장하는 제4 단계;A fourth step of selecting a classifier having the smallest error value among the classifiers and storing a result value in a database; 상기 선택된 분류기의 결과값을 저장한 경우, 상기 무게 값을 업데이트 하는 제5 단계; A fifth step of updating the weight value when the result value of the selected classifier is stored; 상기 제1 단계 내지 제 5 단계를 기설정된 횟수 동안 반복하고, 상기 제4 단계에서 저장된 분류기의 결과값을 조합하여 최종 분류기의 결과값으로 가공하는 제6 단계; 및A sixth step of repeating the first to fifth steps for a predetermined number of times and combining the result values of the classifier stored in the fourth step into a result value of the final classifier; And 상기 최종 분류기의 결과값을 통하여 상기 얼굴 영상 정보인지 여부를 판단하는 제7 단계A seventh step of determining whether the face image information is based on a result value of the final classifier; 를 포함하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.Face detection and recognition method based on the embedded system comprising a. 제4항에 있어서,The method of claim 4, wherein 상기 최종 분류기의 결과값은 아래 수학식 2를 통하여 계산되는 값(h(x))인 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.The result of the final classifier is an embedded system-based face detection and recognition method, characterized in that the value (h (x)) calculated through the following equation (2).
Figure 112008034936221-PAT00005
Figure 112008034936221-PAT00005
(이때, 상기 h(1)은 상기 영상 정보가 얼굴 영상 정보로 판단되는 최종 분류기 결과값이고, 상기 h(0)은 상기 영상 정보가 얼굴 영상 정보가 아닌 것으로 판단되는 최종 분류기 값이고,
Figure 112008034936221-PAT00006
는 상기 무게값임.)
(H (1) is a final classifier result value in which the image information is determined to be face image information, and h (0) is a final classifier value in which it is determined that the image information is not face image information,
Figure 112008034936221-PAT00006
Is the weight value.)
제1항에 있어서,The method of claim 1, 기설정에 따라 상기 탐색된 얼굴 영상 정보를 특정 크기로 가공하는 단계는,The processing of the searched face image information to a specific size according to a preset may include: 상기 탐색된 얼굴 영상 정보의 크기 설정 정보를 수신하는 단계;Receiving size setting information of the searched face image information; 상기 수신된 크기 설정 정보에 따라 상기 탐색된 얼굴 영상 정보를 적정 크기로 변환하는 단계; 및Converting the found face image information into an appropriate size according to the received size setting information; And 상기 변환된 얼굴 영상 정보를 기설정된 표준 크기로 가공하는 단계Processing the converted face image information to a preset standard size 를 포함하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.Face detection and recognition method based on the embedded system comprising a. 제1항에 있어서,The method of claim 1, 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식하는 단계는, Recognizing a face region through a principal component analysis (PCA) algorithm of the processed face image information may include: 하나 이상의 얼굴 영상 정보로 인식되는 영상 정보를 열벡터 형식으로 변환한 학습 얼굴 영상 정보 결과값을 구하는 단계;Obtaining a learning face image information result value obtained by converting image information recognized as at least one face image information into a column vector format; 상기 얼굴 영상 정보로 인식되는 영상 정보의 평균 얼굴 영상 정보 결과값을 구하는 단계;Obtaining an average face image information result value of the image information recognized as the face image information; 상기 학습 얼굴 영상 정보 결과값에 상기 평균 얼굴 영상 정보 결과값의 차인 얼굴 영상 정보 비교값을 데이터베이스에 저장하는 단계;Storing a face image information comparison value, which is a difference between the average face image information result value, and a database in the learning face image information result value; 상기 얼굴 영상 정보 비교값의 공분산 행렬로 정렬한 얼굴 영상 정보 행렬값을 계산하는 단계;Calculating face image information matrix values arranged in a covariance matrix of the face image information comparison values; 상기 얼굴 영상 정보 행렬값의 고유값 및 고유 벡터의 크기를 계산하는 단계; 및Calculating eigenvalues of the face image information matrix values and magnitudes of eigenvectors; And 상기 고유 벡터를 상기 고유값을 기준으로 크기순으로 정렬하는 단계Sorting the eigenvectors in magnitude order based on the eigenvalues 를 포함하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.Face detection and recognition method based on the embedded system comprising a. 제7항에 있어서,The method of claim 7, wherein 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식하는 단계는, Recognizing a face region through a principal component analysis (PCA) algorithm of the processed face image information may include: 상기 학습 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영하는 단계;Projecting the learning face image information result value into the eigenvector; 상기 가공된 얼굴 영상 정보 결과값을 상기 고유 벡터에 사영하는 단계;Projecting the processed facial image information result into the eigenvector; 상기 사영된 학습 얼굴 영상 정보와 상기 사영된 가공된 얼굴 영상 정보의 유클리드 거리를 계산하는 단계; 및Calculating a Euclidean distance between the projected learning face image information and the projected processed face image information; And 상기 계산된 유클리드 거리가 최소인 것을 최종 인식 얼굴 영상 정보로 판단하는 단계Determining that the calculated Euclidean distance is the minimum as final recognized face image information 를 더 포함하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 방법.Face detection and recognition method based on the embedded system, characterized in that it further comprises. 제1항 내지 제8항의 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium in which a program for executing the method of any one of claims 1 to 8 is recorded. AdaBoost 알고리즘을 통하여 수신된 영상 정보의 특징점(feature)을 분석하여 얼굴 영상 정보인지 여부를 탐색하는 얼굴 탐색부;A face searching unit that analyzes a feature of the image information received through the AdaBoost algorithm and searches whether the face image information is face image information; 상기 탐색 결과 상기 수신된 영상 정보가 얼굴 영상 정보인 경우, 기설정에 따라 상기 탐색된 얼굴 영상 정보를 특정 크기로 가공하는 영상 가공부;An image processing unit for processing the searched face image information to a specific size according to a preset setting when the received image information is face image information as a result of the searching; 상기 가공된 얼굴 영상 정보 중 주성분 분석(PCA: Principal Component Analysis) 알고리즘을 통하여 얼굴 영역을 인식하는 얼굴 인식부; A face recognition unit recognizing a face region through a principal component analysis (PCA) algorithm among the processed face image information; 상기 얼굴 영역이 인식된 얼굴 영상 정보를 임베디드 형식으로 포팅하는 포팅 제어부; 및A porting controller for porting the face image information in which the face region is recognized in an embedded format; And 상기 포팅된 얼굴 영상 정보를 임베디드 응용 수단으로 전송하는 얼굴 영상 정보 전송부Face image information transmitter for transmitting the ported face image information to an embedded application means 를 포함하는 것을 특징으로 하는 임베디드 시스템 기반의 얼굴 탐색 및 인식 장치.Face detection and recognition device based on the embedded system comprising a.
KR1020080045682A 2008-05-16 2008-05-16 Apparatus for face detect and recognition based on embedded system and face dectect and recognition in using the apparatus KR101001758B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080045682A KR101001758B1 (en) 2008-05-16 2008-05-16 Apparatus for face detect and recognition based on embedded system and face dectect and recognition in using the apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080045682A KR101001758B1 (en) 2008-05-16 2008-05-16 Apparatus for face detect and recognition based on embedded system and face dectect and recognition in using the apparatus

Publications (2)

Publication Number Publication Date
KR20090119565A true KR20090119565A (en) 2009-11-19
KR101001758B1 KR101001758B1 (en) 2010-12-15

Family

ID=41603257

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080045682A KR101001758B1 (en) 2008-05-16 2008-05-16 Apparatus for face detect and recognition based on embedded system and face dectect and recognition in using the apparatus

Country Status (1)

Country Link
KR (1) KR101001758B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102819745A (en) * 2012-07-04 2012-12-12 杭州电子科技大学 Hyper-spectral remote sensing image classifying method based on AdaBoost
CN103745233A (en) * 2014-01-23 2014-04-23 西安电子科技大学 Hyper-spectral image classifying method based on spatial information transfer
CN113343001A (en) * 2021-05-27 2021-09-03 武汉楚冠信息科技有限公司 Data storage system of face recognition terminal

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102819745A (en) * 2012-07-04 2012-12-12 杭州电子科技大学 Hyper-spectral remote sensing image classifying method based on AdaBoost
CN102819745B (en) * 2012-07-04 2014-11-05 杭州电子科技大学 Hyper-spectral remote sensing image classifying method based on AdaBoost
CN103745233A (en) * 2014-01-23 2014-04-23 西安电子科技大学 Hyper-spectral image classifying method based on spatial information transfer
CN113343001A (en) * 2021-05-27 2021-09-03 武汉楚冠信息科技有限公司 Data storage system of face recognition terminal
CN113343001B (en) * 2021-05-27 2024-05-07 武汉楚冠信息科技有限公司 Data storage system of face recognition terminal

Also Published As

Publication number Publication date
KR101001758B1 (en) 2010-12-15

Similar Documents

Publication Publication Date Title
KR101410489B1 (en) Face detection and method and apparatus
KR20160011916A (en) Method and apparatus of identifying user using face recognition
US20080137917A1 (en) Information Processing Apparatus and Information Processing Method, Recognition Apparatus and Information Recognition Method, and Program
US8655018B2 (en) Object detection system based on a pool of adaptive features
JP2001307096A (en) Image recognition device and method
JP2006268825A (en) Object detector, learning device, and object detection system, method, and program
JP2008217589A (en) Learning apparatus and pattern recognizing apparatus
KR102286571B1 (en) Method for recognizing plural object in image
CN116958584B (en) Key point detection method, regression model training method and device and electronic equipment
KR101545809B1 (en) Method and apparatus for detection license plate
KR101001758B1 (en) Apparatus for face detect and recognition based on embedded system and face dectect and recognition in using the apparatus
US20200311389A1 (en) Domain adaptation-based object recognition apparatus and method
KR100714112B1 (en) Face recognition and confirmation method and apparatus
KR20080104565A (en) Method and system for recognizing a face by means of an image variation sensing
JP2006293720A (en) Face detection apparatus, face detection method, and face detection program
KR101628602B1 (en) Similarity judge method and appratus for judging similarity of program
KR101514551B1 (en) Multimodal user recognition robust to environment variation
KR100571800B1 (en) Method and apparatus for face recognition based on hierarchical Principal Component Analysis
JP2018036870A (en) Image processing device, and program
KR101567686B1 (en) authentication method and authentication device using the same
JP2004118731A (en) Image recognition device, image recognition method and program for allowing computer to perform the method
KR102027786B1 (en) Method and system for recognizing face of user based on multiple images
KR20220057691A (en) Image registration method and apparatus using siamese random forest
JP2003168113A (en) System, method and program of image recognition
CN108133221B (en) Object shape detection device, image processing device, object shape detection method, and monitoring system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131129

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee