KR20110067480A - Sensor actuator node and method for conditions meeting using thereof - Google Patents

Sensor actuator node and method for conditions meeting using thereof Download PDF

Info

Publication number
KR20110067480A
KR20110067480A KR1020090124090A KR20090124090A KR20110067480A KR 20110067480 A KR20110067480 A KR 20110067480A KR 1020090124090 A KR1020090124090 A KR 1020090124090A KR 20090124090 A KR20090124090 A KR 20090124090A KR 20110067480 A KR20110067480 A KR 20110067480A
Authority
KR
South Korea
Prior art keywords
feature point
face
value
weak learner
weight
Prior art date
Application number
KR1020090124090A
Other languages
Korean (ko)
Inventor
안광호
박소희
정명진
정윤수
문기영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090124090A priority Critical patent/KR20110067480A/en
Publication of KR20110067480A publication Critical patent/KR20110067480A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A feature points detecting method for detecting a face is provided to increase the accuracy of detecting a face by learning LBP feature points having various points and size. CONSTITUTION: A feature points detecting method for detecting a face comprises the steps of: assigning an initial value according to the kind of an input image, face image or non-face image(400); setting the weight value of the input image according to the number of face images and non-face images in the input images(S402); standardizing the weight value(S404); calculating an error value of the feature points using the weak learning machine for the feature points, the standardized weight value, and the initial value(S406); selecting a weak learning machine having a least error value(S408); checking whether the input image is determined accurately on the basis of the weak learning machine(S410); and changing the weight value depending on the check results(S416).

Description

얼굴 검출을 위한 특징점 검출 방법{SENSOR ACTUATOR NODE AND METHOD FOR CONDITIONS MEETING USING THEREOF}Feature point detection method for face detection {SENSOR ACTUATOR NODE AND METHOD FOR CONDITIONS MEETING USING THEREOF}

본 발명은 입력 영상에서의 얼굴을 검출하기 위한 것으로, 더욱 상세하게는 얼굴 검출에 용이한 MspLBP(Multi-scale and multi-position Local Binary Pattern, 이하 'MspLBP'라고 한다.) 특징점을 학습하기 위해서 기존의 대표적인 부스팅(boosting) 기법인 아다부스트(adaboost) 기법에 패턴 인식에 유용하게 쓰이는 LDA(Linear Discriminant Analysis, 이하, 'LDA'라고 한다.) 기법을 접목시켜 얼굴 검출을 위한 특징점 검출 방법에 관한 것이다.The present invention is to detect a face in an input image, and more specifically, to learn a feature point of MspLBP (Multi-scale and multi-position Local Binary Pattern, hereinafter referred to as 'MspLBP'), which is easy to detect a face. A feature of detecting feature points for face detection by incorporating LDA (Linear Discriminant Analysis) technique, which is useful for pattern recognition, to Adaboost, a typical boosting technique .

얼굴인식 기술이란 정지 영상이나 동영상에 존재하는 사람의 얼굴에서 특징 데이터를 추출하여 기존에 저장되어 있는 데이터와의 비교를 통해 신원을 확인하는 것을 말한다.Face recognition technology refers to extracting feature data from a face of a person present in a still image or moving image and verifying its identity through comparison with previously stored data.

얼굴은 지문, 홍채 증의 다른 생체정보에 비하여 개인이 가지고 있는 유일성이 낮다. 또한, 얼굴에 외과적 손상이 가해지면 인식에 커다란 장애가 되기도 한 다. 그러나, 얼굴인식 기술은 다른 생체인식 기술과는 달리, 신체 일부를 장치에 직접 접촉시키지 않아도 되고 생체정보의 획득 방법에 강제성이 적어 사용자에게 거부감과 불편함을 거의 주지 않는 장점이 있다. 이러한 장점에도 불구하고 얼굴인식 기술은 해결해야 할 과제들이 많다. 표정, 자세, 원근에 의한 크기 변화 등은 심각한 기하학적 왜곡을 일으키며, 그 밖에도 안경, 화장, 노화, 장식품, 배경의 변화 등도 얼굴 영상을 왜곡시킴으로써 안정된 인식에 큰 장애가 되고 있다.Faces are less unique than individuals compared to other biometric information such as fingerprints and irises. Surgical damage to the face can also be a major obstacle to recognition. However, unlike other biometrics, the face recognition technology does not have to directly contact a body part with a device, and has little force on the method of acquiring biometric information, thereby providing little rejection and inconvenience to the user. Despite these advantages, face recognition has many challenges. Changes in facial expressions, posture, and size caused by perspective cause severe geometric distortions. In addition, glasses, makeup, aging, ornaments, and changes in background also distort facial images, which is a major obstacle to stable recognition.

특히, 조명에 의해 얼굴 영상이 왜곡되는 현상은 인식률에 치명적인 영향을 끼친다. 심지어 서로 다른 조명 조건에서 동일한 얼굴에 대해 발생한 변화가 서로 다른 얼굴 사이에서 생긴 변화보다 더 큰 경우도 발생하게 된다. 이러한 조명 변화에 의한 얼굴 인식의 문제점을 해결하기 위한 방법으로는 모델링 기법, 불변 특징 추출, 전처리 기법 등이 있다.In particular, the distortion of the face image by the lighting has a fatal effect on the recognition rate. Even if the change for the same face in different lighting conditions is greater than the change between different faces. As a method for solving the problem of face recognition caused by the lighting change, there are a modeling technique, an invariant feature extraction, and a preprocessing technique.

모델링 기법은 조명에 의한 얼굴 영상의 왜곡이 얼굴 자체가 가지는 3차원의 구조적 특징 때문이라고 가정하고, 여러 조명 환경에서의 영상을 토대로 얼굴을 재구성하여 인식에 사용하는 기법이다. 이 방법은 학습을 위해 많은 수의 샘플 영상 또는 얼굴의 3차원적 정보가 필요하게 되고, 얼굴에 대한 제약 조건이나 가정들이 존재하여 실용적인 인식 시스템에 적용되는 데 한계가 있다.The modeling technique assumes that the distortion of the face image due to illumination is due to the three-dimensional structural features of the face itself, and is a technique used for recognition by reconstructing the face based on images in various lighting environments. This method requires a large number of sample images or three-dimensional information of a face for learning, and there are limitations in applying it to a practical recognition system because there are constraints or assumptions about the face.

불변 특징 추출 방법은 조명의 변화에도 불구하고 변하지 않는 얼굴의 특징들을 추출하여 인식에 사용하는 것이다. 그러나, 엣지맵(edge map), 미분, Gabor 필터 등의 사용은 조명 변화를 충분히 극복하지 못하는 한계가 있으며, LDA(Linear Discriminant Analysis)는 학습 영상의 특성에 크게 의존하는 문제가 있다.Invariant feature extraction method is to extract the features of the face that does not change despite the change in the illumination to use for recognition. However, the use of edge maps, derivatives, Gabor filters, and the like does not sufficiently overcome lighting changes, and LDA (Linear Discriminant Analysis) has a problem that depends heavily on the characteristics of a learning image.

반면, 전처리 기법은 어떠한 가정이나 사전 정보 없이 바로 영상을 변환시켜 사용하기 때문에 단순성과 실용성 측면에서 유리하다. 전처리 기법으로는 히스토그램 이퀄라이제이션(Histogram Equalization), 감마 보정(Gamma correction), 로그 변환 등이 있다. 그러나, 이러한 방법들은 영상 전체에 대하여 히스토그램을 평활화하기 때문에 명암 대비가 상대적으로 큰 영상에서는 그 효과가 크지 않을 수 있다. 더욱이 어두운 영역에 대부분의 얼굴 특징들이 숨어 있는 경우에는 같은 얼굴의 동일성과 다른 얼굴의 차이점을 구별하기 쉽지 않은 문제점이 있다.On the other hand, the preprocessing technique is advantageous in terms of simplicity and practicality because the image is directly converted without any assumptions or prior information. Preprocessing techniques include histogram equalization, gamma correction, and logarithmic conversion. However, since these methods smooth the histogram over the entire image, the effect may not be great in an image having a relatively high contrast. Moreover, when most facial features are hidden in a dark area, there is a problem in that it is not easy to distinguish the same face from the same face.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 기존의 대표적인 부스팅 기법인 아다부스트 기법에 패턴 인식에 유용하게 쓰이는 LDA 기법으로 다양한 위치와 크기를 갖는 LBP(Local Binary Pattern, 이하 'LBP'라고 한다.) 특징점을 학습하여 얼굴 검출에 용이한 특징점을 검출할 수 있는 얼굴 검출을 위한 특징점 검출 방법을 제공하는데 있다.The present invention is to solve the above problems, the LDA technique that is useful for pattern recognition in the conventional boosting technique, Adaboost technique is called LBP (Local Binary Pattern, LBP) having various positions and sizes .) A feature point detection method for face detection that can detect feature points that are easy for face detection by learning feature points.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned object, and other objects which are not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법은, n개의 입력 이미지를 입력받는 단계와, 상기 n개의 입력 이미지 각각에 대해 서로 다른 크기와 위치를 갖는 다수개의 영역으로 분할하는 단계와, 상기 분할된 영역별 각 입력 이미지의 특징점을 각각 추출하는 단계와, 상기 영역별 상기 추출된 특징점들의 분포인 히스토그램을 유니폼 패턴을 이용하여 차원 벡터로 변환하는 단계와, 상기 변환된 영역별 차원 벡터를 이용하여 최적 사영 벡터를 산출하는 단계와, 상기 최적 사영 벡터와 기 설정된 임계값간의 비교를 통해 상기 영역별 각 특징점의 위크 학습기를 산출하는 단계를 포함한다.In accordance with an aspect of the present invention, there is provided a method for detecting a feature point for detecting a face, the method comprising: receiving n input images, dividing the n input images into a plurality of regions having different sizes and positions; Extracting feature points of each input image for each of the divided regions, converting a histogram that is a distribution of the extracted feature points for each region into a dimensional vector using a uniform pattern, and converting the transformed dimensional vector for each region Calculating an optimal projective vector using the computer; and calculating a weak learner of each feature point for each region by comparing the optimal projective vector with a preset threshold.

또한, 본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법은 상기 n 개의 입력 이미지에 대한 얼굴 또는 비얼굴에 따라 초기값을 각각 할당한 후 상기 입력 이미지에서의 얼굴 및 비얼굴의 수에 따라 상기 각 입력 이미지에 대한 가중치를 설정하는 단계와, 상기 각 입력 이미지에 설정된 가중치를 표준화하는 단계와, 상기 영역별 각 특징점의 위크 학습기, 상기 표준화된 가중치 및 상기 초기값을 이용하여 상기 각 특징점의 오차 값을 산출하는 단계와, 상기 산출된 오차 값들 중 가장 작은 오차값을 갖는 위크 학습기를 선택하는 단계와, 상기 선택된 위크 학습기를 토대로 상기 입력 이미지에 대한 정확한 판단 여부를 체크하는 단계와, 상기 체크 결과에 의거하여 상기 가중치를 변경하는 단계를 포함하며, 상기 변경된 가중치를 토대로 상기 표준화하는 단계로 진행하여 이후 단계를 t(t는 2보다 큰 자연수) 라운드를 반복 수행함으로서, 상기 라운드별 오차값이 가장 작은 위크 학습기를 선택할 수 있다.In addition, the feature detection method for detecting a face according to an embodiment of the present invention after assigning an initial value according to the face or non-face for each of the n input images, according to the number of face and non-face in the input image Setting weights for each input image, normalizing weights set for each input image, and using a weak learner for each feature point for each region, the normalized weight value, and the initial value. Calculating an error value, selecting a weak learner having the smallest error value among the calculated error values, checking whether the input image is correctly judged based on the selected weak learner, and checking And changing the weight based on a result, wherein the weight is based on the changed weight. By proceeding to the step of standardizing and repeating the t (t is a natural number greater than 2) round after the step, the weak learner having the smallest error value for each round can be selected.

본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법에서 상기 각 특징점의 오차 값을 산출하는 단계는, 수학식 (

Figure 112009077137828-PAT00001
, hj(xi)는 각 특징점(j)별 위크 학습기, Wt는 해당 라운드의 가중치 표준화 값, yi는 초기값)에 의해 산출할 수 있다.In the method for detecting a feature point for face detection according to an embodiment of the present invention, the step of calculating an error value of each feature point may be performed by the following equation:
Figure 112009077137828-PAT00001
, h j (x i ) is a weak learner for each feature point j, W t is a weight normalization value of the corresponding round, y i is an initial value.

본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법에서 상기 가중치를 변경하는 단계는, 수학식(

Figure 112009077137828-PAT00002
,
Figure 112009077137828-PAT00003
, εt는 t 라운드에서 산출된 가장 작은 오차 값, Wt,i는 t 라운드에서의 가중치 표준화 값)에 의해 변경되며, 상기 입력 이미지를 정확하게 판단한 경우 ei를 "0"으로 설정하고, 그렇지 않을 경우에 ei를 "1"로 설정할 수 있다.In the method for detecting a feature point for detecting a face according to an embodiment of the present invention, the changing of the weight may be performed by using Equation (
Figure 112009077137828-PAT00002
,
Figure 112009077137828-PAT00003
, ε t is the smallest error value calculated in round t , W t, i is the weight normalization value in round t), and if e input is correctly determined, e i is set to "0". If not, you can set e i to "1".

본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법은 상기 라운드별 오차값이 가장 작은 위크 학습기를 토대로 최종 위크 학습기를 산출할 수 있다.The feature point detection method for face detection according to an embodiment of the present invention may calculate a final weak learner based on the weak learner having the smallest error value for each round.

본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법에서 상기 최종 위크 학습기는, 수학식(

Figure 112009077137828-PAT00004
)에 의해 산출될 수 있다.In the feature point detection method for face detection according to an embodiment of the present invention, the final weak learner,
Figure 112009077137828-PAT00004
Can be calculated by

본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법에서 상기 특징점을 각각 추출하는 단계는, 상기 각 영역의 중간값을 기준으로 나머지 인접 픽셀 값을 이진화한 LBP 특징점을 추출할 수 있다.In the extracting of the feature points in the feature point detection method for face detection according to an embodiment of the present disclosure, the LBP feature points obtained by binarizing the remaining adjacent pixel values may be extracted based on the median value of each region.

본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 방법에서 상기 최적 사영 벡터를 산출하는 단계는, LDA 방법으로 상기 최적 사영 벡터를 산출할 수 있다.In the method of detecting a feature point for detecting a face according to an embodiment of the present disclosure, the calculating of the optimal projection vector may include calculating the optimal projection vector by an LDA method.

본 발명은 기존의 대표적인 부스팅 기법인 아다부스트 기법에 패턴 인식에 유용하게 쓰이는 LDA 기법으로 다양한 위치와 크기를 갖는 LBP(Local Binary Pattern, 이하 'LBP'라고 한다.) 특징점을 학습하여 얼굴 검출에 용이한 특징점을 검출함으로써, 검출된 특징점을 이용하여 입력 영상에서 얼굴을 검출하기 때문에 얼굴 검출의 정확도를 높일 수 있다.The present invention is an LDA technique that is useful for pattern recognition in the conventional boosting technique, Adaboost technique. LBP (Local Binary Pattern, hereinafter referred to as 'LBP') having various positions and sizes is easy to detect a face by learning feature points. By detecting one feature point, the face is detected from the input image using the detected feature point, thereby increasing the accuracy of face detection.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. The objects and effects of the present invention and the technical configurations for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intentions or customs of the user, the operator, and the like.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전 하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. The present embodiments are merely provided to complete the disclosure of the present invention and to fully inform the scope of the invention to those skilled in the art, and the present invention is defined by the scope of the claims. It will be. Therefore, the definition should be based on the contents throughout this specification.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention;

본 발명의 실시 예에서는 기존의 대표적인 부스팅 기법인 아다부스트 기법에 패턴 인식에 유용하게 쓰이는 LDA 기법으로 다양한 위치와 크기를 갖는 LBP(Local Binary Pattern, 이하 'LBP'라고 한다.) 특징점을 학습하여 얼굴 검출에 용이한 특징점을 검출할 수 있는 얼굴 검출을 위한 특징점 검출 방법에 대해 설명한다. In the exemplary embodiment of the present invention, the LDA technique, which is useful for pattern recognition, is used in the conventional boosting technique, Adaboost technique, and the face is obtained by learning a feature point of a local binary pattern (LBP) having various positions and sizes. A feature point detection method for face detection that can detect feature points that are easy to detect will be described.

도 1은 본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 장치를 도시한 블록도로서, LBP 특징점 계산부(100), 위크 학습기(110), 최종 산출부(120)를 포함한다.1 is a block diagram illustrating an apparatus for detecting a feature point for face detection according to an exemplary embodiment of the present invention, which includes an LBP feature point calculator 100, a weak learner 110, and a final calculator 120.

본 발명의 실시 예에서 최종 산출부(120)는 초기값 설정부(122), 가중치 설정부(124), 오차값 계산부(126) 및 판단부(128)로 구성된다.In the embodiment of the present invention, the final calculator 120 includes an initial value setter 122, a weight setter 124, an error value calculator 126, and a determiner 128.

LBP 특징점 계산부(100)에는 얼굴 또는 비얼굴로 이루어진 입력 이미지, 즉 n개의 영상인 (x1, y1), ...........,(xn, yn)을 입력받아 각 이미지에 대한 LBP 특징점을 계산한다. 여기서 LBP는 지역적인 이미지의 텍스처를 표현하는 방법으로서, 즉 각 입력 이미지에 대해 임의의 크기와 위치를 갖는 영역으로 분할한 후 도 2에 도시된 바와 같이 분할된 이미지 영역의 중앙값을 기준으로 나머지 인접 픽셀의 값을 이진화함으로써, 조명의 변화에 강인한 텍스처를 표현할 수 있다.The LBP feature point calculator 100 inputs a face or non-face input image, that is, n images (x 1 , y 1 ), ..........., (x n , y n ) Takes input and calculates LBP feature points for each image. Here, LBP is a method of expressing a texture of a local image, that is, dividing it into regions having an arbitrary size and position for each input image, and then resting the remaining neighbors based on the median of the divided image regions as shown in FIG. 2. By binarizing the value of the pixel, it is possible to express a texture that is robust to changes in illumination.

예를 들어, 도 3에 도시된 바와 같은 입력 이미지에 대해 다양한 크기와 위치를 갖는 이미지 영역으로 분할한 후 각 이미지 영역에 대해 도 2에 도시된 바와 같은 방법으로 LBP 특징점을 추출하고, 추출된 특징점들의 분포를 히스토그램으로 나타낸다. 이러한 히스토그램을 유니폼 패턴(uniform pattern)을 이용하여 59차원 벡터로 표현한다.For example, after dividing the image region having various sizes and positions with respect to the input image as shown in FIG. 3, the LBP feature point is extracted by the method as shown in FIG. 2 for each image area, and the extracted feature point is extracted. The distribution of these is represented by histogram. The histogram is expressed as a 59-dimensional vector using a uniform pattern.

한편, LBP 특징점 계산부(100)는 추출된 LBP 특징점을 기존의 부스팅(boosting) 기법인 아다부스트(adaboost) 기법에 LDA 기법을 접목시키기 위해 유니폼 패턴을 이용하여 이미지에 대한 히스토그램을 59차원 벡터로 변환한 후 이를 위크 학습기(110)에 출력한다.Meanwhile, the LBP feature point calculation unit 100 converts the histogram of the image into a 59-dimensional vector using a uniform pattern in order to combine the extracted LBP feature point with the LDA technique, which is an existing boosting technique. After the conversion, it is output to the weak learner 110.

위크 학습기(110)는 각 특징점별로 위크 학습기를 계산하는데, 즉, 서로 다른 크기 및 위치를 갖는 영역으로 분할된 이미지에 대해 59차원 벡터로 표현된 LBP 특징점(j)별 최적 사영 벡터를 각각 산출한 후 이를 이용하여 아래의 수학식1과 같은 위크 학습기(hj(xi))각각 생성한다.The weak learner 110 calculates a weak learner for each feature point, that is, calculates an optimal projection vector for each LBP feature point (j) expressed as a 59-dimensional vector for an image divided into regions having different sizes and positions. After that, the weak learner h j (x i ), as shown in Equation 1 below, is generated.

Figure 112009077137828-PAT00005
Figure 112009077137828-PAT00005

상기의 수학식 1에서 최적 사영 벡터는 LDA 기법을 이용하여 산출할 수 있으 며, LBP 특징점(j)에 대한 최적 사영 벡터와 기 설정된 임계값(θj)간의 비교를 통해 각 LBP 특징점(j)별 위크 학습기(hj(xi))가 결정될 수 있다. 상기의 수학식 1에서 WT j는 59차원 벡터이며, WT jZj(xi)는 최적 사영 벡터이다.Optimal projection vector in the above equation (1) is said be able to be calculated using the LDA method, each LBP feature point (j) through a comparison between the best projection vector and a predetermined threshold value for the LBP feature point (j) (θ j) The star wick learner h j (x i ) may be determined. In Equation 1, W T j is a 59-dimensional vector, and W T j Z j (x i ) is an optimal projection vector.

여기서 임계값(θj)은 얼굴 이미지에 대한 LBP 특징점 벡터들에 대한 값과 비얼굴 이미지에 대한 LBP 특징점 벡터들에 대한 값의 합에 대한 평균값을 의미하며, 아래의 수학식 2와 같다.Here, the threshold value θ j means an average value of the sum of the values for the LBP feature point vectors for the face image and the values for the LBP feature point vectors for the non-face image, as shown in Equation 2 below.

Figure 112009077137828-PAT00006
Figure 112009077137828-PAT00006

상기의 수학식 2에서 j는 LBP 특징점이 되고, c가 "1"인 경우에는 얼굴 이미지를 의미하며, c가 "2"인 경우에는 비얼굴 이미지를 의미하며, Wj T는 j번째 LBP 특징점의 59차원 벡터들을 의미한다.In Equation 2, j is an LBP feature point, when c is "1", it means a face image, and when c is "2", it means a non-face image, and W j T is a j th LBP feature point. Means 59-dimensional vectors of.

한편, 위크 학습기(110)에 의해 구해진 각 LBP 특징점(j)별 위크 학습기(hj(xi))는 최종 산출부(120)에 제공된다.Meanwhile, the weak learner h j (x i ) for each LBP feature point j obtained by the weak learner 110 is provided to the final calculator 120.

최종 산출부(120)는 기존의 부스팅 기법인 아다부스트에 LDA를 접목하여 오차가 작은 학습기를 위크 학습기로 선택하며, 초기값 설정부(122), 가중치 설정부(124), 오차값 계산부(126) 및 판단 및 출력부(128)를 포함한다. 이러한 각 구성들을 이용하여 오차가 가장 작은 학습기를 최종 위크 학습기로 선택한 후 선택된 위크 학습기의 LBP 특징점 정보를 제공하는 과정에 대해 설명하면 아래와 같다.The final calculator 120 selects a learner having a small error as a weak learner by incorporating LDA into an existing boosting technique, Adaboost, and includes an initial value setting unit 122, a weight setting unit 124, and an error value calculating unit ( 126 and the determination and output unit 128. The process of providing the LBP feature point information of the selected weak learner after selecting the smallest error learner as the final weak learner using each of these components will be described below.

도 4에 도시된 바와 같이, 초기값 설정부(122)는 입력 이미지, 즉 n개의 영상인 (x1, y1), ...........,(xn, yn)에 대해서 얼굴 또는 비얼굴에 따라 초기값을 할당(S400)하는데, 즉 입력 이미지 중 얼굴 이미지에 대해서는 "1"의 값을 할당하고, 비얼굴 이미지에 대해서는 "0"의 값을 할당한다. 여기서, 입력 이미지 중 얼굴 이미지에 해당되는 개수를 n1이라고 정의하고, 비얼굴 이미지에 해당되는 개수를 n2라고 정의한다.As shown in FIG. 4, the initial value setting unit 122 inputs an image, that is, n images (x 1 , y 1 ), ..........., (x n , y n ) Is assigned an initial value according to the face or non-face (S400), that is, a value of "1" is assigned to the face image among the input images, and a value of "0" is assigned to the non-face image. Here, the number corresponding to the face image among the input images is defined as n 1 , and the number corresponding to the non-face image is defined as n 2 .

그런 다음, 가중치 설정부(124)는 n개의 영상 중 얼굴 및 비얼굴 이미지의 수에 따라 얼굴 이미지의 가중치(W1,i)를 "1/2n1"으로 설정하고, 비얼굴 이미지의 가중치(W1,i)를 "1/2n2"으로 설정(S402)한다.Next, the weight setting unit 124 sets the weight W 1, i of the face image to “1 / 2n 1 ” according to the number of face and non-face images among the n images, and sets the weight of the non-face image ( W 1, i ) is set to "1 / 2n 2 " (S402).

이후 아래의 과정을 매 라운드(t=1,2,3.....T)마다 반복한다.The following process is repeated every round (t = 1,2,3 ..... T).

즉, 가중치 설정부(124)는 S402에서 설정된 가중치를 확률 분포가 되도록 아래의 수학식3과 같이 표준화(S404)한다.That is, the weight setting unit 124 normalizes the weight set in S402 as shown in Equation 3 below to form a probability distribution (S404).

Figure 112009077137828-PAT00007
Figure 112009077137828-PAT00007

상기의 수학식 3과 같이, 전체 이미지에 대한 가중치의 합으로 해당 라운드(t)에서 이용되는 이미지에 대한 가중치를 나눈 값인 확률 값을 이용하여 표준화 한다.As shown in Equation 3 above, the sum of the weights of all the images is normalized using a probability value that is a value obtained by dividing the weights of the images used in the corresponding round (t).

오차값 계산부(126)는 위크 학습기(110)에서 제공받은 각 LBP 특징점(j)별 위크 학습기(hj(xj)에 대한 학습을 실시하여 각 LBP 특징점(j)별 오차 값을 산출(S406)한다. 즉, 오차값 계산부(126)는 초기 값 및 가중치값 등을 아래의 수학식 4에 적용하여 각 LBP 특징점별 위크 학습기에 대한 오차 값(εj)을 산출한다.The error value calculator 126 calculates an error value for each LBP feature point j by learning about the weak learner h j (x j ) for each LBP feature point j provided by the weak learner 110 ( That is, the error value calculator 126 calculates an error value ε j for the weak learner for each LBP feature point by applying an initial value and a weight value to Equation 4 below.

Figure 112009077137828-PAT00008
Figure 112009077137828-PAT00008

상기의 수학식 4에서 j(1, .........)는 특징점을 의미하며, yi는 초기값을 의미하며, hj(xi)는 각 LBP 특징점(j)별 위크 학습기를 의미한다.In Equation 4, j (1, .........) means a feature point, y i means an initial value, and h j (x i ) is a weak point for each LBP feature point j. It means a learner.

수학식 4를 통해 각 특징점별 오차값을 계산한 후 오차값들 중 가장 작은 오차 값을 갖는 LBP 특징점의 위크 학습기를 선택하여 출력(S408)한다.After calculating an error value for each feature point through Equation 4, the weak learner having the smallest error value among the error values is selected and output (S408).

그런 다음, 판단 및 출력부(128)는 선택된 LBP 특징점의 위크 학습기를 이용하여 입력 이미지에 대해 정확히 판단되었는지를 체크(S410)하고, S410의 체크 결과에 의거하여 가중치를 아래의 수학식 5를 이용하여 갱신한 후 S404로 진행하여 이후 단계를 수행한다. 즉, S410의 체크 결과 입력 이미지에 대해 정확히 판단되었을 경우 ei를 "0"으로 설정(S412)하고, 그렇지 않을 경우에 ei를 "1"로 설정(S414)한 후 아래의 수학식 5를 이용하여 가중치를 갱신(S416)한 다음, S404로 진행하여 이후 단계를 수행한다.Then, the determination and output unit 128 checks whether the input image is correctly determined using the weak learner of the selected LBP feature point (S410), and uses the weight value based on Equation 5 below based on the check result of S410. After updating, the process proceeds to S404 and performs the subsequent steps. That is, if it is determined that the input image is correctly determined as the check result of S410, e i is set to "0" (S412), otherwise, e i is set to "1" (S414), and Equation 5 below is described. After updating the weight by using S416, the process proceeds to S404 to perform a subsequent step.

Figure 112009077137828-PAT00009
Figure 112009077137828-PAT00010
,
Figure 112009077137828-PAT00009
Figure 112009077137828-PAT00010
,

상기의 수학식 5에서 εt는 t 라운드에서 산출된 가장 작은 오차 값이며, Wt,i는 t 라운드에서의 가중치 표준화 값이다.In Equation 5, ε t is the smallest error value calculated in t rounds, and W t, i is a weight normalization value in t rounds.

이와 같이 과정을 통해 가중치를 갱신한 다음 S404로 진행하여 이후 단계를 수행한다.In this way, the weight is updated through the process, and then the process proceeds to S404 to perform a subsequent step.

결과적으로, 아래의 수학식 6과 같은 강력한 학습기(H(x))가 정의될 수 있다.As a result, a powerful learner H (x) such as Equation 6 below can be defined.

Figure 112009077137828-PAT00011
Figure 112009077137828-PAT00011

본 발명의 실시 예에 따르면, 기존의 이진 학습에 효과적인 아다부스트 기법에 LDA 기법을 접목함으로써, 얼굴 검출에 효과적인 LBP 특징점 정보를 추출할 수 있다.According to an embodiment of the present invention, by incorporating the LDA technique into the existing Adaboost technique effective for binary learning, LBP feature point information effective for face detection may be extracted.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 예를 들어 당업자는 각 구성요소의 재질, 크기 등을 적용 분야에 따라 변경하거나, 개시된 실시형태들을 조합 또는 치환하여 본 발명의 실시예에 명 확하게 개시되지 않은 형태로 실시할 수 있으나, 이 역시 본 발명의 범위를 벗어나지 않는 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것으로 한정적인 것으로 이해해서는 안 되며, 이러한 변형된 실시예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. For example, those skilled in the art can change the material, size, etc. of each component according to the application field, or combine or replace the disclosed embodiments in a form that is not clearly disclosed in the embodiments of the present invention, but also It does not depart from the scope of the invention. Therefore, the above-described embodiments are to be considered in all respects as illustrative and not restrictive, and such modified embodiments should be included in the technical spirit described in the claims of the present invention.

도 1은 본 발명의 실시 예에 따른 얼굴 검출에 용이한 특징점 검출 장치를 도시한 블록도이며,1 is a block diagram illustrating an apparatus for detecting a feature point for face detection according to an exemplary embodiment of the present invention.

도 2는 본 발명에 적용되는 LBP 특징점을 계산하는 방법을 설명하기 위한 도면이며,2 is a view for explaining a method for calculating the LBP feature point applied to the present invention,

도 3은 본 발명에서 이미지 텍스처 표현 방법을 설명하기 위한 도면이며,3 is a view for explaining the image texture representation method in the present invention,

도 4는 본 발명의 실시 예에 따른 얼굴 검출을 위한 특징점 검출 과정을 도시한 흐름도이다.4 is a flowchart illustrating a feature point detection process for face detection according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100 : LBP 특징정 계산부 110 : 위크 학습기100: LBP characterization calculation unit 110: week learner

120 : 최종 출력부 122 : 초기값 설정부120: final output unit 122: initial value setting unit

124 : 가중치 설정부 126 : 오차값 계산부124: weight setting unit 126: error value calculation unit

128 : 판단 및 출력부128: judgment and output unit

Claims (8)

n개의 입력 이미지를 입력받는 단계와,receiving n input images; 상기 n개의 입력 이미지 각각에 대해 서로 다른 크기와 위치를 갖는 다수개의 영역으로 분할하는 단계와,Dividing the plurality of regions having different sizes and positions for each of the n input images; 상기 분할된 영역별 각 입력 이미지의 특징점을 각각 추출하는 단계와,Extracting feature points of each input image for each of the divided regions; 상기 영역별 상기 추출된 특징점들의 분포인 히스토그램을 유니폼 패턴을 이용하여 차원 벡터로 변환하는 단계와,Converting a histogram, which is a distribution of the extracted feature points for each region, into a dimensional vector using a uniform pattern; 상기 변환된 영역별 차원 벡터를 이용하여 최적 사영 벡터를 산출하는 단계와,Calculating an optimal projective vector using the transformed dimension-specific vector; 상기 최적 사영 벡터와 기 설정된 임계값간의 비교를 통해 상기 영역별 각 특징점의 위크 학습기를 산출하는 단계를 포함하는 Calculating a weak learner of each feature point for each region by comparing the optimal projection vector with a predetermined threshold value; 얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection. 제 1 항에 있어서, The method of claim 1, 상기 n 개의 입력 이미지에 대한 얼굴 또는 비얼굴에 따라 초기값을 각각 할당한 후 상기 입력 이미지에서의 얼굴 및 비얼굴의 수에 따라 상기 각 입력 이미지에 대한 가중치를 설정하는 단계와, Assigning initial values according to faces or non-faces of the n input images, and setting weights for the input images according to the number of faces and non-faces in the input image; 상기 각 입력 이미지에 설정된 가중치를 표준화하는 단계와,Normalizing a weight set for each input image; 상기 영역별 각 특징점의 위크 학습기, 상기 표준화된 가중치 및 상기 초기값을 이용하여 상기 각 특징점의 오차 값을 산출하는 단계와,Calculating an error value of each feature point using the weak learner of each feature point for each region, the standardized weight value, and the initial value; 상기 산출된 오차 값들 중 가장 작은 오차값을 갖는 위크 학습기를 선택하는 단계와, Selecting a weak learner having the smallest error value among the calculated error values; 상기 선택된 위크 학습기를 토대로 상기 입력 이미지에 대한 정확한 판단 여부를 체크하는 단계와,Checking whether the input image is correctly judged based on the selected weak learner; 상기 체크 결과에 의거하여 상기 가중치를 변경하는 단계를 포함하며,Changing the weight based on the check result; 상기 변경된 가중치를 토대로 상기 표준화하는 단계로 진행하여 이후 단계를 t(t는 2보다 큰 자연수) 라운드를 반복 수행함으로서, 상기 라운드별 오차값이 가장 작은 위크 학습기를 선택하는Proceeding to the standardizing step based on the changed weight and repeating the subsequent t (t is a natural number greater than 2) round, to select the weak learner with the smallest error value per round 얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection. 제 2 항에 있어서, The method of claim 2, 상기 각 특징점의 오차 값을 산출하는 단계는, 수학식 (
Figure 112009077137828-PAT00012
, hj(xi)는 각 특징점(j)별 위크 학습기, Wt는 해당 라운드의 가중치 표준화 값, yi는 초기값)에 의해 산출되는
Computing the error value of each feature point, the equation (
Figure 112009077137828-PAT00012
where h j (x i ) is the weak learner for each feature point j, W t is the weight normalization value of the corresponding round, and y i is the initial value.
얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection.
제 2 항에 있어서, The method of claim 2, 상기 가중치를 변경하는 단계는, 수학식(
Figure 112009077137828-PAT00013
,
Figure 112009077137828-PAT00014
, εt는 t 라운드에서 산출된 가장 작은 오차 값, Wt,i는 t 라운드에서의 가중치 표준화 값)에 의해 변경되며, 상기 입력 이미지를 정확하게 판단한 경우 ei를 "0"으로 설정하고, 그렇지 않을 경우에 ei를 "1"로 설정하는
The changing of the weights may be performed by a formula (
Figure 112009077137828-PAT00013
,
Figure 112009077137828-PAT00014
, ε t is the smallest error value calculated in round t , W t, i is the weight normalization value in round t), and if e input is correctly determined, e i is set to "0". If not set e i to "1"
얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection.
제 2 항에 있어서, The method of claim 2, 상기 라운드별 오차값이 가장 작은 위크 학습기를 토대로 최종 위크 학습기를 산출하는 The final weak learner is calculated based on the weak learner having the smallest error value per round. 얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection. 제 5 항에 있어서, The method of claim 5, 상기 최종 위크 학습기는, 수학식(
Figure 112009077137828-PAT00015
)에 의해 산 출되는
The final weak learner is, equation (
Figure 112009077137828-PAT00015
Calculated by)
얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection.
제 1 항에 있어서, The method of claim 1, 상기 특징점을 각각 추출하는 단계는, 상기 각 영역의 중간값을 기준으로 나머지 인접 픽셀 값을 이진화한 LBP 특징점을 추출하는 The extracting of the feature points may include extracting LBP feature points obtained by binarizing the remaining adjacent pixel values based on the median value of the respective areas. 얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection. 제 1 항에 있어서, The method of claim 1, 상기 최적 사영 벡터를 산출하는 단계는, LDA 방법으로 상기 최적 사영 벡터를 산출하는 The calculating of the optimal projection vector may include calculating the optimal projection vector by an LDA method. 얼굴 검출을 위한 특징점 검출 방법.Feature point detection method for face detection.
KR1020090124090A 2009-12-14 2009-12-14 Sensor actuator node and method for conditions meeting using thereof KR20110067480A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090124090A KR20110067480A (en) 2009-12-14 2009-12-14 Sensor actuator node and method for conditions meeting using thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090124090A KR20110067480A (en) 2009-12-14 2009-12-14 Sensor actuator node and method for conditions meeting using thereof

Publications (1)

Publication Number Publication Date
KR20110067480A true KR20110067480A (en) 2011-06-22

Family

ID=44399921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090124090A KR20110067480A (en) 2009-12-14 2009-12-14 Sensor actuator node and method for conditions meeting using thereof

Country Status (1)

Country Link
KR (1) KR20110067480A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017171142A1 (en) * 2016-03-28 2017-10-05 영남대학교 산학협력단 System and method for detecting facial feature point
WO2018151357A1 (en) * 2017-02-15 2018-08-23 동명대학교산학협력단 Human face recognition method based on improved multi-channel cabor filter

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017171142A1 (en) * 2016-03-28 2017-10-05 영남대학교 산학협력단 System and method for detecting facial feature point
KR20170111452A (en) * 2016-03-28 2017-10-12 영남대학교 산학협력단 System and method for detecting feature points of face
WO2018151357A1 (en) * 2017-02-15 2018-08-23 동명대학교산학협력단 Human face recognition method based on improved multi-channel cabor filter

Similar Documents

Publication Publication Date Title
CN110348319B (en) Face anti-counterfeiting method based on face depth information and edge image fusion
US7912253B2 (en) Object recognition method and apparatus therefor
Dagnes et al. Occlusion detection and restoration techniques for 3D face recognition: a literature review
KR101314293B1 (en) Face recognition system robust to illumination change
CN103996052B (en) Three-dimensional face gender classification method based on three-dimensional point cloud
KR20170006355A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
KR20230116095A (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
WO2009158700A1 (en) Assessing biometric sample quality using wavelets and a boosted classifier
JP2009265774A (en) Information processor and information processing method
Labati et al. Measurement of the principal singular point in contact and contactless fingerprint images by using computational intelligence techniques
Waheed et al. Exploiting Human Pose and Scene Information for Interaction Detection
Taha et al. Iris features extraction and recognition based on the local binary pattern technique
Sujana et al. An effective CNN based feature extraction approach for iris recognition system
WO2015131710A1 (en) Method and device for positioning human eyes
Pathak et al. Multimodal eye biometric system based on contour based E-CNN and multi algorithmic feature extraction using SVBF matching
KR20180092453A (en) Face recognition method Using convolutional neural network and stereo image
Boruah et al. Different face regions detection based facial expression recognition
CN113436735A (en) Body weight index prediction method, device and storage medium based on face structure measurement
KR100955255B1 (en) Face Recognition device and method, estimation method for face environment variation
Jindal et al. Sign Language Detection using Convolutional Neural Network (CNN)
KR20110067480A (en) Sensor actuator node and method for conditions meeting using thereof
Sangve et al. Lip recognition for authentication and security
CN111428670B (en) Face detection method, face detection device, storage medium and equipment
Tandon et al. An efficient age-invariant face recognition

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid