KR100285587B1 - Fuzzy neural face recognizing method - Google Patents

Fuzzy neural face recognizing method Download PDF

Info

Publication number
KR100285587B1
KR100285587B1 KR1019970049177A KR19970049177A KR100285587B1 KR 100285587 B1 KR100285587 B1 KR 100285587B1 KR 1019970049177 A KR1019970049177 A KR 1019970049177A KR 19970049177 A KR19970049177 A KR 19970049177A KR 100285587 B1 KR100285587 B1 KR 100285587B1
Authority
KR
South Korea
Prior art keywords
face
fuzzy
recognition
feature
neural network
Prior art date
Application number
KR1019970049177A
Other languages
Korean (ko)
Other versions
KR19990026863A (en
Inventor
윤강식
Original Assignee
전주범
대우전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자주식회사 filed Critical 전주범
Priority to KR1019970049177A priority Critical patent/KR100285587B1/en
Priority to GB9807803A priority patent/GB2329739A/en
Publication of KR19990026863A publication Critical patent/KR19990026863A/en
Application granted granted Critical
Publication of KR100285587B1 publication Critical patent/KR100285587B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Abstract

PURPOSE: A fuzzy neural face recognizing method is provided to learn, classify and recognize a face by using a neural network after fuzz feature values extracted from a subject person. CONSTITUTION: In a fuzzy neural recognizing method, a face is recognized by a camera, a face imaging block(10), a feature vector extracting block(20), a neural network(200) having a database(30) and a recognizing block(40), and a fuzzy circuit(100). An image of a subject person is taken by the camera. A feature vector is extracted from each face part separated from the image by the feature vector extracting block(20). The some part of the extracted feature vector is stored at the database(30) of the neural network(200) and the remaining values are applied to the fuzzy circuit(100) for recognition. The feature values applied to the fuzzy circuit(100) are fuzzed by using a membership function. The fuzzed feature values are learned and recognized by the recognizing block(40) of the neural network(200).

Description

퍼지 뉴러 얼굴 인식 방법Fuzzy Neural Face Recognition Method

본 발명은 정지 화상의 얼굴 인식에 관한 것으로, 보다 상세하게는 퍼지 뉴러(Fuzzy-Neuro) 알고리즘을 이용한 정지화상의 정면 얼굴 인식 방법에 관한 것이다.The present invention relates to face recognition of still images, and more particularly, to a front face recognition method of still images using a fuzzy-neuro algorithm.

통상적으로, 정지 화상의 정면 얼굴 인식 방법은 유클리디안 거리(Euclidean distance), 삼각형 멤버쉽 함수(triangle membership function)를 갖는 퍼지 및 신경 회로망(Neural Network)를 이용하는 방법이 있다.Typically, the face recognition method of the still image is a method using a Euclidean distance, a fuzzy and a neural network having a triangular membership function.

유클리디안 거리에 의한 정면 얼굴 인식 방법은 하기 수학식 1에서와 같이 입력되는 각 인식 대상자로부터 추출된 특징값과 데이터 베이스의 특징값과의 관계로서 인식하는 방식이다.The face recognition method using the Euclidean distance is a method of recognizing the feature value extracted from each of the recognition targets inputted as the equation 1 and the feature value of the database.

Figure 1019970049177_B1_M0001
Figure 1019970049177_B1_M0001

상술한 수학식 1에서, i 는 특징값의 개수이고, ri 는 데이터 베이스의 특징값을 나타내고, Xi 는 입력된 사람의 특징값을 나타낸다.In Equation 1 described above, i Is the number of feature values, r i Represents the feature values of the database, X i Represents the characteristic value of the input person.

그러나, 유클리디안 거리를 이용한 얼굴 인식은 단순히 가장 작은 값을 갖는 거리의 차로서 인식하기 때문에, 한 사람에서 추출된 특징값의 편차가 클경우에는 잘못 인식되는 문제가 있다.However, face recognition using Euclidean distance is simply recognized as the difference between the distances having the smallest value. Therefore, there is a problem that the face recognition using the Euclidean distance is incorrectly recognized when the feature value extracted from one person is large.

삼각형 멤버쉽 함수를 갖는 퍼지를 이용하는 얼굴 인식 방법은 인식 대상자로부터 추출된 특징값에 대하여 삼각형 멤버쉽 함수를 사용하여 퍼지화하는 방식이다. 보다 상세히 말해서, 30명의 인식 대상자가 있다면, 이들 인식 대상자마다 20장의 영상을 취득하고, 이들 각 영상에서 5개의 특징값을 추출한다. 이때, 인식 대상자당 10장에서 추출된 특징값들은 특징값별로 모든 인식 대상자에 대하여 평균적인 퍼지값을 구한 후 데이터 베이스화한다. 그리고, 나머지 10장의 영상에 대하여는 상술한 바와 동일한 방식으로 퍼지화한 다음 인식할 데이터로서 사용한다.A face recognition method using a fuzzy having a triangular membership function is a method of fuzzy using a triangular membership function on feature values extracted from a person to be recognized. More specifically, if there are 30 recognition subjects, 20 images are obtained for each of these recognition subjects, and five feature values are extracted from each of these images. At this time, the feature values extracted from the 10 per recognition subject are databased after obtaining the average fuzzy values for all the recognition subjects for each feature value. The remaining 10 images are then fuzzy in the same manner as described above and used as data to be recognized.

인식단계에서는, 도 1에 도시된 바와 같이, 각 특징에 대한 언어 변수와 새로이 취득한 인식 대상자의 멤버쉽 함수와의 최소-최대(min-max)값을 구하여 가장 큰 값을 갖는 결과를 인식 대상자로한다. 이를 수학식으로 표현하면 다음과 같다.In the recognition step, as shown in FIG. 1, a min-max value between a language variable for each feature and a newly acquired membership function of the recognition subject is obtained, and the result having the largest value is used as the recognition subject. . This is expressed as an equation.

Figure 1019970049177_B1_M0002
Figure 1019970049177_B1_M0002

상술한 수학식 2에서, μA(x) 는 저장된 평균 퍼지값이고, μB(x) 는 인식 대상자의 퍼지값이며, n 은 특징 벡터의 개수를 나타낸다.In Equation 2 described above, μ A (x) Is the stored average fuzzy value, μ B (x) Is the fuzzy value of the recognition target, n Denotes the number of feature vectors.

그러나, 상술한 퍼지를 이용한 방식에 있어서, 각 사람당 특징값의 편차가 아주 큰 경우에는 오인식될 가능성이 커지게되는 문제가 있다.However, in the above-described method using the fuzzy, there is a problem that the possibility of misrecognition becomes large when the variation of the feature value per person is very large.

신경 회로망은 학습 능력과 분류 능력이 우수한다는 특징을 가지고 있다. 이 방식은 취득된 인식 대상자들의 각 얼굴 데이터에서 특징값을 추출하고, 추출된 특징값을 데이터 베이스와 인식할 데이터로 각기 저장하여 인식 알고리즘을 적용함으로써 인식하는 것이다. 그러나, 신경 회로망 방식도 추출된 특징값을 그대로 사용하기때문에 서로 비슷한 특징을 가지는 경우의 대상자에 대하여는 오인식 하기 쉬운 단점을 가지고 있다. 또한, 각 인식 대상자마다 추출된 특징 값의 편차가 큰 경우에는 학습 시간이 장기간 소요되고 분류 능력이 저하된다는 문제가 있다.Neural networks are characterized by good learning and classification. This method recognizes by extracting a feature value from each face data of the acquired recognition subjects, storing the extracted feature values as a database and data to be recognized, and applying a recognition algorithm. However, since the neural network method uses extracted feature values as they are, there is a disadvantage in that subjects having similar features are easily misidentified. In addition, when the feature value extracted for each recognition subject is large, there is a problem that the learning time is long and the classification ability is degraded.

그러므로, 본 발명은 상술한 문제점을 해결하기위하여 안출된 것으로, 인식 대상자로부터 추출된 특징 값을 퍼지화한 후 신경 회로망을 이용하여 학습, 분류 및 인식하는 퍼지 뉴로 알고리즘을 이용한 정지화상의 정면 얼굴 인식 방법을 제공하는 것을 그 목적으로한다.Therefore, the present invention has been made to solve the above-mentioned problems, and the front face recognition of still images using fuzzy neuro algorithm that fuzzy the feature values extracted from the recognition subject and then learn, classify and recognize using neural network. Its purpose is to provide a method.

상술한 목적을 달성하기위한 본 발명에 따른 퍼지 뉴러 얼굴 인식 방법은 카메라로부터 인식 대상자의 영상을 취득하는 단계; 상기 취득된 인식 대상자 각각의 영상으로부터 분리된 얼굴 부분에서 특징 벡터를 추출하는 단계; 상기 추출된 특징 벡터 값의 반을 신경 회로망의 데이터 베이스에 저장하고 나머지 반을 인식에 사용할 데이터로서 퍼지회로에 제공하는 단계; 상기 퍼지 회로에 의해 상기 특징 값을 멤버쉽 함수를 이용하여 퍼지화하는 단계; 상기 퍼지화된 특징값을 상기 신경 회로망을 이용하여 학습하여 인식하는 단계를 포함하는 것을 특징으로한다.According to an aspect of the present invention, there is provided a fuzzy neural face recognition method comprising: acquiring an image of a person to be recognized from a camera; Extracting a feature vector from a face part separated from each of the acquired images of the recognition subjects; Storing half of the extracted feature vector values in a database of a neural network and providing the other half to a fuzzy circuit as data to be used for recognition; Purging by the fuzzy circuit the feature value using a membership function; And learning and recognizing the fuzzy feature using the neural network.

도 1은 종래 기술에서 추출된 특징값에 대하여 삼각형 멤버쉽 함수를 사용하여 퍼지화하는 것을 설명하는 도면,1 is a diagram illustrating fuzzy use of a triangular membership function on a feature value extracted in the prior art;

도 2는 본 발명에 따른 얼굴 인식 시스템의 개략적인 블록 구성도,2 is a schematic block diagram of a face recognition system according to the present invention;

도 3a 및 3b는 실험에 이용한 남자 및 여자 인식 대상자를 예시적으로 도시하는 도면,3a and 3b exemplarily show male and female recognition subjects used in an experiment;

도 4a 및 4b는 도 3a 및 3b도의 실험 인식 대상자의 얼굴 영상을 메디안 필터링한 결과 얼굴 영상을 예시하는 도면,4A and 4B are diagrams illustrating a face image as a result of median filtering a face image of an experiment recognition subject of FIGS. 3A and 3B;

도 5a 및 도 5b는 도 4a 및 도 4b에 대한 에지 추출 결과를 각기 예시하는 도면,5A and 5B illustrate edge extraction results for FIGS. 4A and 4B, respectively;

도 6a 및 6b는 도 5a 및 5b에 대하여 각기 형태학상의 팽창을 실시한 결과를 예시하는 도면,6A and 6B illustrate the results of performing morphological expansion with respect to FIGS. 5A and 5B, respectively;

도 7a 및 7b는 도 6a 및 6b에 대하여 얼굴 부분을 배경 및 어깨로부터 분리한 결과 영상을 각기 예시하는 도면,7A and 7B are views illustrating results of separating face parts from a background and a shoulder, respectively, for FIGS. 6A and 6B;

도 8은 인식 대상자의 얼굴로부터 특징을 추출하기위한 지식 표현을 예시하는 도면,8 illustrates a representation of knowledge for extracting features from the face of a person to be recognized,

도 9은 지식에 기초하여 추출된 5가지 특징을 예시하는 도면,9 illustrates five features extracted based on knowledge;

도 10은 멤버쉽 함수를 이용하여 특징값을 퍼지값으로 표현하는 과정을 예시하는 도면,10 is a diagram illustrating a process of expressing a feature value as a fuzzy value using a membership function;

도 11은 도 1에 도시된 신경 회로망의 상세 구성도.FIG. 11 is a detailed configuration diagram of the neural network shown in FIG. 1. FIG.

〈도면의 주요부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

10 : 얼굴 영상 취득 블록 20 : 특징 벡터 추출 블록10: face image acquisition block 20: feature vector extraction block

30 : 데이터 베이스 40 : 인식부30: database 40: recognition unit

100 : 퍼지 회로 200 : 신경 회로망100: fuzzy circuit 200: neural network

본 발명의 상술한 목적과 여러가지 장점은 첨부된 도면을 참조하여 하기에 기술되는 본 발명의 바람직한 실시예로 부터 더욱 명확하게 될 것이다.The above objects and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2를 참조하면, 본 발명에 따른 퍼지 뉴로 얼굴 인식 시스템의 개략적인 블록 구성도가 도시된다. 퍼지 뉴로 얼굴 인식 시스템은 얼굴 영상 취득 블록(10), 특징 벡터 추출 블록(20), 퍼지 회로(100), 데이터 베이스(30) 및 인식부(40)으로 구성된 신경 회로망(200)을 포함한다.2, a schematic block diagram of a fuzzy neuro facial recognition system according to the present invention is shown. The fuzzy neuro facial recognition system includes a neural network 200 including a face image acquisition block 10, a feature vector extraction block 20, a fuzzy circuit 100, a database 30, and a recognition unit 40.

얼굴 영상 취득 블록(10)은, 예로, CCD 카메라(도시안됨)를 이용하여 인식 대상자들 각각에 대하여 256 x 256 픽셀의 얼굴 영상을 20장씩 취득한다. 본 발명에서는 실험을 위한 인식 대상자가 약 30명 정도인 것으로 가정하며, 도 3a 및 3b에는 인식 대상자중에서 실험에 이용한 남자 및 여자 인식 대상자를 예시적으로 도시한다. 얼굴 영상 취득시, 카메라 렌즈의 먼지나 잡음을 제거하기위하여 로우패스 필터로 구성된 3 x 3 메디안 필터(median filter)를 사용한다. 도 4a 및 4b는 도 3a 및 3b도의 실험 인식 대상자의 얼굴 영상을 메디안 필터링한 결과 얼굴 영상을 도시한다.The face image acquisition block 10 acquires 20 face images of 256 x 256 pixels for each of the recognition subjects, for example, using a CCD camera (not shown). In the present invention, it is assumed that about 30 subjects are recognized for the experiment, and FIGS. 3A and 3B exemplarily show male and female recognition subjects used in the experiment. For face image acquisition, a 3 x 3 median filter consisting of a low pass filter is used to remove dust and noise from the camera lens. 4A and 4B illustrate a face image obtained by median filtering a face image of an experiment recognition subject of FIGS. 3A and 3B.

또한, 얼굴 영상 취득을 위하여 메디안 필터를 사용한 다음, 대각선 방향의 에지 성분들이 정확히 검출될 수 있도록 4 방향의 소벨 연산자(sobel operator)를 사용하며, 문턱값은 하기 수학식 3과 같이 Robinson이 제안한 LAT(Locally Adaptive)를 이용하여 자동으로 결정한다.In addition, a median filter is used to acquire a face image, and then a 4-way Sobel operator is used to accurately detect diagonal edge components. The threshold is LAT proposed by Equation 3 below. Automatically using (Locally Adaptive).

Figure 1019970049177_B1_M0003
Figure 1019970049177_B1_M0003

상기 수학식 3에서,

Figure 1019970049177_B1_M0006
이고, Zk 는 하기 수학식 3과 같다.In Equation 3,
Figure 1019970049177_B1_M0006
ego, Z k Is as shown in Equation 3 below.

Figure 1019970049177_B1_M0004
Figure 1019970049177_B1_M0004

상기 수학식 4에서, Pk 는 3 x 3 메디안 필터의 행렬식에서 상측 행렬부터 하측 행렬까지 좌측에서 우측으로 스캔하는 방식으로 필터 값에 대응한다.In Equation 4, P k In the determinant of the 3x3 median filter, the filter corresponds to the filter value by scanning from the upper matrix to the lower matrix from left to right.

상술한 과정을 통하여 구한 최종 에지점은 하기 수학식 4와 같이 결정되며, 도 5a 및 도 5b는 도 4a 및 도 4b에 대한 에지 추출 결과를 각기 예시한다.The final edge point obtained through the above process is determined as shown in Equation 4 below, and FIGS. 5A and 5B illustrate edge extraction results for FIGS. 4A and 4B, respectively.

Figure kpo00000
Figure kpo00000

그 다음 과정으로, 에지 영상을 취득한 후, 얼굴 영상으로부터 얼굴 부분만을 분리하기 위하여 하기 수학식 6을 이용하여 형태학상의 팽창을 실행한다.Next, after acquiring the edge image, morphological expansion is performed using Equation 6 below to separate only the face portion from the face image.

Figure 1019970049177_B1_M0005
Figure 1019970049177_B1_M0005

상기 수학식 6에서, A 는 3 x 3 창을 나타내고, B 는 얼굴의 이진화된 영상이며, b 는 에지점을 나타낸다. 따라서, 수학식 5에 의해 이진화된 영상에 3 x 3 창을 움직이면서 에지점이 하나라도 포함되면 3 x 3 창의 모든 부분을 에지점으로 결정한다. 따라서, 영상의 에지가 확대되며, 도 6a 및 6b는 도 5a 및 5b에 대하여 형태학상의 팽창을 실시한 결과를 예시한다.In Equation 6, A Represents a 3 x 3 window, B Is a binary image of the face, b Represents an edge point. Therefore, when the binarized image by Equation 5 includes at least one edge point while moving the 3x3 window, all parts of the 3x3 window are determined as edge points. Thus, the edge of the image is enlarged, and FIGS. 6A and 6B illustrate the results of morphological expansion with respect to FIGS. 5A and 5B.

그 다음 과정은 얼굴 부분만을 배경과 어깨로부터 분리한다. 이러한 분리 과정은 먼저 얼굴 영상에서 좌 및 우측의 최상위 픽셀 위치를 찾는 과정부터 실행된다. 이때, 일반적으로 사람 얼굴에서 눈의 위치를 중심으로 약 1:1.5의 가로대 세로 비율을 갖기 때문에 y 축 방향으로 100 번째 픽셀을 기준으로 한 픽셀 단위로 x 축 및 -x 방향으로 이동하면서 픽셀 값의 변화가 많은 점을 찾는다. 즉, 첫번째 단계로서, 얼굴 영상의 픽셀 점(0, 100)에서 x 축 방향으로 한 화소씩 움직이면서, 픽셀 값이 변화하는 점을 얼굴의 좌측 최상위점으로 결정한다. 두번째 단계로서, 얼굴 영상의 픽셀 점(255, 100)에서 -x 축 방향으로 한 화소씩 움직이면서, 픽셀 값이 변화하는 점을 얼굴의 우측 최상위점으로 결정한다.The next step is to separate only the face from the background and shoulders. This separation process is first performed from the process of finding the top and right pixel positions in the face image. At this time, since it has a horizontal aspect ratio of about 1: 1.5 with respect to the position of the eye in the human face, the pixel value of the pixel value can be Look for a lot of change. That is, as a first step, the point where the pixel value changes by moving one pixel from the pixel point (0, 100) of the face image in the x-axis direction is determined as the leftmost point of the face. As a second step, the point where the pixel value changes by moving one pixel in the -x axis direction from the pixel points 255 and 100 of the face image is determined as the top right point of the face.

그 다음에는 얼굴 부분과 배경 및 어깨를 분리하는 단계로서, 얼굴 영상의 좌 및 우측의 최상위 점을 기준으로하여 3 x 3 창을 -y 축 방향으로 한 화소씩 움직이면서, 연속되는 에지를 얼굴 부분과 배경 및 어깨의 경계선으로 결정한다. 도 7a 및 7b는 도 6a 및 6b에 대하여 얼굴 부분을 배경 및 어깨로부터 분리한 결과 영상을 예시한다.The next step is to separate the face part from the background and the shoulders. The 3 x 3 window is moved by one pixel in the -y axis direction with respect to the left and right top points of the face image. Determined by background and shoulder boundaries. 7A and 7B illustrate an image obtained by separating a face part from a background and a shoulder with respect to FIGS. 6A and 6B.

특징 벡터 추출 블록(20)은 ″지식에 기반한 특징 추출 알고리즘″을 적용하여 취득된 각각의 영상에 대하여 n개, 예로 5개씩의 특징값을 추출한다. 지식에 기반한 특징 추출 알고리즘은 도 8에 도시된 영상을 참조하여 하기와 같이 정의될 수 있다.The feature vector extraction block 20 extracts n, e.g., 5 feature values for each image acquired by applying a ″ knowledge based feature extraction algorithm ″. A feature extraction algorithm based on knowledge may be defined as follows with reference to the image shown in FIG. 8.

지식 1 : 도 8에 도시된 영상을 수평 방향으로 투영한 결과 일반적으로 가장 큰 값을 갖는 투영값 부분이 눈 또는 눈썹의 부분이다.Knowledge 1: As a result of projecting the image shown in FIG. 8 in the horizontal direction, the portion of the projection value having the largest value is generally the portion of the eye or the eyebrow.

지식 2 :

Figure 1019970049177_B1_M0007
Knowledge 2:
Figure 1019970049177_B1_M0007

지식 3 :

Figure 1019970049177_B1_M0008
Knowledge 3:
Figure 1019970049177_B1_M0008

지식 4 : x1〈 x2〈x3 Knowledge 4: x 1 〈x 2 〈x 3

지식 5 : y1〈 y2〈 y3〈 y4〈 y5 Knowledge 5: y 1 〈y 2 〈y 3 〈y 4 〈y 5

지식 6 :

Figure 1019970049177_B1_M0009
Knowledge 6:
Figure 1019970049177_B1_M0009

상술한 지식 1은 눈의 y 축 값을 가장 큰 수평 투영값에 의해 결정할 수 있음을 의미하고, 이 값은 지식 2, 지식 3 및 지식 4에 의해 검증된다. 지식 2는 눈에서 코까지의 거리가 코에서 입까지의 거리보다 크다는 것을 의미한다. 지식 3은 얼굴이 코를 중심으로 좌우 대칭임을 의미한다. 지식 4는 좌측 눈, 코 그리고 우측 눈의 순서를 나타낸다. 지식 5는 눈썹, 코, 입 그리고 턱의 순서를 나타낸다. 지식 6은 얼굴의 가로 대 세로의 비율이 대략 1 : 1.5 임을 의미한다.Knowledge 1 above means that the y-axis value of the eye can be determined by the largest horizontal projection value, which is verified by knowledge 2, knowledge 3 and knowledge 4. Knowledge 2 means that the distance from the eyes to the nose is greater than the distance from the nose to the mouth. Knowledge 3 means that the face is symmetrical around the nose. Knowledge 4 represents the left eye, nose and right eye sequence. Knowledge 5 represents the order of the eyebrows, nose, mouth and chin. Knowledge 6 means that the ratio of face to face is approximately 1: 1.5.

상술한 지식에 기초한 특징값은, 도 9에 도시된 바와같이, 얼굴 영상에서 좌 및 우측 눈과 코사이의 대각 거리(a 및 b), 코와 입사이의 거리(c), 눈과 코사이의 직선 거리(d), 그리고 입 가장자리로부터 x 축 방향으로의 직선 거리(e)등을 포함하며, 인식 대상자를 30명이라고 가정하면, 인식 대상자당 20장의 영상과, 각 영상당 5개의 특징값이 존재하므로, 3000(=30 x 20 x 5)개의 특징 값이 생성된다. 이들 5개의 특징값은 양 미간사이의 거리(f)로 나눔으로써(

Figure 1019970049177_B1_M0010
) 정규화한다. 특징 벡터 추출 블록(20)에 의해 추출된 특징 벡터는 인식 대상자당 절반씩 나위어져 퍼지 회로(100)와 신경 회로망(200)으로 제공된다.As shown in FIG. 9, the feature values based on the above-described knowledge include the diagonal distances a and b between the left and right eyes and the nose, the distance between the nose and the incidence c, and the distance between the eyes and the nose in the face image. A straight line distance (d) and a straight line distance (e) from the edge of the mouth to the x-axis direction. Assuming 30 subjects, 20 images per recognition object and 5 feature values for each image Since present, 3000 (= 30 x 20 x 5) feature values are generated. These five feature values are divided by the distance (f) between the two cradles (
Figure 1019970049177_B1_M0010
) Normalize. The feature vectors extracted by the feature vector extraction block 20 are divided into half per recognition object and provided to the fuzzy circuit 100 and the neural network 200.

퍼지 회로(100)로 제공된 특징값은 인식에 사용될 데이터로서 인식률을 높이기위하여 퍼지화되며, 신경 회로망(100)으로 제공된 특징값은 인식을 위한 데이터로서 데이터 베이스(30)에 저장된다.The feature values provided to the fuzzy circuit 100 are fuzzy to increase the recognition rate as data to be used for recognition, and the feature values provided to the neural network 100 are stored in the database 30 as data for recognition.

퍼지 회로(100)는 애매 모호한 현상을 표현하기 위하여 퍼지 이론을 도입한다. 즉, 각 인식 대상자당 20장의 영상이 있는 데, 추출된 5개의 특징 값이 모두 같아야한다. 그러나, 실제로 이들 값은 서로 조금씩 상이하기때문에 특정한 대상자에 대하여 특징값을 다시 정의하여야 한다. 이때, 삼각형 멤버쉽 함수를 사용하여 퍼지화한다.The fuzzy circuit 100 introduces a fuzzy theory to express an ambiguous phenomenon. That is, there are 20 images for each recognition subject, and all five feature values extracted should be the same. In practice, however, these values are slightly different from each other, so feature values should be redefined for specific subjects. At this time, fuzzy using the triangular membership function.

퍼지 집합은 뚜렷한(crisp) 집합의 확장된 개념이다. 여기서 뚜렷한 집합이란 어떤 요소가 0 과 1 만을 갖는 집합을 의미한다. 예를 들어 집합 A 가 멤버쉽 함수 μA(x) 로 표현된다면, 뚜렷한 집합은 하기 수학식 6과 같이 표현된다.Fuzzy set is an extended concept of crisp set. A distinct set here means a set in which an element has only zeros and ones. For example, set A is a membership function μ A (x) If it is expressed by, the distinct set is expressed by Equation 6 below.

Figure kpo00001
Figure kpo00001

그리고, 퍼지 집합은 뚜렷한 집합의 확장된 개념으로서 0과 1사이의 모든 실수를 취할 수 있는 집합을 의미하므로, μA(x) : X → [0, 1] 로 표현된다.And, fuzzy set is an extended concept of distinct set, which means a set that can take all real numbers between 0 and 1. μ A (x): X → [0, 1] It is expressed as

특징 추출 단계에서 취득한 특징값 5개를 멤버쉽 함수를 이용하여 15개의 퍼지 값으로 표현하는 방법은 도 10에 예시된 바와같이, 30명의 인식 대상자에 대한 각 특징값( xi )의 최대값과 최소값을 max 값과 min 값으로 정하고, 최대값과 최소값의 평균을 중간값으로 정의한다. 그리고, 최소값, 중간값, 최대값 각각에 대하여 멤버쉽 함수를 정하고, 각 특징 값과 만나는 최소, 중간, 최대 값의 멤버쉽 함수와 만나는 각 점의 멤버쉽 값( μL(xi) , μM(xi) , μS(xi) )을 특징 값으로 규정함으로써 퍼지화한다. 퍼지 회로(100)에 의해 퍼지화된 데이터는 신경 회로망(200)의 인식부(40)로 입력되어 인식된다.In the method of expressing five feature values acquired in the feature extraction step as 15 fuzzy values using a membership function, as illustrated in FIG. 10, each feature value for 30 recognized subjects ( x i The maximum and minimum values of) are defined as max and min values, and the mean of the maximum and minimum values is defined as the median value. Then, the membership function is defined for each of the minimum, middle, and maximum values, and the membership value of each point that meets the membership function of the minimum, middle, and maximum values that meet each feature value ( μ L (x i ) , μ M (x i ) , μ S (x i ) ) As a feature value to purge. Data purged by the fuzzy circuit 100 is input to the recognition unit 40 of the neural network 200 and recognized.

도 11은 신경 회로망(100)의 상세 구성도로서, 신경 회로망(100)의 입력 노드( Si )의 개수는 퍼지 회로(200)에서 제공되는 퍼지화된 데이터를 수신하는 15개이며, 출력 노드( Oj )는 인식 대상자의 개수인 30개를 구비한다. 신경 회로망(100)의 인식부(40)는 데이터 베이스(30)에 저장된 특징값을 이용하여 학습한 다음, 퍼지화된 데이터를 인식할 데이터로서 사용하여 인식을 수행한다. 인식 결과 가장 큰 값을 출력하는 출력 노드가 인식될 대상자를 나타낸다.FIG. 11 is a detailed configuration diagram of the neural network 100. The input node of the neural network 100 ( S i ) Is 15 to receive the fuzzy data provided from the fuzzy circuit 200, the output node ( O j ) Includes 30, the number of persons to be recognized. The recognition unit 40 of the neural network 100 learns using the feature values stored in the database 30 and then uses the fuzzy data as the data to be recognized to perform the recognition. The output node that outputs the largest value as a result of the recognition indicates the target to be recognized.

종래 기술의 얼굴 인식 방식은 인식 대상자로부터 추출한 특징값이 아무런 후처리 없이 그대로 신경 회로망으로 전달되어 인식됨으로써 애매 모호한 데이터를 정확히 분류하지 못하였다. 그러나, 본 발명에 따라 추출된 특징값을 퍼지화한 다음 신경 회로망으로 전달함으로써 분류가 용이하게 이루어짐에 따라 애매 모호한 비슷한 데이터가 효과적으로 처리되어 오인식 발생이 적을 것이다. 따라서, 특정한 사람을 주어진 영상 데이터로부터 인식할 때 보다 정교한 인식이 가능할 것이다.In the conventional face recognition method, a feature value extracted from a person to be recognized is transferred to a neural network without any post-processing and recognized, and thus, ambiguous data cannot be accurately classified. However, as the classification is facilitated by purging the feature values extracted according to the present invention and then transferring them to the neural network, ambiguous similar data may be effectively processed to reduce the occurrence of misperception. Thus, a more sophisticated recognition will be possible when recognizing a specific person from given image data.

Claims (2)

인식 시스템의 정면 얼굴 인식 방법에있어서,In the face recognition method of the recognition system, 카메라로부터 인식 대상자의 영상을 취득하는 단계;Acquiring an image of the person to be recognized from the camera; 상기 취득된 인식 대상자 각각의 영상으로부터 분리된 얼굴 부분에서 특징 벡터를 추출하는 단계;Extracting a feature vector from a face part separated from each of the acquired images of the recognition subjects; 상기 추출된 특징 벡터의 일정량을 신경 회로망의 데이터 베이스에 저장하고 나머지를 인식에 사용할 데이터로서 퍼지회로에 제공하는 단계;Storing a predetermined amount of the extracted feature vector in a database of a neural network and providing the rest to a fuzzy circuit as data to be used for recognition; 상기 퍼지 회로에 의해 상기 특징 값을 멤버쉽 함수를 이용하여 퍼지화하는 단계;Purging by the fuzzy circuit the feature value using a membership function; 상기 퍼지화된 특징값을 상기 신경 회로망을 이용하여 학습하여 인식하는 단계를 포함하는 것을 특징으로하는 퍼지 뉴러 얼굴 인식 방법.And recognizing and recognizing the fuzzy feature using the neural network. 제 1 항에 있어서, 상기 영상 취득 단계는:The method of claim 1, wherein the image acquisition step is: 상기 인식 대상자의 취득된 영상으로부터 에지를 추출하는 단계;Extracting an edge from the acquired image of the recognition subject; 상기 취득된 영상으로부터 얼굴 부분만을 취득하기위하여 형태학상 팽창하여 얼굴 부분과 배경 및 어깨를 분리하는 단계를 구비하는 것을 특징으로하는 퍼지 뉴러 얼굴 인식 방법.And morphologically expanding the face to separate the face from the background and the shoulder to acquire only the face part from the acquired image.
KR1019970049177A 1997-09-26 1997-09-26 Fuzzy neural face recognizing method KR100285587B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1019970049177A KR100285587B1 (en) 1997-09-26 1997-09-26 Fuzzy neural face recognizing method
GB9807803A GB2329739A (en) 1997-09-26 1998-04-09 Fuzzy-neural face recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970049177A KR100285587B1 (en) 1997-09-26 1997-09-26 Fuzzy neural face recognizing method

Publications (2)

Publication Number Publication Date
KR19990026863A KR19990026863A (en) 1999-04-15
KR100285587B1 true KR100285587B1 (en) 2001-04-02

Family

ID=19521777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970049177A KR100285587B1 (en) 1997-09-26 1997-09-26 Fuzzy neural face recognizing method

Country Status (2)

Country Link
KR (1) KR100285587B1 (en)
GB (1) GB2329739A (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000023915A (en) * 1999-09-22 2000-05-06 이칠기 Training and face recognition robust to illumination changes, facial expressions and eyewear.
KR20010044393A (en) * 2001-02-16 2001-06-05 김영익 Pass and security method using human face information
KR100442834B1 (en) * 2002-07-19 2004-08-02 삼성전자주식회사 Method and system for face detecting using classifier learned decision boundary with face/near-face images
KR100442835B1 (en) * 2002-08-13 2004-08-02 삼성전자주식회사 Face recognition method using artificial neural network, and the apparatus using thereof
KR100861803B1 (en) * 2006-06-14 2008-10-09 주식회사 사람과사람들 Apparatus and method for face recognition using machine learning
RU2504837C1 (en) * 2012-05-15 2014-01-20 Федеральное государственное военное образовательное учреждение высшего профессионального образования Военная академия Ракетных войск стратегического назначения имени Петра Великого МО РФ Associative recognition device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191956A (en) * 1995-01-17 1996-07-30 Sega Enterp Ltd Divination device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191956A (en) * 1995-01-17 1996-07-30 Sega Enterp Ltd Divination device

Also Published As

Publication number Publication date
GB9807803D0 (en) 1998-06-10
GB2329739A (en) 1999-03-31
KR19990026863A (en) 1999-04-15

Similar Documents

Publication Publication Date Title
US6697502B2 (en) Image processing method for detecting human figures in a digital image
EP1260935B1 (en) Face detection device, face pose detection device, partial image extraction device, and methods for said devices
JP4755202B2 (en) Face feature detection method
EP0751473B1 (en) Locating features in an image
Ghimire et al. A robust face detection method based on skin color and edges
EP1487341B1 (en) Real-time eye detection and tracking under various light conditions
Vezhnevets et al. Robust and accurate eye contour extraction
Kang et al. Real-time image restoration for iris recognition systems
Chaudhari et al. Face detection using viola jones algorithm and neural networks
US20100111375A1 (en) Method for Determining Atributes of Faces in Images
JP4658532B2 (en) Method for detecting face and device for detecting face in image
Moallem et al. Fuzzy inference system optimized by genetic algorithm for robust face and pose detection
Shakya et al. Human behavior prediction using facial expression analysis
KR100285587B1 (en) Fuzzy neural face recognizing method
Arsic et al. Improved lip detection algorithm based on region segmentation and edge detection
Lal et al. Face recognition using deep learning xception cnn method
Sikander et al. Facial feature detection: A facial symmetry approach
Deng et al. A new method for eye extraction from facial image
JPH07311833A (en) Human face detecting device
Subban et al. Human skin segmentation in color images using gaussian color model
Moghaddam et al. TASOM-based lip tracking using the color and geometry of the face
Suthar et al. A literature survey on facial expression recognition techniques using appearance based features
Bulbule et al. Robust CBFR for Forensic Application using CNN
KR19990086440A (en) Face Recognition Method Using Neural Network and Hidden Markov Model
Mariappan et al. A labVIEW design for frontal and non-frontal human face detection system in complex background

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130102

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20140102

Year of fee payment: 14

LAPS Lapse due to unpaid annual fee