KR100285587B1 - Fuzzy neural face recognizing method - Google Patents
Fuzzy neural face recognizing method Download PDFInfo
- Publication number
- KR100285587B1 KR100285587B1 KR1019970049177A KR19970049177A KR100285587B1 KR 100285587 B1 KR100285587 B1 KR 100285587B1 KR 1019970049177 A KR1019970049177 A KR 1019970049177A KR 19970049177 A KR19970049177 A KR 19970049177A KR 100285587 B1 KR100285587 B1 KR 100285587B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- fuzzy
- recognition
- feature
- neural network
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Abstract
Description
본 발명은 정지 화상의 얼굴 인식에 관한 것으로, 보다 상세하게는 퍼지 뉴러(Fuzzy-Neuro) 알고리즘을 이용한 정지화상의 정면 얼굴 인식 방법에 관한 것이다.The present invention relates to face recognition of still images, and more particularly, to a front face recognition method of still images using a fuzzy-neuro algorithm.
통상적으로, 정지 화상의 정면 얼굴 인식 방법은 유클리디안 거리(Euclidean distance), 삼각형 멤버쉽 함수(triangle membership function)를 갖는 퍼지 및 신경 회로망(Neural Network)를 이용하는 방법이 있다.Typically, the face recognition method of the still image is a method using a Euclidean distance, a fuzzy and a neural network having a triangular membership function.
유클리디안 거리에 의한 정면 얼굴 인식 방법은 하기 수학식 1에서와 같이 입력되는 각 인식 대상자로부터 추출된 특징값과 데이터 베이스의 특징값과의 관계로서 인식하는 방식이다.The face recognition method using the Euclidean distance is a method of recognizing the feature value extracted from each of the recognition targets inputted as the equation 1 and the feature value of the database.
상술한 수학식 1에서,
그러나, 유클리디안 거리를 이용한 얼굴 인식은 단순히 가장 작은 값을 갖는 거리의 차로서 인식하기 때문에, 한 사람에서 추출된 특징값의 편차가 클경우에는 잘못 인식되는 문제가 있다.However, face recognition using Euclidean distance is simply recognized as the difference between the distances having the smallest value. Therefore, there is a problem that the face recognition using the Euclidean distance is incorrectly recognized when the feature value extracted from one person is large.
삼각형 멤버쉽 함수를 갖는 퍼지를 이용하는 얼굴 인식 방법은 인식 대상자로부터 추출된 특징값에 대하여 삼각형 멤버쉽 함수를 사용하여 퍼지화하는 방식이다. 보다 상세히 말해서, 30명의 인식 대상자가 있다면, 이들 인식 대상자마다 20장의 영상을 취득하고, 이들 각 영상에서 5개의 특징값을 추출한다. 이때, 인식 대상자당 10장에서 추출된 특징값들은 특징값별로 모든 인식 대상자에 대하여 평균적인 퍼지값을 구한 후 데이터 베이스화한다. 그리고, 나머지 10장의 영상에 대하여는 상술한 바와 동일한 방식으로 퍼지화한 다음 인식할 데이터로서 사용한다.A face recognition method using a fuzzy having a triangular membership function is a method of fuzzy using a triangular membership function on feature values extracted from a person to be recognized. More specifically, if there are 30 recognition subjects, 20 images are obtained for each of these recognition subjects, and five feature values are extracted from each of these images. At this time, the feature values extracted from the 10 per recognition subject are databased after obtaining the average fuzzy values for all the recognition subjects for each feature value. The remaining 10 images are then fuzzy in the same manner as described above and used as data to be recognized.
인식단계에서는, 도 1에 도시된 바와 같이, 각 특징에 대한 언어 변수와 새로이 취득한 인식 대상자의 멤버쉽 함수와의 최소-최대(min-max)값을 구하여 가장 큰 값을 갖는 결과를 인식 대상자로한다. 이를 수학식으로 표현하면 다음과 같다.In the recognition step, as shown in FIG. 1, a min-max value between a language variable for each feature and a newly acquired membership function of the recognition subject is obtained, and the result having the largest value is used as the recognition subject. . This is expressed as an equation.
상술한 수학식 2에서,
그러나, 상술한 퍼지를 이용한 방식에 있어서, 각 사람당 특징값의 편차가 아주 큰 경우에는 오인식될 가능성이 커지게되는 문제가 있다.However, in the above-described method using the fuzzy, there is a problem that the possibility of misrecognition becomes large when the variation of the feature value per person is very large.
신경 회로망은 학습 능력과 분류 능력이 우수한다는 특징을 가지고 있다. 이 방식은 취득된 인식 대상자들의 각 얼굴 데이터에서 특징값을 추출하고, 추출된 특징값을 데이터 베이스와 인식할 데이터로 각기 저장하여 인식 알고리즘을 적용함으로써 인식하는 것이다. 그러나, 신경 회로망 방식도 추출된 특징값을 그대로 사용하기때문에 서로 비슷한 특징을 가지는 경우의 대상자에 대하여는 오인식 하기 쉬운 단점을 가지고 있다. 또한, 각 인식 대상자마다 추출된 특징 값의 편차가 큰 경우에는 학습 시간이 장기간 소요되고 분류 능력이 저하된다는 문제가 있다.Neural networks are characterized by good learning and classification. This method recognizes by extracting a feature value from each face data of the acquired recognition subjects, storing the extracted feature values as a database and data to be recognized, and applying a recognition algorithm. However, since the neural network method uses extracted feature values as they are, there is a disadvantage in that subjects having similar features are easily misidentified. In addition, when the feature value extracted for each recognition subject is large, there is a problem that the learning time is long and the classification ability is degraded.
그러므로, 본 발명은 상술한 문제점을 해결하기위하여 안출된 것으로, 인식 대상자로부터 추출된 특징 값을 퍼지화한 후 신경 회로망을 이용하여 학습, 분류 및 인식하는 퍼지 뉴로 알고리즘을 이용한 정지화상의 정면 얼굴 인식 방법을 제공하는 것을 그 목적으로한다.Therefore, the present invention has been made to solve the above-mentioned problems, and the front face recognition of still images using fuzzy neuro algorithm that fuzzy the feature values extracted from the recognition subject and then learn, classify and recognize using neural network. Its purpose is to provide a method.
상술한 목적을 달성하기위한 본 발명에 따른 퍼지 뉴러 얼굴 인식 방법은 카메라로부터 인식 대상자의 영상을 취득하는 단계; 상기 취득된 인식 대상자 각각의 영상으로부터 분리된 얼굴 부분에서 특징 벡터를 추출하는 단계; 상기 추출된 특징 벡터 값의 반을 신경 회로망의 데이터 베이스에 저장하고 나머지 반을 인식에 사용할 데이터로서 퍼지회로에 제공하는 단계; 상기 퍼지 회로에 의해 상기 특징 값을 멤버쉽 함수를 이용하여 퍼지화하는 단계; 상기 퍼지화된 특징값을 상기 신경 회로망을 이용하여 학습하여 인식하는 단계를 포함하는 것을 특징으로한다.According to an aspect of the present invention, there is provided a fuzzy neural face recognition method comprising: acquiring an image of a person to be recognized from a camera; Extracting a feature vector from a face part separated from each of the acquired images of the recognition subjects; Storing half of the extracted feature vector values in a database of a neural network and providing the other half to a fuzzy circuit as data to be used for recognition; Purging by the fuzzy circuit the feature value using a membership function; And learning and recognizing the fuzzy feature using the neural network.
도 1은 종래 기술에서 추출된 특징값에 대하여 삼각형 멤버쉽 함수를 사용하여 퍼지화하는 것을 설명하는 도면,1 is a diagram illustrating fuzzy use of a triangular membership function on a feature value extracted in the prior art;
도 2는 본 발명에 따른 얼굴 인식 시스템의 개략적인 블록 구성도,2 is a schematic block diagram of a face recognition system according to the present invention;
도 3a 및 3b는 실험에 이용한 남자 및 여자 인식 대상자를 예시적으로 도시하는 도면,3a and 3b exemplarily show male and female recognition subjects used in an experiment;
도 4a 및 4b는 도 3a 및 3b도의 실험 인식 대상자의 얼굴 영상을 메디안 필터링한 결과 얼굴 영상을 예시하는 도면,4A and 4B are diagrams illustrating a face image as a result of median filtering a face image of an experiment recognition subject of FIGS. 3A and 3B;
도 5a 및 도 5b는 도 4a 및 도 4b에 대한 에지 추출 결과를 각기 예시하는 도면,5A and 5B illustrate edge extraction results for FIGS. 4A and 4B, respectively;
도 6a 및 6b는 도 5a 및 5b에 대하여 각기 형태학상의 팽창을 실시한 결과를 예시하는 도면,6A and 6B illustrate the results of performing morphological expansion with respect to FIGS. 5A and 5B, respectively;
도 7a 및 7b는 도 6a 및 6b에 대하여 얼굴 부분을 배경 및 어깨로부터 분리한 결과 영상을 각기 예시하는 도면,7A and 7B are views illustrating results of separating face parts from a background and a shoulder, respectively, for FIGS. 6A and 6B;
도 8은 인식 대상자의 얼굴로부터 특징을 추출하기위한 지식 표현을 예시하는 도면,8 illustrates a representation of knowledge for extracting features from the face of a person to be recognized,
도 9은 지식에 기초하여 추출된 5가지 특징을 예시하는 도면,9 illustrates five features extracted based on knowledge;
도 10은 멤버쉽 함수를 이용하여 특징값을 퍼지값으로 표현하는 과정을 예시하는 도면,10 is a diagram illustrating a process of expressing a feature value as a fuzzy value using a membership function;
도 11은 도 1에 도시된 신경 회로망의 상세 구성도.FIG. 11 is a detailed configuration diagram of the neural network shown in FIG. 1. FIG.
〈도면의 주요부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>
10 : 얼굴 영상 취득 블록 20 : 특징 벡터 추출 블록10: face image acquisition block 20: feature vector extraction block
30 : 데이터 베이스 40 : 인식부30: database 40: recognition unit
100 : 퍼지 회로 200 : 신경 회로망100: fuzzy circuit 200: neural network
본 발명의 상술한 목적과 여러가지 장점은 첨부된 도면을 참조하여 하기에 기술되는 본 발명의 바람직한 실시예로 부터 더욱 명확하게 될 것이다.The above objects and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2를 참조하면, 본 발명에 따른 퍼지 뉴로 얼굴 인식 시스템의 개략적인 블록 구성도가 도시된다. 퍼지 뉴로 얼굴 인식 시스템은 얼굴 영상 취득 블록(10), 특징 벡터 추출 블록(20), 퍼지 회로(100), 데이터 베이스(30) 및 인식부(40)으로 구성된 신경 회로망(200)을 포함한다.2, a schematic block diagram of a fuzzy neuro facial recognition system according to the present invention is shown. The fuzzy neuro facial recognition system includes a neural network 200 including a face
얼굴 영상 취득 블록(10)은, 예로, CCD 카메라(도시안됨)를 이용하여 인식 대상자들 각각에 대하여 256 x 256 픽셀의 얼굴 영상을 20장씩 취득한다. 본 발명에서는 실험을 위한 인식 대상자가 약 30명 정도인 것으로 가정하며, 도 3a 및 3b에는 인식 대상자중에서 실험에 이용한 남자 및 여자 인식 대상자를 예시적으로 도시한다. 얼굴 영상 취득시, 카메라 렌즈의 먼지나 잡음을 제거하기위하여 로우패스 필터로 구성된 3 x 3 메디안 필터(median filter)를 사용한다. 도 4a 및 4b는 도 3a 및 3b도의 실험 인식 대상자의 얼굴 영상을 메디안 필터링한 결과 얼굴 영상을 도시한다.The face
또한, 얼굴 영상 취득을 위하여 메디안 필터를 사용한 다음, 대각선 방향의 에지 성분들이 정확히 검출될 수 있도록 4 방향의 소벨 연산자(sobel operator)를 사용하며, 문턱값은 하기 수학식 3과 같이 Robinson이 제안한 LAT(Locally Adaptive)를 이용하여 자동으로 결정한다.In addition, a median filter is used to acquire a face image, and then a 4-way Sobel operator is used to accurately detect diagonal edge components. The threshold is LAT proposed by Equation 3 below. Automatically using (Locally Adaptive).
상기 수학식 3에서,
상기 수학식 4에서,
상술한 과정을 통하여 구한 최종 에지점은 하기 수학식 4와 같이 결정되며, 도 5a 및 도 5b는 도 4a 및 도 4b에 대한 에지 추출 결과를 각기 예시한다.The final edge point obtained through the above process is determined as shown in Equation 4 below, and FIGS. 5A and 5B illustrate edge extraction results for FIGS. 4A and 4B, respectively.
그 다음 과정으로, 에지 영상을 취득한 후, 얼굴 영상으로부터 얼굴 부분만을 분리하기 위하여 하기 수학식 6을 이용하여 형태학상의 팽창을 실행한다.Next, after acquiring the edge image, morphological expansion is performed using Equation 6 below to separate only the face portion from the face image.
상기 수학식 6에서,
그 다음 과정은 얼굴 부분만을 배경과 어깨로부터 분리한다. 이러한 분리 과정은 먼저 얼굴 영상에서 좌 및 우측의 최상위 픽셀 위치를 찾는 과정부터 실행된다. 이때, 일반적으로 사람 얼굴에서 눈의 위치를 중심으로 약 1:1.5의 가로대 세로 비율을 갖기 때문에 y 축 방향으로 100 번째 픽셀을 기준으로 한 픽셀 단위로 x 축 및 -x 방향으로 이동하면서 픽셀 값의 변화가 많은 점을 찾는다. 즉, 첫번째 단계로서, 얼굴 영상의 픽셀 점(0, 100)에서 x 축 방향으로 한 화소씩 움직이면서, 픽셀 값이 변화하는 점을 얼굴의 좌측 최상위점으로 결정한다. 두번째 단계로서, 얼굴 영상의 픽셀 점(255, 100)에서 -x 축 방향으로 한 화소씩 움직이면서, 픽셀 값이 변화하는 점을 얼굴의 우측 최상위점으로 결정한다.The next step is to separate only the face from the background and shoulders. This separation process is first performed from the process of finding the top and right pixel positions in the face image. At this time, since it has a horizontal aspect ratio of about 1: 1.5 with respect to the position of the eye in the human face, the pixel value of the pixel value can be Look for a lot of change. That is, as a first step, the point where the pixel value changes by moving one pixel from the pixel point (0, 100) of the face image in the x-axis direction is determined as the leftmost point of the face. As a second step, the point where the pixel value changes by moving one pixel in the -x axis direction from the pixel points 255 and 100 of the face image is determined as the top right point of the face.
그 다음에는 얼굴 부분과 배경 및 어깨를 분리하는 단계로서, 얼굴 영상의 좌 및 우측의 최상위 점을 기준으로하여 3 x 3 창을 -y 축 방향으로 한 화소씩 움직이면서, 연속되는 에지를 얼굴 부분과 배경 및 어깨의 경계선으로 결정한다. 도 7a 및 7b는 도 6a 및 6b에 대하여 얼굴 부분을 배경 및 어깨로부터 분리한 결과 영상을 예시한다.The next step is to separate the face part from the background and the shoulders. The 3 x 3 window is moved by one pixel in the -y axis direction with respect to the left and right top points of the face image. Determined by background and shoulder boundaries. 7A and 7B illustrate an image obtained by separating a face part from a background and a shoulder with respect to FIGS. 6A and 6B.
특징 벡터 추출 블록(20)은 ″지식에 기반한 특징 추출 알고리즘″을 적용하여 취득된 각각의 영상에 대하여 n개, 예로 5개씩의 특징값을 추출한다. 지식에 기반한 특징 추출 알고리즘은 도 8에 도시된 영상을 참조하여 하기와 같이 정의될 수 있다.The feature
지식 1 : 도 8에 도시된 영상을 수평 방향으로 투영한 결과 일반적으로 가장 큰 값을 갖는 투영값 부분이 눈 또는 눈썹의 부분이다.Knowledge 1: As a result of projecting the image shown in FIG. 8 in the horizontal direction, the portion of the projection value having the largest value is generally the portion of the eye or the eyebrow.
지식 2 :
지식 3 :
지식 4 :
지식 5 :
지식 6 :
상술한 지식 1은 눈의 y 축 값을 가장 큰 수평 투영값에 의해 결정할 수 있음을 의미하고, 이 값은 지식 2, 지식 3 및 지식 4에 의해 검증된다. 지식 2는 눈에서 코까지의 거리가 코에서 입까지의 거리보다 크다는 것을 의미한다. 지식 3은 얼굴이 코를 중심으로 좌우 대칭임을 의미한다. 지식 4는 좌측 눈, 코 그리고 우측 눈의 순서를 나타낸다. 지식 5는 눈썹, 코, 입 그리고 턱의 순서를 나타낸다. 지식 6은 얼굴의 가로 대 세로의 비율이 대략 1 : 1.5 임을 의미한다.Knowledge 1 above means that the y-axis value of the eye can be determined by the largest horizontal projection value, which is verified by
상술한 지식에 기초한 특징값은, 도 9에 도시된 바와같이, 얼굴 영상에서 좌 및 우측 눈과 코사이의 대각 거리(a 및 b), 코와 입사이의 거리(c), 눈과 코사이의 직선 거리(d), 그리고 입 가장자리로부터 x 축 방향으로의 직선 거리(e)등을 포함하며, 인식 대상자를 30명이라고 가정하면, 인식 대상자당 20장의 영상과, 각 영상당 5개의 특징값이 존재하므로, 3000(=30 x 20 x 5)개의 특징 값이 생성된다. 이들 5개의 특징값은 양 미간사이의 거리(f)로 나눔으로써(
퍼지 회로(100)로 제공된 특징값은 인식에 사용될 데이터로서 인식률을 높이기위하여 퍼지화되며, 신경 회로망(100)으로 제공된 특징값은 인식을 위한 데이터로서 데이터 베이스(30)에 저장된다.The feature values provided to the
퍼지 회로(100)는 애매 모호한 현상을 표현하기 위하여 퍼지 이론을 도입한다. 즉, 각 인식 대상자당 20장의 영상이 있는 데, 추출된 5개의 특징 값이 모두 같아야한다. 그러나, 실제로 이들 값은 서로 조금씩 상이하기때문에 특정한 대상자에 대하여 특징값을 다시 정의하여야 한다. 이때, 삼각형 멤버쉽 함수를 사용하여 퍼지화한다.The
퍼지 집합은 뚜렷한(crisp) 집합의 확장된 개념이다. 여기서 뚜렷한 집합이란 어떤 요소가 0 과 1 만을 갖는 집합을 의미한다. 예를 들어 집합 A 가 멤버쉽 함수
그리고, 퍼지 집합은 뚜렷한 집합의 확장된 개념으로서 0과 1사이의 모든 실수를 취할 수 있는 집합을 의미하므로,
특징 추출 단계에서 취득한 특징값 5개를 멤버쉽 함수를 이용하여 15개의 퍼지 값으로 표현하는 방법은 도 10에 예시된 바와같이, 30명의 인식 대상자에 대한 각 특징값(
도 11은 신경 회로망(100)의 상세 구성도로서, 신경 회로망(100)의 입력 노드(
종래 기술의 얼굴 인식 방식은 인식 대상자로부터 추출한 특징값이 아무런 후처리 없이 그대로 신경 회로망으로 전달되어 인식됨으로써 애매 모호한 데이터를 정확히 분류하지 못하였다. 그러나, 본 발명에 따라 추출된 특징값을 퍼지화한 다음 신경 회로망으로 전달함으로써 분류가 용이하게 이루어짐에 따라 애매 모호한 비슷한 데이터가 효과적으로 처리되어 오인식 발생이 적을 것이다. 따라서, 특정한 사람을 주어진 영상 데이터로부터 인식할 때 보다 정교한 인식이 가능할 것이다.In the conventional face recognition method, a feature value extracted from a person to be recognized is transferred to a neural network without any post-processing and recognized, and thus, ambiguous data cannot be accurately classified. However, as the classification is facilitated by purging the feature values extracted according to the present invention and then transferring them to the neural network, ambiguous similar data may be effectively processed to reduce the occurrence of misperception. Thus, a more sophisticated recognition will be possible when recognizing a specific person from given image data.
Claims (2)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970049177A KR100285587B1 (en) | 1997-09-26 | 1997-09-26 | Fuzzy neural face recognizing method |
GB9807803A GB2329739A (en) | 1997-09-26 | 1998-04-09 | Fuzzy-neural face recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970049177A KR100285587B1 (en) | 1997-09-26 | 1997-09-26 | Fuzzy neural face recognizing method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19990026863A KR19990026863A (en) | 1999-04-15 |
KR100285587B1 true KR100285587B1 (en) | 2001-04-02 |
Family
ID=19521777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019970049177A KR100285587B1 (en) | 1997-09-26 | 1997-09-26 | Fuzzy neural face recognizing method |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR100285587B1 (en) |
GB (1) | GB2329739A (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000023915A (en) * | 1999-09-22 | 2000-05-06 | 이칠기 | Training and face recognition robust to illumination changes, facial expressions and eyewear. |
KR20010044393A (en) * | 2001-02-16 | 2001-06-05 | 김영익 | Pass and security method using human face information |
KR100442834B1 (en) * | 2002-07-19 | 2004-08-02 | 삼성전자주식회사 | Method and system for face detecting using classifier learned decision boundary with face/near-face images |
KR100442835B1 (en) * | 2002-08-13 | 2004-08-02 | 삼성전자주식회사 | Face recognition method using artificial neural network, and the apparatus using thereof |
KR100861803B1 (en) * | 2006-06-14 | 2008-10-09 | 주식회사 사람과사람들 | Apparatus and method for face recognition using machine learning |
RU2504837C1 (en) * | 2012-05-15 | 2014-01-20 | Федеральное государственное военное образовательное учреждение высшего профессионального образования Военная академия Ракетных войск стратегического назначения имени Петра Великого МО РФ | Associative recognition device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08191956A (en) * | 1995-01-17 | 1996-07-30 | Sega Enterp Ltd | Divination device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5497430A (en) * | 1994-11-07 | 1996-03-05 | Physical Optics Corporation | Method and apparatus for image recognition using invariant feature signals |
-
1997
- 1997-09-26 KR KR1019970049177A patent/KR100285587B1/en not_active IP Right Cessation
-
1998
- 1998-04-09 GB GB9807803A patent/GB2329739A/en not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08191956A (en) * | 1995-01-17 | 1996-07-30 | Sega Enterp Ltd | Divination device |
Also Published As
Publication number | Publication date |
---|---|
GB9807803D0 (en) | 1998-06-10 |
GB2329739A (en) | 1999-03-31 |
KR19990026863A (en) | 1999-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6697502B2 (en) | Image processing method for detecting human figures in a digital image | |
EP1260935B1 (en) | Face detection device, face pose detection device, partial image extraction device, and methods for said devices | |
JP4755202B2 (en) | Face feature detection method | |
EP0751473B1 (en) | Locating features in an image | |
Ghimire et al. | A robust face detection method based on skin color and edges | |
EP1487341B1 (en) | Real-time eye detection and tracking under various light conditions | |
Vezhnevets et al. | Robust and accurate eye contour extraction | |
Kang et al. | Real-time image restoration for iris recognition systems | |
Chaudhari et al. | Face detection using viola jones algorithm and neural networks | |
US20100111375A1 (en) | Method for Determining Atributes of Faces in Images | |
JP4658532B2 (en) | Method for detecting face and device for detecting face in image | |
Moallem et al. | Fuzzy inference system optimized by genetic algorithm for robust face and pose detection | |
Shakya et al. | Human behavior prediction using facial expression analysis | |
KR100285587B1 (en) | Fuzzy neural face recognizing method | |
Arsic et al. | Improved lip detection algorithm based on region segmentation and edge detection | |
Lal et al. | Face recognition using deep learning xception cnn method | |
Sikander et al. | Facial feature detection: A facial symmetry approach | |
Deng et al. | A new method for eye extraction from facial image | |
JPH07311833A (en) | Human face detecting device | |
Subban et al. | Human skin segmentation in color images using gaussian color model | |
Moghaddam et al. | TASOM-based lip tracking using the color and geometry of the face | |
Suthar et al. | A literature survey on facial expression recognition techniques using appearance based features | |
Bulbule et al. | Robust CBFR for Forensic Application using CNN | |
KR19990086440A (en) | Face Recognition Method Using Neural Network and Hidden Markov Model | |
Mariappan et al. | A labVIEW design for frontal and non-frontal human face detection system in complex background |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130102 Year of fee payment: 13 |
|
FPAY | Annual fee payment |
Payment date: 20140102 Year of fee payment: 14 |
|
LAPS | Lapse due to unpaid annual fee |