KR19990026863A - 퍼지 뉴러 얼굴 인식 방법 - Google Patents

퍼지 뉴러 얼굴 인식 방법 Download PDF

Info

Publication number
KR19990026863A
KR19990026863A KR1019970049177A KR19970049177A KR19990026863A KR 19990026863 A KR19990026863 A KR 19990026863A KR 1019970049177 A KR1019970049177 A KR 1019970049177A KR 19970049177 A KR19970049177 A KR 19970049177A KR 19990026863 A KR19990026863 A KR 19990026863A
Authority
KR
South Korea
Prior art keywords
recognition
neural network
image
face
feature
Prior art date
Application number
KR1019970049177A
Other languages
English (en)
Other versions
KR100285587B1 (ko
Inventor
윤강식
Original Assignee
전주범
대우전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주범, 대우전자 주식회사 filed Critical 전주범
Priority to KR1019970049177A priority Critical patent/KR100285587B1/ko
Priority to GB9807803A priority patent/GB2329739A/en
Publication of KR19990026863A publication Critical patent/KR19990026863A/ko
Application granted granted Critical
Publication of KR100285587B1 publication Critical patent/KR100285587B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 얼굴 인식 시스템에서 퍼지 회로와 신경 회로망을 결합하여 인식 대상자의 정면 얼굴을 인식하는 얼굴 인식 방법에 관한 것으로, 종래에는 특징값을 그대로 신경 회로망으로 전달함으로써 애매 모호한 데이터를 정확히 분류하지 못하였다.
본 발명에 따른 방법은 카메라로부터 인식 대상자의 영상을 취득하는 단계; 상기 취득된 인식 대상자 각각의 영상으로부터 분리된 얼굴 부분에서 특징 벡터를 추출하는 단계; 상기 추출된 특징 벡터 값의 반을 신경 회로망의 데이터 베이스에 저장하고 나머지 반을 인식에 사용할 데이터로서 퍼지회로에 제공하는 단계; 상기 퍼지 회로에 의해 상기 특징 값을 멤버쉽 함수를 이용하여 퍼지화하는 단계; 상기 퍼지화된 특징값을 상기 신경 회로망을 이용하여 학습하여 인식하는 단계를 포함하는 것을 특징으로한다. 따라서, 특징값을 퍼지화한 다음 신경회로망으로 전달함으로써 애매 모호한 데이터에 대하여 보다 정교한 인식이 가능하게 된다.

Description

퍼지 뉴러 얼굴 인식 방법
본 발명은 정지 화상의 얼굴 인식에 관한 것으로, 보다 상세하게는 퍼지 뉴러(Fuzzy-Neuro) 알고리즘을 이용한 정지화상의 정면 얼굴 인식 방법에 관한 것이다.
통상적으로, 정지 화상의 정면 얼굴 인식 방법은 유클리디안 거리(Euclidean distance), 삼각형 멤버쉽 함수(triangle membership function)를 갖는 퍼지 및 신경 회로망(Neural Network)를 이용하는 방법이 있다.
유클리디안 거리에 의한 정면 얼굴 인식 방법은 하기 수학식 1에서와 같이 입력되는 각 인식 대상자로부터 추출된 특징값과 데이터 베이스의 특징값과의 관계로서 인식하는 방식이다.
상술한 수학식 1에서,는 특징값의 개수이고,는 데이터 베이스의 특징값을 나타내고,는 입력된 사람의 특징값을 나타낸다.
그러나, 유클리디안 거리를 이용한 얼굴 인식은 단순히 가장 작은 값을 갖는 거리의 차로서 인식하기 때문에, 한 사람에서 추출된 특징값의 편차가 클경우에는 잘못 인식되는 문제가 있다.
삼각형 멤버쉽 함수를 갖는 퍼지를 이용하는 얼굴 인식 방법은 인식 대상자로부터 추출된 특징값에 대하여 삼각형 멤버쉽 함수를 사용하여 퍼지화하는 방식이다. 보다 상세히 말해서, 30명의 인식 대상자가 있다면, 이들 인식 대상자마다 20장의 영상을 취득하고, 이들 각 영상에서 5개의 특징값을 추출한다. 이때, 인식 대상자당 10장에서 추출된 특징값들은 특징값별로 모든 인식 대상자에 대하여 평균적인 퍼지값을 구한 후 데이터 베이스화한다. 그리고, 나머지 10장의 영상에 대하여는 상술한 바와 동일한 방식으로 퍼지화한 다음 인식할 데이터로서 사용한다.
인식단계에서는, 도 1에 도시된 바와 같이, 각 특징에 대한 언어 변수와 새로이 취득한 인식 대상자의 멤버쉽 함수와의 최소-최대(min-max)값을 구하여 가장 큰 값을 갖는 결과를 인식 대상자로한다. 이를 수학식으로 표현하면 다음과 같다.
상술한 수학식 2에서,는 저장된 평균 퍼지값이고,는 인식 대상자의 퍼지값이며,은 특징 벡터의 개수를 나타낸다.
그러나, 상술한 퍼지를 이용한 방식에 있어서, 각 사람당 특징값의 편차가 아주 큰 경우에는 오인식될 가능성이 커지게되는 문제가 있다.
신경 회로망은 학습 능력과 분류 능력이 우수한다는 특징을 가지고 있다. 이 방식은 취득된 인식 대상자들의 각 얼굴 데이터에서 특징값을 추출하고, 추출된 특징값을 데이터 베이스와 인식할 데이터로 각기 저장하여 인식 알고리즘을 적용함으로써 인식하는 것이다. 그러나, 신경 회로망 방식도 추출된 특징값을 그대로 사용하기때문에 서로 비슷한 특징을 가지는 경우의 대상자에 대하여는 오인식 하기 쉬운 단점을 가지고 있다. 또한, 각 인식 대상자마다 추출된 특징 값의 편차가 큰 경우에는 학습 시간이 장기간 소요되고 분류 능력이 저하된다는 문제가 있다.
그러므로, 본 발명은 상술한 문제점을 해결하기위하여 안출된 것으로, 인식 대상자로부터 추출된 특징 값을 퍼지화한 후 신경 회로망을 이용하여 학습, 분류 및 인식하는 퍼지 뉴로 알고리즘을 이용한 정지화상의 정면 얼굴 인식 방법을 제공하는 것을 그 목적으로한다.
상술한 목적을 달성하기위한 본 발명에 따른 퍼지 뉴러 얼굴 인식 방법은 카메라로부터 인식 대상자의 영상을 취득하는 단계; 상기 취득된 인식 대상자 각각의 영상으로부터 분리된 얼굴 부분에서 특징 벡터를 추출하는 단계; 상기 추출된 특징 벡터 값의 반을 신경 회로망의 데이터 베이스에 저장하고 나머지 반을 인식에 사용할 데이터로서 퍼지회로에 제공하는 단계; 상기 퍼지 회로에 의해 상기 특징 값을 멤버쉽 함수를 이용하여 퍼지화하는 단계; 상기 퍼지화된 특징값을 상기 신경 회로망을 이용하여 학습하여 인식하는 단계를 포함하는 것을 특징으로한다.
도 1은 종래 기술에서 추출된 특징값에 대하여 삼각형 멤버쉽 함수를 사용하여 퍼지화하는 것을 설명하는 도면,
도 2는 본 발명에 따른 얼굴 인식 시스템의 개략적인 블록 구성도,
도 3a 및 3b는 실험에 이용한 남자 및 여자 인식 대상자를 예시적으로 도시하는 도면,
도 4a 및 4b는 도 3a 및 3b도의 실험 인식 대상자의 얼굴 영상을 메디안 필터링한 결과 얼굴 영상을 예시하는 도면,
도 5a 및 도 5b는 도 4a 및 도 4b에 대한 에지 추출 결과를 각기 예시하는 도면,
도 6a 및 6b는 도 5a 및 5b에 대하여 각기 형태학상의 팽창을 실시한 결과를 예시하는 도면,
도 7a 및 7b는 도 6a 및 6b에 대하여 얼굴 부분을 배경 및 어깨로부터 분리한 결과 영상을 각기 예시하는 도면,
도 8은 인식 대상자의 얼굴로부터 특징을 추출하기위한 지식 표현을 예시하는 도면,
도 9은 지식에 기초하여 추출된 5가지 특징을 예시하는 도면,
도 10은 멤버쉽 함수를 이용하여 특징값을 퍼지값으로 표현하는 과정을 예시하는 도면,
도 11은 도 1에 도시된 신경 회로망의 상세 구성도.
* 도면의 주요부분에 대한 부호의 설명
10 : 얼굴 영상 취득 블록 20 : 특징 벡터 추출 블록
30 : 데이터 베이스 40 : 인식부
100 : 퍼지 회로 200 : 신경 회로망
본 발명의 상술한 목적과 여러가지 장점은 첨부된 도면을 참조하여 하기에 기술되는 본 발명의 바람직한 실시예로 부터 더욱 명확하게 될 것이다.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.
도 2를 참조하면, 본 발명에 따른 퍼지 뉴로 얼굴 인식 시스템의 개략적인 블록 구성도가 도시된다. 퍼지 뉴로 얼굴 인식 시스템은 얼굴 영상 취득 블록(10), 특징 벡터 추출 블록(20), 퍼지 회로(100), 데이터 베이스(30) 및 인식부(40)으로 구성된 신경 회로망(200)을 포함한다.
얼굴 영상 취득 블록(10)은, 예로, CCD 카메라(도시안됨)를 이용하여 인식 대상자들 각각에 대하여 256 x 256 픽셀의 얼굴 영상을 20장씩 취득한다. 본 발명에서는 실험을 위한 인식 대상자가 약 30명 정도인 것으로 가정하며, 도 3a 및 3b에는 인식 대상자중에서 실험에 이용한 남자 및 여자 인식 대상자를 예시적으로 도시한다. 얼굴 영상 취득시, 카메라 렌즈의 먼지나 잡음을 제거하기위하여 로우패스 필터로 구성된 3 x 3 메디안 필터(median filter)를 사용한다. 도 4a 및 4b는 도 3a 및 3b도의 실험 인식 대상자의 얼굴 영상을 메디안 필터링한 결과 얼굴 영상을 도시한다.
또한, 얼굴 영상 취득을 위하여 메디안 필터를 사용한 다음, 대각선 방향의 에지 성분들이 정확히 검출될 수 있도록 4 방향의 소벨 연산자(sobel operator)를 사용하며, 문턱값은 하기 수학식 3과 같이 Robinson이 제안한 LAT(Locally Adaptive)를 이용하여 자동으로 결정한다.
상기 수학식 3에서,이고,는 하기 수학식 3과 같다.
상기 수학식 4에서,는 3 x 3 메디안 필터의 행렬식에서 상측 행렬부터 하측 행렬까지 좌측에서 우측으로 스캔하는 방식으로 필터 값에 대응한다.
상술한 과정을 통하여 구한 최종 에지점은 하기 수학식 4와 같이 결정되며, 도 5a 및 도 5b는 도 4a 및 도 4b에 대한 에지 추출 결과를 각기 예시한다.
그 다음 과정으로, 에지 영상을 취득한 후, 얼굴 영상으로부터 얼굴 부분만을 분리하기 위하여 하기 수학식 6을 이용하여 형태학상의 팽창을 실행한다.
상기 수학식 6에서,는 3 x 3 창을 나타내고,는 얼굴의 이진화된 영상이며,는 에지점을 나타낸다. 따라서, 수학식 5에 의해 이진화된 영상에 3 x 3 창을 움직이면서 에지점이 하나라도 포함되면 3 x 3 창의 모든 부분을 에지점으로 결정한다. 따라서, 영상의 에지가 확대되며, 도 6a 및 6b는 도 5a 및 5b에 대하여 형태학상의 팽창을 실시한 결과를 예시한다.
그 다음 과정은 얼굴 부분만을 배경과 어깨로부터 분리한다. 이러한 분리 과정은 먼저 얼굴 영상에서 좌 및 우측의 최상위 픽셀 위치를 찾는 과정부터 실행된다. 이때, 일반적으로 사람 얼굴에서 눈의 위치를 중심으로 약 1:1.5의 가로대 세로 비율을 갖기 때문에 y 축 방향으로 100 번째 픽셀을 기준으로 한 픽셀 단위로 x 축 및 -x 방향으로 이동하면서 픽셀 값의 변화가 많은 점을 찾는다. 즉, 첫번째 단계로서, 얼굴 영상의 픽셀 점(0, 100)에서 x 축 방향으로 한 화소씩 움직이면서, 픽셀 값이 변화하는 점을 얼굴의 좌측 최상위점으로 결정한다. 두번째 단계로서, 얼굴 영상의 픽셀 점(255, 100)에서 -x 축 방향으로 한 화소씩 움직이면서, 픽셀 값이 변화하는 점을 얼굴의 우측 최상위점으로 결정한다.
그 다음에는 얼굴 부분과 배경 및 어깨를 분리하는 단계로서, 얼굴 영상의 좌 및 우측의 최상위 점을 기준으로하여 3 x 3 창을 -y 축 방향으로 한 화소씩 움직이면서, 연속되는 에지를 얼굴 부분과 배경 및 어깨의 경계선으로 결정한다. 도 7a 및 7b는 도 6a 및 6b에 대하여 얼굴 부분을 배경 및 어깨로부터 분리한 결과 영상을 예시한다.
특징 벡터 추출 블록(20)은 지식에 기반한 특징 추출 알고리즘을 적용하여 취득된 각각의 영상에 대하여 n개, 예로 5개씩의 특징값을 추출한다. 지식에 기반한 특징 추출 알고리즘은 도 8에 도시된 영상을 참조하여 하기와 같이 정의될 수 있다.
지식 1 : 도 8에 도시된 영상을 수평 방향으로 투영한 결과 일반적으로 가장 큰 값을 갖는 투영값 부분이 눈 또는 눈썹의 부분이다.
지식 2 :
지식 3 :
지식 4 :
지식 5 :
지식 6 :
상술한 지식 1은 눈의 y 축 값을 가장 큰 수평 투영값에 의해 결정할 수 있음을 의미하고, 이 값은 지식 2, 지식 3 및 지식 4에 의해 검증된다. 지식 2는 눈에서 코까지의 거리가 코에서 입까지의 거리보다 크다는 것을 의미한다. 지식 3은 얼굴이 코를 중심으로 좌우 대칭임을 의미한다. 지식 4는 좌측 눈, 코 그리고 우측 눈의 순서를 나타낸다. 지식 5는 눈썹, 코, 입 그리고 턱의 순서를 나타낸다. 지식 6은 얼굴의 가로 대 세로의 비율이 대략 1 : 1.5 임을 의미한다.
상술한 지식에 기초한 특징값은, 도 9에 도시된 바와같이, 얼굴 영상에서 좌 및 우측 눈과 코사이의 대각 거리(a 및 b), 코와 입사이의 거리(c), 눈과 코사이의 직선 거리(d), 그리고 입 가장자리로부터 x 축 방향으로의 직선 거리(e)등을 포함하며, 인식 대상자를 30명이라고 가정하면, 인식 대상자당 20장의 영상과, 각 영상당 5개의 특징값이 존재하므로, 3000(=30 x 20 x 5)개의 특징 값이 생성된다. 이들 5개의 특징값은 양 미간사이의 거리(f)로 나눔으로써() 정규화한다. 특징 벡터 추출 블록(20)에 의해 추출된 특징 벡터는 인식 대상자당 절반씩 나위어져 퍼지 회로(100)와 신경 회로망(200)으로 제공된다.
퍼지 회로(100)로 제공된 특징값은 인식에 사용될 데이터로서 인식률을 높이기위하여 퍼지화되며, 신경 회로망(100)으로 제공된 특징값은 인식을 위한 데이터로서 데이터 베이스(30)에 저장된다.
퍼지 회로(100)는 애매 모호한 현상을 표현하기 위하여 퍼지 이론을 도입한다. 즉, 각 인식 대상자당 20장의 영상이 있는 데, 추출된 5개의 특징 값이 모두 같아야한다. 그러나, 실제로 이들 값은 서로 조금씩 상이하기때문에 특정한 대상자에 대하여 특징값을 다시 정의하여야 한다. 이때, 삼각형 멤버쉽 함수를 사용하여 퍼지화한다.
퍼지 집합은 뚜렷한(crisp) 집합의 확장된 개념이다. 여기서 뚜렷한 집합이란 어떤 요소가 0 과 1 만을 갖는 집합을 의미한다. 예를 들어 집합 A 가 멤버쉽 함수로 표현된다면, 뚜렷한 집합은 하기 수학식 6과 같이 표현된다.
그리고, 퍼지 집합은 뚜렷한 집합의 확장된 개념으로서 0과 1사이의 모든 실수를 취할 수 있는 집합을 의미하므로,로 표현된다.
특징 추출 단계에서 취득한 특징값 5개를 멤버쉽 함수를 이용하여 15개의 퍼지 값으로 표현하는 방법은 도 10에 예시된 바와같이, 30명의 인식 대상자에 대한 각 특징값()의 최대값과 최소값을 max 값과 min 값으로 정하고, 최대값과 최소값의 평균을 중간값으로 정의한다. 그리고, 최소값, 중간값, 최대값 각각에 대하여 멤버쉽 함수를 정하고, 각 특징 값과 만나는 최소, 중간, 최대 값의 멤버쉽 함수와 만나는 각 점의 멤버쉽 값(,,)을 특징 값으로 규정함으로써 퍼지화한다. 퍼지 회로(100)에 의해 퍼지화된 데이터는 신경 회로망(200)의 인식부(40)로 입력되어 인식된다.
도 11은 신경 회로망(100)의 상세 구성도로서, 신경 회로망(100)의 입력 노드()의 개수는 퍼지 회로(200)에서 제공되는 퍼지화된 데이터를 수신하는 15개이며, 출력 노드()는 인식 대상자의 개수인 30개를 구비한다. 신경 회로망(100)의 인식부(40)는 데이터 베이스(30)에 저장된 특징값을 이용하여 학습한 다음, 퍼지화된 데이터를 인식할 데이터로서 사용하여 인식을 수행한다. 인식 결과 가장 큰 값을 출력하는 출력 노드가 인식될 대상자를 나타낸다.
종래 기술의 얼굴 인식 방식은 인식 대상자로부터 추출한 특징값이 아무런 후처리 없이 그대로 신경 회로망으로 전달되어 인식됨으로써 애매 모호한 데이터를 정확히 분류하지 못하였다. 그러나, 본 발명에 따라 추출된 특징값을 퍼지화한 다음 신경 회로망으로 전달함으로써 분류가 용이하게 이루어짐에 따라 애매 모호한 비슷한 데이터가 효과적으로 처리되어 오인식 발생이 적을 것이다. 따라서, 특정한 사람을 주어진 영상 데이터로부터 인식할 때 보다 정교한 인식이 가능할 것이다.

Claims (2)

  1. 인식 시스템의 정면 얼굴 인식 방법에있어서,
    카메라로부터 인식 대상자의 영상을 취득하는 단계;
    상기 취득된 인식 대상자 각각의 영상으로부터 분리된 얼굴 부분에서 특징 벡터를 추출하는 단계;
    상기 추출된 특징 벡터의 일정량을 신경 회로망의 데이터 베이스에 저장하고 나머지를 인식에 사용할 데이터로서 퍼지회로에 제공하는 단계;
    상기 퍼지 회로에 의해 상기 특징 값을 멤버쉽 함수를 이용하여 퍼지화하는 단계;
    상기 퍼지화된 특징값을 상기 신경 회로망을 이용하여 학습하여 인식하는 단계를 포함하는 것을 특징으로하는 퍼지 뉴러 얼굴 인식 방법.
  2. 제 1 항에 있어서, 상기 영상 취득 단계는:
    상기 인식 대상자의 취득된 영상으로부터 에지를 추출하는 단계;
    상기 취득된 영상으로부터 얼굴 부분만을 취득하기위하여 형태학상 팽창하여 얼굴 부분과 배경 및 어깨를 분리하는 단계를 구비하는 것을 특징으로하는 퍼지 뉴러 얼굴 인식 방법.
KR1019970049177A 1997-09-26 1997-09-26 퍼지뉴러얼굴인식방법 KR100285587B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1019970049177A KR100285587B1 (ko) 1997-09-26 1997-09-26 퍼지뉴러얼굴인식방법
GB9807803A GB2329739A (en) 1997-09-26 1998-04-09 Fuzzy-neural face recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970049177A KR100285587B1 (ko) 1997-09-26 1997-09-26 퍼지뉴러얼굴인식방법

Publications (2)

Publication Number Publication Date
KR19990026863A true KR19990026863A (ko) 1999-04-15
KR100285587B1 KR100285587B1 (ko) 2001-04-02

Family

ID=19521777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970049177A KR100285587B1 (ko) 1997-09-26 1997-09-26 퍼지뉴러얼굴인식방법

Country Status (2)

Country Link
KR (1) KR100285587B1 (ko)
GB (1) GB2329739A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010044393A (ko) * 2001-02-16 2001-06-05 김영익 인간의 얼굴정보를 이용한 출입통제 및 보안 방법
KR100345245B1 (ko) * 1999-09-22 2002-07-20 주식회사 드림미르 조명 변화, 얼굴 표정 변화 등에 독립적인 얼굴 인식 방법
KR100442834B1 (ko) * 2002-07-19 2004-08-02 삼성전자주식회사 얼굴/유사얼굴 영상으로 학습된 패턴 분류기를 이용한얼굴 검출 방법 및 시스템
KR100442835B1 (ko) * 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치
KR100861803B1 (ko) * 2006-06-14 2008-10-09 주식회사 사람과사람들 기계학습을 이용한 얼굴인식 장치 및 그 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2504837C1 (ru) * 2012-05-15 2014-01-20 Федеральное государственное военное образовательное учреждение высшего профессионального образования Военная академия Ракетных войск стратегического назначения имени Петра Великого МО РФ Устройство ассоциативного распознавания

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals
JPH08191956A (ja) * 1995-01-17 1996-07-30 Sega Enterp Ltd 占い装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100345245B1 (ko) * 1999-09-22 2002-07-20 주식회사 드림미르 조명 변화, 얼굴 표정 변화 등에 독립적인 얼굴 인식 방법
KR20010044393A (ko) * 2001-02-16 2001-06-05 김영익 인간의 얼굴정보를 이용한 출입통제 및 보안 방법
KR100442834B1 (ko) * 2002-07-19 2004-08-02 삼성전자주식회사 얼굴/유사얼굴 영상으로 학습된 패턴 분류기를 이용한얼굴 검출 방법 및 시스템
KR100442835B1 (ko) * 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치
KR100861803B1 (ko) * 2006-06-14 2008-10-09 주식회사 사람과사람들 기계학습을 이용한 얼굴인식 장치 및 그 방법

Also Published As

Publication number Publication date
GB2329739A (en) 1999-03-31
KR100285587B1 (ko) 2001-04-02
GB9807803D0 (en) 1998-06-10

Similar Documents

Publication Publication Date Title
Tian Evaluation of face resolution for expression analysis
EP1260935B1 (en) Face detection device, face pose detection device, partial image extraction device, and methods for said devices
US6697502B2 (en) Image processing method for detecting human figures in a digital image
Sandeep et al. Human Face Detection in Cluttered Color Images Using Skin Color, Edge Information.
EP1426898B1 (en) Human detection through face detection and motion detection
KR101937323B1 (ko) 위장 얼굴 판별 장치 및 방법
KR100572768B1 (ko) 디지탈 영상 보안을 위한 사람 얼굴 객체 자동검출 방법
JP2000105819A (ja) 顔領域検出装置
Islam et al. Facial expression recognition using local arc pattern
KR19990026863A (ko) 퍼지 뉴러 얼굴 인식 방법
Arsic et al. Improved lip detection algorithm based on region segmentation and edge detection
JP2003317084A (ja) 顔画像からの目検出システム、目検出方法および目検出用プログラム
Sikander et al. Facial feature detection: A facial symmetry approach
Jindal et al. Sign Language Detection using Convolutional Neural Network (CNN)
CN113297423A (zh) 一种推送方法、推送装置及电子设备
Subban et al. Human skin segmentation in color images using gaussian color model
Mariappan et al. A labVIEW design for frontal and non-frontal human face detection system in complex background
KR19990086440A (ko) 신경 회로망과 은닉 마르코프 모델을 이용한얼굴 인식 방법
Poornima et al. Experimental Analysis of Biometric System using Various Multimodal Fusion Algorithms
McElroy et al. Fourier descriptors and neural networks far shape classification
Bulbule et al. Robust CBFR for Forensic Application using CNN
JPH08153187A (ja) 画像認識方法
Suthar et al. A literature survey on facial expression recognition techniques using appearance based features
Viriri et al. Improving iris-based personal identification using maximum rectangular region detection
Hengaju et al. Artificial neural network for face detection and recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130102

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20140102

Year of fee payment: 14

LAPS Lapse due to unpaid annual fee