KR100861803B1 - 기계학습을 이용한 얼굴인식 장치 및 그 방법 - Google Patents

기계학습을 이용한 얼굴인식 장치 및 그 방법 Download PDF

Info

Publication number
KR100861803B1
KR100861803B1 KR1020060053256A KR20060053256A KR100861803B1 KR 100861803 B1 KR100861803 B1 KR 100861803B1 KR 1020060053256 A KR1020060053256 A KR 1020060053256A KR 20060053256 A KR20060053256 A KR 20060053256A KR 100861803 B1 KR100861803 B1 KR 100861803B1
Authority
KR
South Korea
Prior art keywords
pattern
unit
feature
learning
twenty
Prior art date
Application number
KR1020060053256A
Other languages
English (en)
Other versions
KR20070119105A (ko
Inventor
신진섭
박철순
Original Assignee
주식회사 사람과사람들
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 사람과사람들 filed Critical 주식회사 사람과사람들
Priority to KR1020060053256A priority Critical patent/KR100861803B1/ko
Publication of KR20070119105A publication Critical patent/KR20070119105A/ko
Application granted granted Critical
Publication of KR100861803B1 publication Critical patent/KR100861803B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 기계학습을 이용한 얼굴인식 장치 및 그 방법을 제공하기 위한 것으로, 카메라를 이용하여 화상데이터를 입력하는 입력부와; 상기 입력부로부터 입력된 화상데이터에 대해 전처리를 수행하는 전처리부와; 상기 전처리부에서 처리된 데이터에서 얼굴인식에 필요한 특징을 추출하는 특징 추출부와; 상기 특징 추출부에서 추출된 특징에 대해 패턴을 학습하는 패턴 학습부와; 상기 패턴 학습부에서 학습된 패턴을 저장하는 패턴 데이터베이스와; 상기 패턴 데이터베이스에서 저장된 패턴을 이용하여 상기 특징 추출부에서 추출된 특징에 대해 패턴을 인식하는 패턴 인식부와; 상기 패턴 인식부에서 인식된 결과를 이용하여 화상데이터의 정상여부를 판별하는 화상 판별부;를 포함하여 구성함으로서, 기계학습을 이용하여 정상적인 얼굴과 비정상적인 얼굴을 구별하여 인식할 수 있게 되는 것이다.
기계학습, 얼굴인식, 전처리, 특징추출, 패턴학습, 화상인식

Description

기계학습을 이용한 얼굴인식 장치 및 그 방법{Apparatus and method for face recognition using machine learning}
도 1은 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 장치의 블록구성도이다.
도 2는 도 1에서 패턴 학습부의 상세블록도이다.
도 3은 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 방법의 흐름도이다.
도 4는 도 3에서 제 1 단계의 상세흐름도이다.
도 5는 도 3에서 제 2 단계의 상세흐름도이다.
* 도면의 주요 부분에 대한 부호의 설명 *
10 : 입력부
20 : 전처리부
30 : 특징 추출부
40 : 패턴 학습부
41 : BP 처리부
42 : IBL 처리부
43 : C4.5 처리부
50 : 패턴 데이터베이스
60 : 패턴 인식부
70 : 화상 판별부
본 발명은 얼굴인식에 관한 것으로, 특히 기계학습을 이용하여 정상적인 얼굴과 비정상적인 얼굴을 구별하여 인식하기에 적당하도록 한 기계학습을 이용한 얼굴인식 장치 및 그 방법에 관한 것이다.
일반적으로 기업체의 첨단연구소나 공장 등에서는 출입자들에 대해 얼굴인식을 수행하여 그 사람이 누구인지를 파악하여 출입여부를 결정하는 시스템을 구축하고 있다. 이때 사용되는 기술은 홍채 인식 또는 사람의 눈의 길이 인식 등이 있다.
그래서 홍채 인식의 경우, 인식하고자 하는 사람의 홍채를 데이터베이스에 미리 저장해놓고, 어떤 사람이 왔을 때 저장된 데이터베이스에 해당 사람의 홍채 이미지가 있는가를 검색하게 된다.
또한 사람의 눈의 길이 인식의 경우에도 미리 눈의 길이에 대한 정보를 데이터베이스에 저장해놓고, 어떤 사람이 왔을 때 저장된 데이터베이스에 해당 사람의 눈의 길이 정보가 있는가를 검색하게 된다.
이러한 종래 기술은 미리 데이터베이스에 홍채 이미지 또는 눈의 길이 정보를 저장한 특정인에 대해서만 인식하게 된다.
그러나 이와 같은 종래 기술은 미리 등록된 특정인을 상대로 하는 기술로서, 불특정인을 상대로 하는 얼굴인식은 수행할 수 없는 한계가 있었다. 즉, 불특정인 경우 사람들마다 그 얼굴의 크기 및 특징 등이 다르기 때문에 미리 데이터베이스에 불특정인의 자료를 넣어둘 수 없다. 이 때문에 얼굴에 모자 또는 마스크를 착용한 경우 정상적인 얼굴 상태의 사람이 아니라는 점을 인식할 수 없으므로, 예를 들어, 은행의 무인 현금지급기 등에 사람이 마스크를 쓰고 들어오거나 또는 모자를 쓰고 들어와서 현금을 인출하고자 할 경우, 종래기술에서는 의심스러운 사람인지 여부를 전혀 판별할 수 없기 때문에 범죄행위 등의 근절에는 부적합한 한계가 있었다.
이에 본 발명은 상기와 같은 종래의 제반 문제점을 해결하기 위해 제안된 것으로, 본 발명의 목적은 기계학습을 이용하여 정상적인 얼굴과 비정상적인 얼굴을 구별하여 인식할 수 있는 기계학습을 이용한 얼굴인식 장치 및 그 방법을 제공하는데 있다.
상기와 같은 목적을 달성하기 위하여 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 장치는,
카메라를 이용하여 화상데이터를 입력하는 입력부와; 상기 입력부로부터 입력된 화상데이터에 대해 전처리를 수행하는 전처리부와; 상기 전처리부에서 처리된 데이터에서 얼굴인식에 필요한 특징을 추출하는 특징 추출부와; 상기 특징 추출부에서 추출된 특징에 대해 패턴을 학습하는 패턴 학습부와; 상기 패턴 학습부에서 학습된 패턴을 저장하는 패턴 데이터베이스와; 상기 패턴 데이터베이스에서 저장된 패턴을 이용하여 상기 특징 추출부에서 추출된 특징에 대해 패턴을 인식하는 패턴 인식부와; 상기 패턴 인식부에서 인식된 결과를 이용하여 화상데이터의 정상여부를 판별하는 화상 판별부;를 포함하여 이루어짐을 그 기술적 구성상의 특징으로 한다.
상기와 같은 목적을 달성하기 위하여 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 방법은,
입력부를 통해 입력된 학습자료에 대해 신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 얼굴패턴을 학습하는 제 1 단계와; 상기 제 1 단계 후 상기 입력부를 통해 입력된 실제 자료에 대해 특징을 추출하여 패턴을 인식하고 정상 여부를 판별하는 제 2 단계;를 포함하여 수행함을 그 기술적 구성상의 특징으로 한다.
이하, 상기와 같은 본 발명, 기계학습을 이용한 얼굴인식 장치 및 그 방법의 기술적 사상에 따른 일실시예를 도면을 참조하여 설명하면 다음과 같다.
도 1은 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 장치의 블록구성도이다.
이에 도시된 바와 같이, 카메라를 이용하여 화상데이터를 입력하는 입력부(10)와; 상기 입력부(10)로부터 입력된 화상데이터에 대해 전처리를 수행하는 전처 리부(20)와; 상기 전처리부(20)에서 처리된 데이터에서 얼굴인식에 필요한 특징을 추출하는 특징 추출부(30)와; 상기 특징 추출부(30)에서 추출된 특징에 대해 패턴을 학습하는 패턴 학습부(40)와; 상기 패턴 학습부(40)에서 학습된 패턴을 저장하는 패턴 데이터베이스(Database, DB)(50)와; 상기 패턴 데이터베이스(50)에서 저장된 패턴을 이용하여 상기 특징 추출부(30)에서 추출된 특징에 대해 패턴을 인식하는 패턴 인식부(60)와; 상기 패턴 인식부(60)에서 인식된 결과를 이용하여 화상데이터의 정상여부를 판별하는 화상 판별부(70);를 포함하여 구성된 것을 특징으로 한다.
상기 전처리부(20)는, 상기 입력부(10)로부터 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 것을 특징으로 한다.
상기 패턴 학습부(40)는, 신경망, BP(Back Propagation), IBL(Instance Based Learning), C4.5 중에서 하나 이상을 이용하여 패턴 학습을 수행하는 것을 특징으로 한다.
도 2는 도 1에서 패턴 학습부의 상세블록도이다.
이에 도시된 바와 같이, 상기 패턴 학습부(40)는, 상기 특징 추출부(30)에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리부(41)와; 상기 BP 처리부(41)의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예(instance, 인스턴스)를 선택하여 그 그룹의 패턴으로 저장하고, 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예(인스턴스)가 속한 그룹으로 새로운 예(인스턴스)를 분류하는 IBL 처리부(42)와; 상기 IBL 처리부(42)에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성(attribute, 필드)의 중요도를 계산하여 속성에 대한 트리구조(tree)를 만들어 패턴을 저장하고, 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리부(43);를 포함하여 구성된 것을 특징으로 한다.
또한 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 장치는, 도 1 및 도 2에 도시된 바와 같이, 카메라를 이용하여 화상데이터를 입력하는 입력부와; 상기 입력부로부터 입력된 화상데이터에 대해 전처리를 수행하는 전처리부와; 상기 전처리부에서 처리된 데이터에서 얼굴인식에 필요한 특징을 추출하는 특징 추출부와; 상기 특징 추출부에서 추출된 특징에 대해 패턴을 학습하며, 상기 특징 추출부에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리부와; 상기 BP 처리부의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고, 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하는 IBL 처리부와; 상기 IBL 처리부에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고, 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리부;를 포함하여 구성되는 패턴 학습부와; 상기 패턴 학습부에서 학습된 패턴을 저장하는 패턴 데이터베이스와; 상기 패턴 데이터베이스에서 저장된 패턴을 이용하여 상기 특징 추출부에서 추출된 특징에 대해 패턴을 인식하는 패턴 인식부와; 상기 패턴 인식부에서 인식된 결과를 이용하여 화상데이터의 정상여부를 판별하는 화상 판별부;를 포함하여 구성된 것을 특징으로 한다.
도 3은 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 방법의 흐름도이다.
이에 도시된 바와 같이, 입력부(10)를 통해 입력된 학습자료에 대해 신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 얼굴패턴을 학습하는 제 1 단계(ST10)와; 상기 제 1 단계 후 상기 입력부(10)를 통해 입력된 실제 자료에 대해 특징을 추출하여 패턴을 인식하고 정상 여부를 판별하는 제 2 단계(ST20);를 포함하여 수행하는 것을 특징으로 한다.
도 4는 도 3에서 제 1 단계의 상세흐름도이다.
이에 도시된 바와 같이, 상기 입력부(10)를 통해 학습 자료를 입력받는 제 11 단계(ST11)와; 상기 제 11 단계 후 입력된 학습자료에 대해 전처리를 수행하는 제 12 단계(ST12)와; 상기 제 12 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 13 단계(ST13)와; 상기 제 13 단계 후 추출된 특징에 대해 신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 학습을 수행하는 제 14 단계(ST14)와; 상기 제 14 단계 후 학습된 정보에 대해 패턴을 생성하고, 생성된 패턴을 패턴 데이터베이스(50)에 저장하는 제 15 단계(ST15);를 포함하여 수행하는 것을 특징으로 한다.
상기 제 12 단계는, 상기 제 11 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 것을 특징으로 한다.
상기 제 14 단계는, 상기 제 13 단계에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리단계와; 상기 BP 처리단계의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고, 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하는 IBL 처리단계와; 상기 IBL 처리단계에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고, 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리단계;를 포함하여 수행하는 것을 특징으로 한다.
도 5는 도 3에서 제 2 단계의 상세흐름도이다.
이에 도시된 바와 같이, 상기 입력부(10)를 통해 실제 자료를 입력받는 제 21 단계(ST21)와; 상기 제 21 단계 후 입력된 실제 자료에 대해 전처리를 수행하는 제 22 단계(ST22)와; 상기 제 22 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 23 단계(ST23)와; 상기 제 23 단계 후 패턴 데이터베이스(50)에 저장된 패턴 정보를 이용하여 실제 자료의 패턴을 인식하는 제 24 단계(ST24)와; 상기 제 24 단계 후 패턴 인식된 실제 자료의 얼굴에 대해 정상 여부를 판별하는 제 25 단계(ST25);를 포함하여 수행하는 것을 특징으로 한다.
상기 제 22 단계는, 상기 제 21 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 것을 특징으로 한다.
또한 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 방법은, 도 3 내지 도 5에 도시된 바와 같이, 입력부(10)를 통해 학습 자료를 입력받는 제 11 단계(ST11)와; 상기 제 11 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 제 12 단계(ST12)와; 상기 제 12 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 13 단계(ST13)와; 상기 제 13 단계에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리단계, 상기 BP 처리단계의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하는 IBL 처리단계, 상기 IBL 처리단계에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리단계를 포함하여 수행하는 제 14 단계(ST14)와; 상기 제 14 단계 후 학습된 정보에 대해 패턴을 생성하고, 생성된 패턴을 패턴 데이터베이스(50)에 저장하는 제 15 단계(ST15)와; 상기 입력부(10)를 통해 실제 자료를 입력받는 제 21 단계(ST21)와; 상기 제 21 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 제 22 단계(ST22)와; 상기 제 22 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 23 단계(ST23)와; 상기 제 23 단계 후 패턴 데이터베이스(50)에 저장된 패턴 정보를 이용하여 실제 자료의 패턴을 인식하는 제 24 단계(ST24)와; 상기 제 24 단계 후 패턴 인식된 실제 자료의 얼굴에 대해 정상 여부를 판별하는 제 25 단계(ST25);를 포함하여 수행하는 것을 특징으로 한다.
이와 같이 구성된 본 발명에 의한 기계학습을 이용한 얼굴인식 장치 및 그 방법의 바람직한 실시예를 첨부한 도면에 의거하여 상세히 설명하면 다음과 같다. 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 프릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 판례 등에 따라 달라질 수 있으며, 이에 따라 각 용어의 의미는 본 명세서 전반에 걸친 내용을 토대로 해석되어야 할 것이다.
먼저 본 발명은 기계학습을 이용하여 정상적인 얼굴과 비정상적인 얼굴을 구별하여 인식하고자 한 것이다.
도 1은 본 발명의 일실시예에 의한 기계학습을 이용한 얼굴인식 장치의 블록구성도이다.
그래서 입력부(10)는 카메라를 이용하여 화상데이터를 입력하는 하는 부분으로써, 얼굴인식에 필요한 학습 자료 또는 실제 자료가 입력된다.
또한 전처리부(20)는 입력부(10)로부터 입력된 화상데이터에 대해 전처리를 수행하게 된다. 이러한 전처리부(20)는 입력부(10)로부터 입력된 학습 자료 또는 실제 자료의 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하게 된다.
또한 특징 추출부(30)는 전처리부(20)에서 처리된 학습 자료 또는 실제 자료의 데이터에서 얼굴인식에 필요한 특징을 추출하게 된다.
또한 패턴 학습부(40)는 특징 추출부(30)에서 추출된 특징에 대해 패턴을 학습하게 된다. 이러한 패턴 학습부(40)는 신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 패턴 학습을 수행할 수 있다.
여기서 신경망 이론은 생물학적인 신경계의 구조에 영감을 얻어 만들어지는 정보처리체계로서, 기억이 신경망으로 구성되어 있고, 기억 내용들을 노드(node)사이의 연결강도로 저장한다는 이론이다. 노드(node)란 마디란 의미로 인지에 대한 신경회로망 도형에서 중요한 개념으로서 인지적 단위를 의미한다. 신경망은 기본적으로 정보처리요소와 연접경로로 구성된다. 정보처리 요소는 정보 전송로인 지향성 링크에 의하여 서로 병렬로 연결되어 있다. 정보처리요소는 뇌의 뉴런을 모형화한 것이다. 하나의 뉴런은 다른 많은 뉴런으로부터 여러 개의 입력신호를 받지만 단 하나의 출력신호만을 낸다.
또한 BP(Back Propagation, 역전파 알고리즘)는 가장 오래되면서도 가장 많이 응용되고 있는 학습 알고리즘이다. 이는 주로 이미지와 음성 인식 쪽에 많이 사용되는데, 인간의 두뇌가 동작하는 원리를 이용하여 가상의 뉴런을 만들고, 이 뉴 런들 사이의 연결강도를 조정하여 학습을 하게 된다. 데이터에 대한 전문적인 지식이 없을 경우 학습으로 문제를 해결하고자 할 때 폭 넓게 사용된다.
이러한 BP는 다층 피드포워드 퍼셉트론 출력과 원하는 출력의 평균자승오차(mean square error, MSE)를 최소화하기 위해 반복적으로 델타 룰(delta rule)을 적용한다. BP로 학습된 다층 퍼셉트론은 층수에 따라 판별해 낼 수 있는 결정 영역의 형태가 다른데, 2층 구조일 경우 전형적인 블록(convex) 영역, 3층 구조일 경우에는 임의 형태의 결정 영역을 학습할 수 있다.
또한 IBL은 기계학습 분야에서 사용되고 있는 학습 알고리즘의 하나로, 학습시에 각각의 그룹을 대표하는 대표 예(instance)를 선택하여 그 그룹의 패턴으로 저장한다. 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때, 저장되어 있는 예제 중 이것과 가장 가까운 예를 선택하고, 그 대표예(인스턴스)가 속한 그룹으로 새로운 예(인스턴스)를 분류하는 방식이다.
또한 C4.5는 로스 퀸란(Ross Quinlan)에 의해 정립된 의사 결정 나무 알고리즘으로서, 대용량의 데이터를 학습하는데 빠른 처리 속도를 보여주며, 그 정확도도 일반적으로 가장 높다. C4.5는 학습하고자 하는 데이터의 속성(attribute)의 중요도를 계산하여 속성에 대한 트리구조(tree)를 만들어 패턴을 저장하게 된다. 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하게 된다.
또한 패턴 데이터베이스(50)는 패턴 학습부(40)에서 학습된 패턴을 저장한다.
또한 패턴 인식부(60)는 패턴 데이터베이스(50)에서 저장된 패턴을 이용하여 특징 추출부(30)에서 추출된 특징에 대해 패턴을 인식한다.
또한 화상 판별부(70)는 패턴 인식부(60)에서 인식된 결과를 이용하여 화상데이터의 정상여부를 판별하게 된다.
이러한 본 발명의 동작을 도 3 내지 도 5를 참조하여 상세히 설명하면 다음과 같다.
먼저 본 발명은 기본 데이터를 학습하는 제 1 단계와, 실제 이것을 이용하여 얼굴을 인식하는 제 2 단계로 나눌 수 있다.
그래서 제 1 단계에서는 입력부(10)를 통해 입력된 학습자료에 대해 신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 얼굴패턴을 학습하게 된다(ST10).
이를 위해 입력부(10)를 통해 학습 자료를 입력받는다(ST11).
그리고 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행한다(ST12).
그런 다음 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하게 된다(ST13).
그리고 추출된 특징에 대해 패턴을 생성하게 된다. 이를 위해 BP 처리단계에서는 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하게 되고, IBL 처리 단계에서는 BP 처리단계의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하게 되 며, C4.5 처리단계에서는 IBL 처리단계에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하게 된다.
또한 학습된 정보에 대해 패턴을 생성하고, 생성된 패턴을 패턴 데이터베이스(50)에 저장하게 된다.
한편 제 2 단계에서는 입력부(10)를 통해 입력된 실제 자료에 대해 특징을 추출하여 패턴을 인식하고 정상 여부를 판별하게 된다(ST20).
이를 위해, 먼저 입력부(10)를 통해 실제 자료를 입력받는다(ST21).
그리고 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하게 된다(ST22).
그런 다음 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출한다.
그리고 패턴 데이터베이스(50)에 저장된 패턴 정보를 이용하여 실제 자료의 패턴을 인식하게 된다.
이렇게 패턴 인식된 실제 자료의 얼굴에 대해 정상 여부를 판별하게 된다.
예를 들어 은행의 무인 현금지급기 등에 사람이 마스크를 쓰고 들어오거나 또는 모자를 쓰고 들어와서 현금을 인출하고자 할 경우, 본 발명에 의해 현금을 인출하고자 하는 사람의 인상착의(얼굴인식)를 감지하여 정상적인 얼굴 상태를 유지하며 거래를 하고자 하는 사람인지 아니면 무언가 의심스러운 상태의 사람인가를 판별할 수 있다. 이와 같이 얼굴 상태의 정상/비정상 여부를 파악함으로써, 예를 들어 본 발명과 현금인출기를 연계하여 얼굴 상태가 정상이 되지 않으면 현금 인출 메뉴로 넘어가지 않도록 하는 등과 같은 방법을 사용하여, 현금을 인출하는 사람의 얼굴을 CCTV 등으로 확실히 판별할 수 있는 상태(즉 사용자의 신원을 확실히 파악할 수 있는 상태)에서만 현금 인출이 가능하도록 함으로써, 범죄행위를 근본적으로 차단할 수 있다. 또한, 범죄가 발생하였을 경우에도 상술한 바와 같은 방법으로 반드시 사용자가 얼굴을 드러내도록 하였기 때문에 상기 범죄를 저지른 사용자의 얼굴로써 신원을 쉽게 파악할 수 있어, 범죄행위가 발생한 이후에라도 범죄자를 수색하는데 크게 도움을 줄 수 있게 되어, 궁극적으로 본 발명은 범죄행위 자체를 근절하는데 크게 기여하게 된다.
이처럼 본 발명은 기계학습을 이용하여 정상적인 얼굴과 비정상적인 얼굴을 구별하여 인식하게 되는 것이다.
이상에서 살펴본 바와 같이, 본 발명에 의한 기계학습을 이용한 얼굴인식 장치 및 그 방법은 기계학습을 이용하여 정상적인 얼굴과 비정상적인 얼굴을 구별하여 인식할 수 있는 효과가 있게 된다.
또한 본 발명은, 종래에는 미리 입력되어 있는 정보를 바탕으로 특징에 대한 정보가 저장되어 있는 특정인에 대해서만 인식이 가능했기 때문에 정보가 입력되어 있지 않는 사람에 대해서는 아무런 대책도 마련되어 있지 않아, 특정인을 판별하는 목적으로밖에는 사용되지 못했던 반면, 본 발명은 미리 정보가 저장되어 있지 않더라도 불특정 다수를 대상으로 얼굴의 상태가 정상인지의 여부를 패턴 인식을 통해 판별할 수 있는 효과가 있다. 더불어, 이와 같이 불특정 다수를 대상으로 하여 인식함으로써, 예를 들어 무인현금인출기 등과 같은 곳에서 모자ㆍ선글라스ㆍ마스크 등을 착용하여 얼굴 상태가 비정상적인 사람이 현금을 인출하려 하는 경우에 CCTV 등으로는 상기 사용자의 신원 파악이 불가능한 바, 본 발명을 이용하여 이와 같은 사용자의 비정상적인 얼굴 상태를 자동으로 인식하여 정상적인 얼굴 상태가 되지 않으면(즉 CCTV 등으로 사용자의 신원 파악이 가능할 만큼 얼굴이 보이지 않으면) 현금을 인출할 수 없게 하는 등과 같은 방면으로 사용될 수 있어, 궁극적으로 범죄행위의 근절에 크게 기여하게 되는 효과가 있다.
이상에서 본 발명의 바람직한 실시예에 한정하여 설명하였으나, 본 발명은 이에 한정되지 않고 다양한 변화와 변경 및 균등물을 사용할 수 있다. 따라서 본 발명은 상기 실시예를 적절히 변형하여 응용할 수 있고, 이러한 응용도 하기 특허청구범위에 기재된 기술적 사상을 바탕으로 하는 한 본 발명의 권리범위에 속하게 됨은 당연하다 할 것이다.

Claims (12)

  1. 카메라를 이용하여 화상데이터를 입력하는 입력부와;
    상기 입력부로부터 입력된 화상데이터에 대해 전처리를 수행하는 전처리부와;
    상기 전처리부에서 처리된 데이터에서 얼굴인식에 필요한 특징을 추출하는 특징 추출부와;
    상기 특징 추출부에서 추출된 특징에 대해 패턴을 학습하며, 상기 특징 추출부에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리부와; 상기 BP 처리부의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고, 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하는 IBL 처리부와; 상기 IBL 처리부에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고, 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리부;를 포함하여 구성되는 패턴 학습부와;
    상기 패턴 학습부에서 학습된 패턴을 저장하는 패턴 데이터베이스와;
    상기 패턴 데이터베이스에서 저장된 패턴을 이용하여 상기 특징 추출부에서 추출된 특징에 대해 패턴을 인식하는 패턴 인식부와;
    상기 패턴 인식부에서 인식된 결과를 이용하여 화상데이터의 정상여부를 판별하는 화상 판별부;를 포함하여 구성된 것을 특징으로 하는 기계학습을 이용한 얼굴인식 장치.
  2. 청구항 1에 있어서, 상기 전처리부는,
    상기 입력부로부터 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 것을 특징으로 하는 기계학습을 이용한 얼굴인식 장치.
  3. 청구항 1에 있어서, 상기 패턴 학습부는,
    신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 패턴 학습을 수행하는 것을 특징으로 하는 기계학습을 이용한 얼굴인식 장치.
  4. 삭제
  5. 카메라를 이용하여 화상데이터를 입력하는 입력부와;
    상기 입력부로부터 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 전처리부와;
    상기 전처리부에서 처리된 데이터에서 얼굴인식에 필요한 특징을 추출하는 특징 추출부와;
    상기 특징 추출부에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리부, 상기 BP 처리부의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하는 IBL 처리부, 상기 IBL 처리부에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리부를 포함하여 구성되며, 상기 특징 추출부에서 추출된 특징에 대해 패턴을 학습하는 패턴 학습부와;
    상기 패턴 학습부에서 학습된 패턴을 저장하는 패턴 데이터베이스와;
    상기 패턴 데이터베이스에서 저장된 패턴을 이용하여 상기 특징 추출부에서 추출된 특징에 대해 패턴을 인식하는 패턴 인식부와;
    상기 패턴 인식부에서 인식된 결과를 이용하여 화상데이터의 정상여부를 판별하는 화상 판별부;를 포함하여 구성된 것을 특징으로 하는 기계학습을 이용한 얼굴인식 장치.
  6. 입력부를 통해 입력된 이미지 데이터인 학습자료에 대해 신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 얼굴패턴을 학습하되, 상기 입력부를 통해 학습 자료를 입력받는 제 11 단계와; 상기 제 11 단계 후 입력된 학습자료에 대해 전처리를 수행하는 제 12 단계와; 상기 제 12 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 13 단계와; 상기 제 13 단계 후 추출된 특징에 대해 신경망, BP, IBL, C4.5 중에서 하나 이상을 이용하여 학습을 수행하되, 상기 제 13 단계에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리단계와, 상기 BP 처리단계의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고, 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하는 IBL 처리단계와, 상기 IBL 처리단계에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고, 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리단계를 포함하는 제 14 단계와; 상기 제 14 단계 후 학습된 정보에 대해 패턴을 생성하고, 생성된 패턴을 패턴 데이터베이스에 저장하는 제 15 단계;를 포함하는 제 1 단계와;
    상기 제 1 단계 후 상기 입력부를 통해 입력된 이미지 데이터인 실제 자료에 대해 특징을 추출하여 패턴을 인식하고 정상 여부를 판별하는 제 2 단계;를 포함하여 수행하는 것을 특징으로 하는 기계학습을 이용한 얼굴인식 방법.
  7. 삭제
  8. 청구항 6에 있어서, 상기 제 12 단계는,
    상기 제 11 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 것을 특징으로 하는 기계학습을 이용한 얼굴인식 방법.
  9. 삭제
  10. 청구항 6 및 청구항 8 중 어느 한 항에 있어서, 상기 제 2 단계는,
    상기 입력부를 통해 실제 자료를 입력받는 제 21 단계와;
    상기 제 21 단계 후 입력된 실제 자료에 대해 전처리를 수행하는 제 22 단계와;
    상기 제 22 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 23 단계와;
    상기 제 23 단계 후 패턴 데이터베이스에 저장된 패턴 정보를 이용하여 실제 자료의 패턴을 인식하는 제 24 단계와;
    상기 제 24 단계 후 패턴 인식된 실제 자료의 얼굴에 대해 정상 여부를 판별하는 제 25 단계;를 포함하여 수행하는 것을 특징으로 하는 기계학습을 이용한 얼굴인식 방법.
  11. 청구항 10에 있어서, 상기 제 22 단계는,
    상기 제 21 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 것을 특징으로 하는 기계학습을 이용한 얼굴인식 방법.
  12. 입력부를 통해 이미지 데이터인 학습 자료를 입력받는 제 11 단계와;
    상기 제 11 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 제 12 단계와;
    상기 제 12 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 13 단계와;
    상기 제 13 단계에서 추출된 특징에 대해 가상의 뉴런을 만들고 이 뉴런들 사이의 연결강도를 조정하여 학습을 수행하는 BP 처리단계, 상기 BP 처리단계의 처리 결과를 입력받아 각각의 그룹을 대표하는 대표예를 선택하여 그 그룹의 패턴으로 저장하고 이후 분류를 알 수 없는 새로운 예가 들어 왔을 때 저장되어 있는 예제 중의 일부와 가장 가까운 예를 선택하고 그 대표예가 속한 그룹으로 새로운 예를 분류하는 IBL 처리단계, 상기 IBL 처리단계에서 처리된 결과를 입력받아 학습하고자 하는 데이터의 속성의 중요도를 계산하여 속성에 대한 트리구조를 만들어 패턴을 저장하고 이후 새로운 예제가 들어오면 이 트리구조에 의해 분류를 실행하는 C4.5 처리단계를 포함하여 수행하는 제 14 단계와;
    상기 제 14 단계 후 학습된 정보에 대해 패턴을 생성하고, 생성된 패턴을 패턴 데이터베이스에 저장하는 제 15 단계와;
    상기 입력부를 통해 이미지 데이터인 실제 자료를 입력받는 제 21 단계와;
    상기 제 21 단계에서 입력된 화상데이터에 대해 이진화, 세션화, 잡음 제거 중에서 하나 이상의 전처리를 수행하는 제 22 단계와;
    상기 제 22 단계 후 전처리가 수행된 데이터에서 얼굴인식에 필요한 특징을 추출하는 제 23 단계와;
    상기 제 23 단계 후 패턴 데이터베이스에 저장된 패턴 정보를 이용하여 실제 자료의 패턴을 인식하는 제 24 단계와;
    상기 제 24 단계 후 패턴 인식된 실제 자료의 얼굴에 대해 정상 여부를 판별하는 제 25 단계;를 포함하여 수행하는 것을 특징으로 하는 기계학습을 이용한 얼굴인식 방법.
KR1020060053256A 2006-06-14 2006-06-14 기계학습을 이용한 얼굴인식 장치 및 그 방법 KR100861803B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060053256A KR100861803B1 (ko) 2006-06-14 2006-06-14 기계학습을 이용한 얼굴인식 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060053256A KR100861803B1 (ko) 2006-06-14 2006-06-14 기계학습을 이용한 얼굴인식 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20070119105A KR20070119105A (ko) 2007-12-20
KR100861803B1 true KR100861803B1 (ko) 2008-10-09

Family

ID=39137478

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060053256A KR100861803B1 (ko) 2006-06-14 2006-06-14 기계학습을 이용한 얼굴인식 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR100861803B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180037436A (ko) * 2016-10-04 2018-04-12 한화테크윈 주식회사 다중 크기 컨볼루션 블록 층을 이용한 얼굴 인식 장치
KR20190046349A (ko) 2017-10-26 2019-05-07 삼성에스디에스 주식회사 기계 학습 기반의 객체 검출 방법 및 그 장치

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101064114B1 (ko) * 2010-02-11 2011-09-15 한국수자원공사 패턴인식을 통한 출입통제시스템
KR101254177B1 (ko) * 2011-10-07 2013-04-19 위아코퍼레이션 주식회사 방사형 기저 함수 신경회로망 알고리즘을 이용한 실시간 얼굴 인식 시스템
US8971612B2 (en) * 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
KR102200950B1 (ko) 2014-03-14 2021-01-12 삼성전자주식회사 오브젝트 인식 장치 및 그 제어 방법
CN115581908A (zh) 2015-08-03 2023-01-10 天使集团股份有限公司 游艺场的作弊检测系统
KR101879735B1 (ko) * 2017-03-15 2018-07-18 (주)넥셀 자동적인 학습데이터 생성 방법 및 장치와 이를 이용하는 자가 학습 장치 및 방법
KR102086640B1 (ko) 2017-08-30 2020-03-09 순천향대학교 산학협력단 스마트폰 사용자를 위한 사용자 정의 기계학습 장치 및 그 방법
US11334933B2 (en) * 2017-11-30 2022-05-17 Palo Alto Research Center Incorporated Method, system, and manufacture for inferring user lifestyle and preference information from images
KR102105875B1 (ko) * 2018-02-20 2020-04-29 주식회사 누아 인공지능 학습 시스템, 방법 및 컴퓨터 판독가능 저장 매체
KR102128910B1 (ko) * 2018-03-30 2020-07-01 광운대학교 산학협력단 신경망을 기반으로 하는 피부 병변 진단 장치 및 병변 진단 보조 방법
WO2019225799A1 (ko) * 2018-05-23 2019-11-28 한국과학기술원 딥러닝 생성 모델을 이용한 사용자 정보 삭제 방법 및 장치
KR102516366B1 (ko) 2018-05-30 2023-03-31 삼성전자주식회사 특징 데이터 획득 방법 및 장치
CN109446890A (zh) * 2018-09-11 2019-03-08 浙江大有集团有限公司 集体企业外包业务现场施工人员人脸识别装置
KR102173592B1 (ko) * 2018-10-16 2020-11-03 주식회사 카카오게임즈 비정상 게임 플레이 감지 방법
KR102320005B1 (ko) * 2019-11-28 2021-10-29 서은석 영상 분석 기반 비정상 객체 검출 시스템 및 방법
KR102408042B1 (ko) * 2020-05-19 2022-06-13 주식회사 카카오엔터프라이즈 그룹 기반 얼굴 인식 방법 및 장치
KR102446882B1 (ko) * 2020-08-12 2022-09-22 주식회사 카카오 대량의 얼굴 특징을 이용하여 얼굴을 인식하는 장치 및 그것의 학습 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5285291A (en) 1991-02-08 1994-02-08 Adobe Systems Incorporated Methods of assigning pixels to cells of a halftone grid
KR19990026863A (ko) * 1997-09-26 1999-04-15 전주범 퍼지 뉴러 얼굴 인식 방법
KR19990086440A (ko) * 1998-05-28 1999-12-15 전주범 신경 회로망과 은닉 마르코프 모델을 이용한얼굴 인식 방법
KR20030083510A (ko) * 2002-04-23 2003-10-30 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
KR20050121780A (ko) * 2004-06-23 2005-12-28 김재협 고유 얼굴과 퍼지 신경망을 이용한 얼굴 인식 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5285291A (en) 1991-02-08 1994-02-08 Adobe Systems Incorporated Methods of assigning pixels to cells of a halftone grid
KR19990026863A (ko) * 1997-09-26 1999-04-15 전주범 퍼지 뉴러 얼굴 인식 방법
KR19990086440A (ko) * 1998-05-28 1999-12-15 전주범 신경 회로망과 은닉 마르코프 모델을 이용한얼굴 인식 방법
KR20030083510A (ko) * 2002-04-23 2003-10-30 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
KR20050121780A (ko) * 2004-06-23 2005-12-28 김재협 고유 얼굴과 퍼지 신경망을 이용한 얼굴 인식 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180037436A (ko) * 2016-10-04 2018-04-12 한화테크윈 주식회사 다중 크기 컨볼루션 블록 층을 이용한 얼굴 인식 장치
KR102634166B1 (ko) * 2016-10-04 2024-02-08 한화비전 주식회사 다중 크기 컨볼루션 블록 층을 이용한 얼굴 인식 장치
KR20190046349A (ko) 2017-10-26 2019-05-07 삼성에스디에스 주식회사 기계 학습 기반의 객체 검출 방법 및 그 장치

Also Published As

Publication number Publication date
KR20070119105A (ko) 2007-12-20

Similar Documents

Publication Publication Date Title
KR100861803B1 (ko) 기계학습을 이용한 얼굴인식 장치 및 그 방법
Melin Modular neural networks and type-2 fuzzy systems for pattern recognition
Hafemann et al. Meta-learning for fast classifier adaptation to new users of signature verification systems
EP4068226A1 (en) Method and apparatus with biometric information spoof detection
Perikos et al. Recognizing emotions from facial expressions using neural network
Gale et al. Evolution of performance analysis of iris recognition system by using hybrid methods of feature extraction and matching by hybrid classifier for iris recognition system
Oleiwi et al. Integrated different fingerprint identification and classification systems based deep learning
Alblushi Face recognition based on artificial neural network: A review
Rajasekar et al. Efficient multimodal biometric recognition for secure authentication based on deep learning approach
KR102267741B1 (ko) Ppg신호를 이용한 딥러닝 기반의 감정인식 시스템 및 감정인식 방법
Altun et al. Genetic algorithm based feature selection level fusion using fingerprint and iris biometrics
Sharma et al. Multimodal classification using feature level fusion and SVM
Tiwari et al. Face Recognition using morphological method
Ali et al. Intelligent system for imposter detection: Asurvey
KR101064114B1 (ko) 패턴인식을 통한 출입통제시스템
Jamdar et al. Implementation of unimodal to multimodal biometrie feature level fusion of combining face iris and ear in multi-modal biometric system
Kim et al. Facial emotional expression recognition with soft computing techniques
Mohite et al. Deep learning based card-less ATM using fingerprint and face recognition techniques
Tayade et al. Sclera feature extraction using DWT co-efficients
Abrar Hamim et al. Nationality Detection Using Deep Learning
Kristensen Two Different Regimes of Fingerprint Identification–a Comparison
Al-Ghanim et al. Face Identification Under Disguise and Makeup Based on Hybrid Deep Learning
Doroz et al. A new personal verification technique using finger-knuckle imaging
Rani et al. Genetic algorithm using speech and signature of biometrics
Krishna et al. Offline Signature Forgery Detection using Multi-Layer Perceptron

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110929

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee