KR20060063599A - 사용자 인식 시스템 및 그 방법 - Google Patents

사용자 인식 시스템 및 그 방법 Download PDF

Info

Publication number
KR20060063599A
KR20060063599A KR1020050047773A KR20050047773A KR20060063599A KR 20060063599 A KR20060063599 A KR 20060063599A KR 1020050047773 A KR1020050047773 A KR 1020050047773A KR 20050047773 A KR20050047773 A KR 20050047773A KR 20060063599 A KR20060063599 A KR 20060063599A
Authority
KR
South Korea
Prior art keywords
user
cluster
similarity
feature vector
feature
Prior art date
Application number
KR1020050047773A
Other languages
English (en)
Inventor
김도형
이재연
윤호섭
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US11/291,605 priority Critical patent/US7734067B2/en
Publication of KR20060063599A publication Critical patent/KR20060063599A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries

Abstract

본 발명은 사용자 인식 시스템 및 그 방법에 관한 것으로, 본 발명에 따르면, 입력 영상으로부터 사용자 특징 벡터를 추출하여 상기 특징 벡터를 멤버로 갖는 하나 이상의 클러스터 생성을 통해 사용자 특징 정보인 사용자 특징 템플릿을 등록하고, 이 후 사용자 영상이 입력되는 경우, 입력 영상으로부터 사용자 특징 벡터를 추출하여 기등록된 상기 사용자 특징 템플릿과 유사도를 비교하여 소정의 인식 임계치(θr)를 넘는 유사도가 존재할 때, 해당 사용자 특징 템플릿의 사용자를 입력 영상의 사용자로 인식한다.
따라서, 기존의 얼굴 인식과 달리 환경의 변화, 즉 다양한 조명 및 자세에서도 사용자 얼굴을 인식할 수 있다.
사용자 인식, 템플릿, 얼굴 인식, 클러스터, 갱신, 로봇

Description

사용자 인식 시스템 및 그 방법{USER RECOGNITION SYSTEM AND THAT METHOD}
도 1은 본 발명의 실시예에 따른 사용자 인식 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 사용자 특징 정보의 사용자 특징 템플릿 및 클러스터 개념을 나타낸 그림이다.
도 3은 본 발명의 실시예에 따른 사용자 인식 과정 및 사용자 특징 정보 갱신 과정에 대한 그림이다.
도 4는 본 발명의 실시예에 따른 사용자 특징 템플릿의 갱신 순서도이다.
도 5는 본 발명의 실시예에 따른 사용자 인식 순서도이다.
본 발명은 사용자 인식 시스템 및 그 방법에 관한 것으로, 보다 상세하게는, 입력 영상으로부터 사용자를 인식하는 시스템 및 그 방법에 관한 것이다.
로봇이 인간과 의사 소통하고 협동하기 위해서는 상호작용하는 인간을 인식하는 능력이 필수적으로 요구된다. 이러한 능력은 로봇이 사용자 인증을 가능하게 하고, 개별 사용자에게 적합한 맞춤형 서비스를 제공할 수 있게 한다.
로봇에서 사용자 인식을 위한 기술로 가장 유망한 것은 사용자의 신체적인 특징을 이용하는 생체인식 방법이라고 볼 수 있다. 실제 로봇에서 사용자를 인식하기 위해서 몇가지의 생체인식 방법들이 사용되고 있으며, 얼굴인식, 음성인식, 걸음걸이 인식 등의 방법들이 그 예이다. 이러한 생체인식 방법들 중 얼굴인식은 사용자와의 직접 적인 접촉을 필요로 하지 않고, 원거리 인식이 가능하다는 장점이 있어 대부분의 로봇에서 사용자 인식을 위한 방법으고 구현되고 있다.
다른 생체 인식 기술과 마찬가지로 얼굴인식 기술도 보안의 관점에서 많은 연구가 이루어졌다. 현재까지 연구 되어진 얼굴 인식 기술은 크게 기하학적인 특징 정합(feature matching)에 기반한 방법과 템플릿 패턴 정합(template matching)에 기반한 방법으로 분류할 수 있다. 대표적인 얼굴 인식 기술로는 주성분 분석(Principal Component Analysis : PCA), Elastic Bunch 그래프 매칭(Elastic Bunch Graph Matching), 선형 판별 분석(Linear Discrimination Analysis : LDA), 국부적 특징 분석(Local Feature Analysis : LFA)등이 있으며 이러한 방법들이 우수한 성능을 보인다는 많은 연구 결과가 보고되고 있다.
그러나, 많은 연구 결과에서 밝혀진 바와 같이, 얼굴인식은 조명 및 자세의 변화에 취약하다는 약점을 가지고 있다. 우수한 성능을 보이는 기존 연구 결과들은 일정한 조명 상태와 정면얼굴 등 잘 제어된 환경을 가정으로 하고 있다. 이러한 가정에서 본다면, 로봇이 얼굴인식 기술을 이용하여 사용자 인식을 하려면 사용자는 항상 로봇의 정면에서 로봇을 쳐다봐야 하며, 초기에 등록된 상태와 비슷한 조명환경이 항상 유지되어야만 한다.
그러나 사용자와 로봇이 각자 자유롭게 움직이는 모바일 로봇 환경에서 이러 한 조건을 만족시키기는 불가능하다. 보안의 관점에서 다루어진 기존의 얼굴인식은 사용자가 협조적일 수 밖에 없지만 로봇에서처럼 사용자를 계속해서 인식해야 되는 상황에서 사용자가 로봇을 인식하고 협조한다는 것은 기대하기 어렵다.
물론 조명 및 자세의 변화에 따른 얼굴 형상 변화를 대처하기 위한 기술이 존재하기 하지만 그 처리 과정이 복잡하여, 실시간으로 처리하기 어렵다는 한계를 지니고 있다.
이처럼 기존의 보안 관점에서 연구되어온 얼굴 인식등의 사용자 인식과는 다르게, 모바일 로봇 환경에서는 매우 다양한 환경을 극복해야만 한다.
따라서 본 발명이 이루고자 하는 기술적 과제는 다양한 환경변화에도 불구하고, 조명 혹은 자세의 변화에 관계없이 안정적으로 사용자를 인식할 수 있는 기술을 제공하는데 있다.
상술한 기술적 과제를 달성하기 위한 본 발명의 특징에 따른 사용자 인식 시스템은, 입력영상으로부터 사용자를 인식하는 시스템으로서, 사용자 특징 정보인 사용자 특징 템플릿을 저장하는 데이타베이스; 입력 영상으로부터 사용자 특징 벡터를 산출하는 특징 벡터 산출부; 상기 특징 벡터를 멤버로 갖는 하나 이상의 클러스터를 생성하여 상기 클러스터를 포함하는 사용자 특징 정보인 사용자 특징 템플릿을 상기 데이타베이스에 저장하는 사용자 특징 정보 등록부; 상기 특징 벡터와 기등록된 사용자 특징 템플릿과 유사도를 비교하여 소정의 인식 임계치(θr)를 넘 는 유사도가 존재할 때 해당 사용자 특징 템플릿의 사용자를 입력 영상의 사용자로 인식하는 사용자 인식부를 포함한다.
또, 상술한 기술적 과제를 달성하기 위한 본 발명의 특징에 따른 사용자 인식 방법은, 입력 영상으로부터 사용자를 인식하는 방법으로서, a) 입력 영상으로부터 사용자 특징 벡터를 추출하는 단계; b) 기등록되어, 사용자 특징 벡터를 멤버로 갖는 클러스터를 포함하는 사용자 특징 정보인 사용자 특징 템플릿과 유사도를 비교하는 단계; 및 c) b)단계의 결과, 추출된 사용자 특징 벡터와 기등록된 사용자 특징 템플릿과의 유사도가 소정의 인식 임계치(θr)를 넘는 경우, 해당 사용자 특징 템플릿의 사용자를 입력 사용자로 인식하는 단계를 포함한다.
이하 첨부도면을 참조하여 본 발명을 상세히 설명한다.
이 때, 설명의 편의를 위해 사용자의 여러가지 신체 부위 중 얼굴 인식을 통한 사용자 인식을 예로 들어 설명하나, 이것이 본 발명의 권리 범위를 한정하는 것은 아니며, 이하의 방법이 여러 가지 신체 부위를 통한 사용자 인식에 응용가능함은 자명하다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 사용자 인식 시스템은, 영상 입력부(100), 특징 벡터 산출부(101), 사용자 특징 정보 등록부(102), 사용자 인식부(103), 트래킹부(105), 재검증부(107), 사용자 특징 정보 갱신부(109) 및 데이타베이스(111)를 포함한다.
영상 입력부(100)는, 시스템의 인식 대상이 되는 사용자의 영상 정보를 입력한다.
특징 벡터 산출부(101)는 상기 영상 입력부(100)를 통해 전달되는 인식 대상의 영상 정보로부터 얼굴 영역을 추출한다. 그리고, 특징 벡터 산출부(101)는 검출된 얼굴 영역으로부터 일련의 전처리 과정을 통해 특징 벡터를 추출한다.
예를 들어, 전처리 과정은 크게 2단계로 나누어 질 수 있는데, 양쪽 눈동자 위치 정보를 이용하여 기울기 보정(rotation)과 크기 보정(scaling)을 수행하고 양쪽 눈을 기준으로 얼굴의 일정 범위를 잘라내는 기하학적 정규화단계와, 배경의 간섭을 제거하기 위한 마스킹, 조명의 간섭을 제거하기 위한 히스토그램 평활화 및 표준화과정을 수행하는 화질개선단계로 나뉘어질 수 있다.
이렇게 전처리된 얼굴은 다양한 얼굴 특징 추출 알고리즘에 의해 얼굴을 가장 잘 표현할 수 있는 특징 벡터의 형태로 가공될 수 있다. 상술한 방법으로 소정 개수의 얼굴 영상에 대해 상술한 전처리 과정을 통해 소정 개수의 특징 벡터를 추출할 수 있다.
사용자 특징 정보 등록부(102)는 시스템의 인식 대상이 되는 사용자 특징 정보를 시스템의 데이타베이스(111)에 등록한다. 이 때, 사용자 특징 정보는 사용자 특징 템플릿이라고도 하며, 사용자 특징 템플릿은 특징 벡터를 멤버로 갖는 클러스터 형태로 저장된다.
예를 들어, 동일한 인물의 5장의 얼굴 영상에 대해 상술한 전처리 과정을 수행하여 최초 5개의 특징 벡터를 추출한 경우,사용자 특징 정보 등록부(102)는 상기 5개의 특징 벡터로 초기 클러스터를 형성할 수 있다.
보다 구체적으로, 사용자 특징 정보 등록부(102)는 특징 벡터를 F = { Fi,i = 1,2,3,4,5}라고 할 때, 먼저 F1을 첫번째 클러스터의 멤버로 설정하고 첫번째 클러스터 C1을 생성할 수 있다. 이 때, C1은 멤버가 F1밖에 없으므로 C1의 센트로이드(centroid)인 c1은 F1이 된다.
다음 사용자 특징 정보 등록부(102)는 이 후 F2에 대해서, 첫번째 클러스터의 센트로이드 c1과의 유사도 S(c1, F2)를 계산한다. 이 때, 유사도가 클러스터 분류 임계치로 미리 설정된
Figure 112005029723956-PAT00001
보다 클 결우, 두 특징 벡터 F1과 F2는 유사한 형태를 지니는 얼굴 특징 벡터로 판단된다. 따라서 사용자 특징 정보 등록부(102)는 F2를 C1의 멤버로 포함시키고, C1의 센트로이드 c1을 하기 식을 통해 재설정한다.
Figure 112005029723956-PAT00002
즉, Ck 클러스터의 센트로이드인 ck는 Ck의 멤버 특징벡터간의 유사도를 계산하였을때 다른 멤버들과의 유사도 합이 가장 큰 특징벡터로 설정된다. 위의 예에서는 멤버가 F1 및 F2 둘 밖에 없으므로 c1은 두 멤버중에 하나로 임의 선택 된다.
만약 F3도 F2와 마찬가지로 S(c1, F3)가 θc보다 크다면 C1의 멤버는 세 개가 되며 이때 c1은 수학식 1에 의해서 설정될 것이다. 그리고, F4 의 경우 만약 유사도 S(c1, F4)가 θc보다 작게되면, F4는 기존 클러스터 C1의 멤버들과는 그 성질이 다르다는 것을 의미하여, 새로운 클러스터 C2 가 형성되며, F4는 새로운 클러스터 C2의 멤버가 된다.
즉 도 2에 도시된 바와 같이, 사용자 특징 템플릿은 복수의 클러스터를 포함할 수 있으며, C1과 C2는 동일한 인물의 특징벡터를 멤버로 갖는 클러스터이기는 하지만, 두 클러스터는 등록된 인물에 대한 각기 다른 조명, 포즈 상태등을 나타낸다고 볼 수 있다.
사용자 인식부(103)는 도 3에 도시된 얼굴 인식 과정(A)에 따라 사용자 특징 정보 등록부(102)에 의해 데이타베이스(111)에 사용자 특징 템플릿이 저장된 사용자를 인식한다.
즉, 로봇과 같은 사용자 인식 시스템에 등록된 사용자가 로봇과 상호 작용하는 경우, 상술한 방법에 의해 얼굴 영상 추출 및 전처리 과정을 거쳐 특징 벡터 Fq 가 추출된다.
다음 사용자 인식부(103)는 데이타베이스(111)에 저장된 등록된 n명에 대한 템플릿과 상기 특징 벡터 Fq 와의 유사도를 구하여, 해당 사용자를 인식한다.
이 때, 특징 벡터 Fq와 데이타베이스(111)에 저장된 등록되어진 n명에 대한 템플릿중 k번째(1 ≤ k ≤ n) 인물의 얼굴특징 템플릿 Tk사이의 유사도 Sk는 하기의 수학식 2에 의해 산출된다.
Figure 112005029723956-PAT00003
즉, 사용자 인식부(103)는 템플릿 Tk가 m개의 클러스터를 포함한 경우, 특징벡터 Fq 를 각 클러스터의 센트로이드인 ci 와만 매칭시킬수 있다. 각 클러스터는 유사도가 높은 특징벡터들끼리 구성되는 것으로, 센트로이드는 각 멤버들간의 유사도의 합이 최대인 특징벡터이므로 그 클러스터의 특징을 가장 잘 나타낸고 할 수 있기 때문이다.
상술한 식으로부터 추출된 n개의 유사도 중 최대 유사도가 인식 임계치 θr (=ERR) 보다 크다면, 최대유사도를 가지는 인물이 최종 인식된 인물이다. 이 때, 최대 유사도가 인식 임계치 θr 보다 작은 경우, 해당 사용자는 데이타베이스(111)에 저장되지 않은 처음 보는 인물로 판명되어 사용자 특징 정보 등록부(101)에 의해 등록이 유도된다.
트래킹(tracking)부(105)는 인식된 사용자를 트래킹한다. 즉, 인식과정에서 사용된 특징 벡터 Fq 와 데이타베이스(111)에 저장된 사용자 특징 템플릿 사이의 최대 유사도가 인식 임계치를 넘어 특정 인물로 인식된 경우, 이후의 입력 영상에 대해서는 사용자 인식부(103)에 의한 인식과정을 수행하지 않고, 트래킹부(105)가 사용자 추적 프로세스 만을 실행한다.
트래킹부(105)는 영상입력부로부터 제공되는 사용자 영상을 수집하여 임의 의 버퍼에 저장한다. 그리고, 기인식된 특정 인물이 로봇의 시야에서 사라지거나 다른 인물이 등장하는 등의 경우, 트래킹부(105)는 더 이상 기 인식된 얼굴을 추적할 수 없으므로 사용자 추적 프로세스를 종료한다.
일반적인 얼굴 인식 과정의 경우, 인식이 완료되는 시점에서 더 이상 인식 프로세스는 동작하지 않게 된다. 하지만 로봇과 같은 사용자 인식의 연속성을 요구하는 시스템의 경우, 트래킹 개념이 요구된다. 따라서 계속적인 인식과정을 수행하지 않더라도 트래킹으로 추출된 얼굴데이터를 기 인식된 인물의 얼굴데이터로 분류하여 수집가능하고, 이러한 정보를 축적하여 인간과 유사한 학습 과정을 로봇에게 적용할 수 있다. 즉, 최종적으로 로봇의 사용자 인식 능력을 향상시킬 수 있다.
재검증부(107)는 트래킹부(105)에 의한 추적 프로세스가 종료한 때, 트래킹부(105)에 의해 수집된 영상이 기인식된 사용자의 영상인지 다시 한 번 확인한다.
재검증부(107)는 수집된 영상들로부터 특징벡터 F = {Fi | i = 1,2,3,...,n}를 추출하고, 후술할 수학식 3에 의해 Fi 와 기 인식된 사용자의 얼굴특징 템플릿 Tp와의 유사도 Si를 산출한다.
Figure 112005029723956-PAT00004
재검증부(107)에 의해 즉 m개의 클러스터로 구성된 Tp와 수집된 n개의 특징벡터간의 유사도 S = {Si | i = 1,2,3,...,n}가 산출된다. 이 때, 추출된 유사도 중 템플릿 갱신 임계치 θt(FAR=0)보다 큰 Si가 존재한다면 트래킹부(105)에 의해 수집된 영상들로부터 추출된 특징벡터로 사용자 특징 템플릿이 갱신될 수 있다.
재검증부(107)는 이를 만족하는 유사도가 존재하지 않는 경우, 수집된 얼굴영상을 버퍼에서 제거하고, 결과적으로 템플릿 갱신 과정은 실행되지 않는다.
위와 같이 수집된 얼굴영상들에 대해서 인식 임계치 θr보다 더 엄격한 갱신 임계치 θt를 설정하여 추적되는 인물을 다시 재검증하는 이유는 얼굴특징 템플릿 갱신 오류가 인식 오류보다 더 치명적이기 때문이다. 시스템에서의 사용자 인식 오류는 환경의 변화에 따라 충분히 발생가능하며, 비록 인식 오류가 발생하였다고 해도 그 오류가 누적되지 않으며 재인식 또는 재훈련으로 충분히 복구가능하다. 하지만 B라는 인물의 얼굴특징들이 A의 얼굴특징 템플릿으로 잘못 갱신되는 템플릿 갱신 오류가 발생하게 되면 A의 얼굴 특징 템플릿은 더 이상 A의 얼굴만을 나타내지 않으며 B가 A로 오인식되는 경우가 발생하게 된다. 그 결과 이전의 템플릿 갱신 프로세스를 통한 무수한 인식 성능 강화 노력에도 불구하고, 한번의 오류로 더 이상 그 결과를 신뢰할 수 없게 된다.
사용자 특징 정보 갱신부(109)는 트래킹부(105)에 의해 수집된 얼굴영상이 기 인식된 인물 P의 얼굴영상임이 재검증된 경우, 도 3에 도시된 얼굴특징 템플릿 갱신 과정(B)에 따라, 수집된 특징 벡터로 P의 얼굴특징 템플릿을 갱신할 수 있다.
보다 구체적으로 도 4에 도시된 바와 같이, 사용자 특징 정보 갱신부(109)는 트래킹부(105)에 의해 수집된 얼굴영상이 기 인식된 인물 P의 얼굴영상임이 재검증 된 경우(S100), 우선, 상술한 수학식 3을 이용하여 Fi와 Tp를 구성하는 모든 클러스터 Cj와의 유사도를 산출하고, 최대 유사도를 보이는 승자 클러스터 Cw를 찾는다(S101). 다음, Cw와 Fi의 유사도 Sw와 클러스터 분류 임계치 θc를 비교한다(S103).
이 때 Cw와 Fi의 유사도 Sw가 클러스터 분류 임계치 θc보다 크다면, Fi는 클러스터 Cw의 멤버들과 유사한 성질을 가지는 특징벡터로 간주되고, Fi를 Cw의 멤버로 포함시키며, Cw의 센트로이드 cw를 수학식 1에 의해 재설정한다(S105).
이 때, Fi 추가로 인해 클러스터의 최대멤버수 MAX_MEMBER_LIMIT(=10) 를 초과하게 되면, Fi를 추가시켜서 산출한 센트로이드 cw에 해당되는 멤버를 제거하고, 수학식 1에 의해 cw를 재설정할 수 있다.
그리고, Cw와 Fi의 유사도 Sw가 클러스터 분류 임계치 θc보다 작다면, Fi는 Tp를 구성하는 기존 클러스터와는 다른 성질을 지니는 특징벡터로 간주하고, Fi를 멤버로 가지는 새로운 클러스터 Cn을 생성하고 Cn의 센트로이드 cn을 Fi로 설정한다(S107).
사용자 특징 정보 갱신부(109)는 위와 같은 순서대로 수집된 n개의 모든 특징벡터에 대하여 템플릿 갱신과정을 수행한다. 이러한 갱신과정을 통해 로봇은 P라는 인물에 대해 다양한 조명 및 자세에서의 특징들을 훈련하게 되고 사용자와 빈번 한 상호작용을 할수록 더 높은 인식 성능을 보일 수 있다. 이러한 훈련 능력은 지능형 로봇이 갖추어야 할 필수요소라고 할 수 있으며 본 발명은 얼굴인식에 대하여 얼굴특징 템플릿 갱신 알고리즘을 제안함으로써 로봇에게 훈련 능력을 제공할 수 있다.
한편, 사용자 특징 템플릿이 계속적인 갱신과정을 거칠 수록 시스템의 인식 성능은 높아질 수 있는 반면, 템플릿을 구성하는 클러스터 개수는 증가할 수 있다. 하드웨어의 용량와 성능은 계속해서 발전하고, 특히 로봇과 같은 사용자 인식 시스템은 그 인식 대상 수가 상대적으로 소수이다. 그러나, 비슷한 성질을 갖는 클러스터의 증가로 필요한 메모리 용량의 증가와 응답시간의 저하를 초래할 수 있으므로, 사용자 특징 정보 갱신부(109)는 클러스터의 수를 제한하고 효율적으로 클러스터를 교체할 수 있다.
예를 들어, 사용자 특징 정보 갱신부(109)는 사용자 특징 템플릿 갱신과정에서 새로운 클러스터를 생성하게 될 경우, 미리 설정된 최대 클러스터 개수 MAX_CLUSTER_LIMIT(=20)을 초과할 때 클러스터를 교체한다.
이 때, 교체 대상 클러스터는 다음 사항을 고려하여 선택될 수 있다.
첫째, P라는 인물이 인식되었을 때 입력 얼굴 영상의 특징 벡터와 최대 유사도를 보인 클러스터의 인식 기여도를 산출할 수 있다. 기여도는 P라는 인물이 로봇에 의해 인식된 총 횟수분에 해당 클러스터가 승자가 된 횟수이다. 기여도가 높을수록 인식 참조 빈도수가 높은 클러스터이며, 이는 주로 질의되는 얼굴 영상과 비슷한 환경(예를 들어 조명 혹은 자세)에서의 특징 벡터 멤버들로 구성된 클러스터 임을 나타낸다.
반대로 기여도가 낮은 클러스터는 질의되는 영상들과는 다른 환경에서의 ㅓ얼굴특징들로 구성되며, 인식시 거의 유사도에 영향을 미치지 않게 된다. 따라서 기여도가 낮을수록 교체대상 클러스터로 선택될 가능성이 높다.
둘째, 하나의 클러스터에서 센트로이드를 설정하는 방식과 유사하게 P라는 인물의 템플릿 Tp에 속하는 전체 클러스터의 센트로이드 클러스터 Cp를 아래의 수학식 4로 산출한다. 이 때 새로 생성될 클러스터도 포함한다.
Figure 112005029723956-PAT00005
즉, P 인물의 템플릿 Tp 의 센트로이드 클러스터인 Cp는 Tp에 속하는 클러스터간의 유사도를 계산하였을때 다른 클러스터들과의 평균 유사도가 가장 큰 클러스터이다. Cp로 선정된 클러스터는 인식시 참여할 확률(기여도)이 높은 중심 클러스터인 동시에 P라는 인물의 가장 일반적인 특징을 나타내는 클러스터이다. 이는 Cp가 교체된다고 하더라도 Cp와의 유사도가 높은 주위의 클러스터로 충분히 유지가능함을 의미한다.
사용자 특징 정보 갱신부(109)는 상술한 바에 따라 최대 클러스터 개수 MAX_CLUSTER_LIMIT를 초과하는 새로운 클러스터가 추가될 때 기 언급한 두가지 교 체전략을 사용하여 수학식 5에 의해 교체될 최종 클러스터 Cd를 선택할 수 있다.
Figure 112005029723956-PAT00006
n은 클러스터의 개수인 MAX_CLUSTER_LIMIT+1이 되며, Cri는 i번째 클러스터의 인식기여도, Csi는 i번째 클러스터의 다른 클러스터들과의 평균유사도,
Figure 112005029723956-PAT00007
는 가중치를 나타낸다. 즉 인식기여도가 낮고, 다른 클러스터들과의 평균유사도가 높을수록 교체될 확률이 높다.
이하 도 5를 참조하여 본 발명의 실시예에 따른 사용자 인식 방법을 정리하여 설명한다.
우선, 로봇과 같은 사용자에 대한 인식이 필요한 시스템에 대해 인식 대상이 되고자 하는 사용자의 얼굴 특징 템플릿을 등록한다(S201).
즉, 입력되는 사용자에 대한 영상으로부터 얼굴 영역을 검출하고, 상술한 바와 같이, 일련의 전처리 과정을 수행한다. 그리고, 전처리된 얼굴 영상을 다양한 얼굴 특징 추출 알고리즘에 의해 특징 벡터의 형태로 가공한다.
이 후, 얼굴 특징 템플릿 T가 추출된 특징 벡터들을 멤버로 갖는 클러스터 형태로 저장되고, 초기 클러스터 형성 과정은 상술하였으므로 생략한다.
다음, 등록된 사용자가 시스템과 상호 작용하는 경우, 해당 사용자에 대한 인식 프로세스가 실행된다(S203).
즉, 인식 대상이 되는 사용자 영상으로부터 얼굴 영역을 검출하고, 해당 영상에 대해 일련의 전처리 과정을 수행한다. 그리고, 전처리된 얼굴 영상으로부터 얼굴 특징 벡터 Fq를 추출하고 미리 등록된 사용자의 얼굴 특징 템플릿과의 유사도를 산출한다.
만약 시스템에 등록된 사용자의 얼굴 특징 템플릿이 n개인 경우, 추출된 Fq와 각 템플릿간의 유사도가 n개 산출되고, 산출된 n개의 유사도 중 최대 유사도가 인식 임계치 θr (=ERR) 보다 클 경우, 최대 유사도를 가지는 인물이 해당 사용자로 인식된다.
다음, 로봇 환경과 같이 상호 작용하는 사용자가 연속적으로 바뀔 수 있는 환경에서는 현재 영상에서의 얼굴 인식결과를 기억한 후, 이어지는 영상에서 그 사람을 연속적으로 추적할 수 있어야 하므로, 일단 인식된 사용자에 대한 트래킹이 실행된다(S205). 즉, 인식 과정에서 사용된 얼굴 특징 벡터 Fq와 저장된 얼굴 특징 템플릿간의 최대 유사도가 인식 임계치를 넘어선 경우, 이후 입력 되는 영상에 대해서는 인식 과정 없이 사용자 추적 프로세스만이 실행되어 얼굴 영상들을 수집하고 임의의 버퍼에 저장한다. 그리고, 인식 대상이 되는 사용자가 사라지거나 다른 인물등이 등장하는 경우 트래킹은 종료된다.
트래킹이 종료된 경우, 수집된 얼굴 영상이 기 인식된 인물의 얼굴 영상인지 확인하는 재검증 프로세스가 실행된다(S207). 즉, 수집된 얼굴 영상들로부터 특징 벡터를 추출하고, 기 인식된 사용자의 얼굴 특징 템플릿 Tp와의 유사도를 검출한다.
그리고, 검출된 유사도 중 템플릿 갱신 임계치 θt 보다 큰 유사도가 존재하는 경우, 수집된 영상들에 의해 사용자의 얼굴 특징 템플릿을 갱신한다(S211).
이 때, 템플릿 갱신 임계치 θt는 인식 임계치 θr보다 엄격하게 적용하며, 검출된 유사도 중 템플릿 갱신 임계치 θt 보다 큰 유사도가 존재하지 않는 경우, 수집된 영상들은 버퍼에서 제거되고 템플릿 갱신과정은 일어나지 않게 된다(S209).
이상 설명한 바는 본 발명의 실시예에 불과한 것으로, 본 발명의 권리범위가 이에 한정되는 것은 아니며, 당업자에게 자명한 사항에 대해 다양한 변형실시가 가능함은 물론이다. 예를 들어, 이상에서는 사용자 얼굴 인식을 예로 들어 설명하였으나, 각각의 개체를 식별할 수 있는 얼굴 이외의 신체 부위 인식에 대해서 본 발명을 응용할 수 있음은 물론이다. 또한 상술한 인식 시스템의 구성은 그 기능에 따라 통합되거나 세분화될 수도 있다. 그리고, 본 인식 시스템 및 방법이 반드시 로봇 시스템에만 적용되는 것이 아니라 사용자 인식이 필요한 모든 시스템에 적용가능함은 물론이다. 본 발명의 권리범위는 후술할 특허청구범위 및 이와 균등 사항으로 인정되는 모든 기술적 구성을 포함할 것이다.
상술한 바와 같이 본 발명에 따르면, 기존의 얼굴 인식과 달리 환경의 변화, 즉 다양한 조명 및 자세에서도 사용자 얼굴을 인식할 수 있다.
게다가, 사용자 특징 정보 갱신과정을 통해 로봇과 같은 사용자 인식 시스템 에 일종의 학습 효과를 부여하게 되므로, 접촉이 잦은 사용자일수록 인식 성공률을 높일 수 있게 된다. 그 결과, 지능형 로봇등에 대해 고수준의 인지능력을 보이는 인간과 유사한 기억 매커니즘을 부여할 수 있다.

Claims (31)

  1. 입력 영상으로부터 사용자를 인식하는 방법에 있어서,
    a) 입력 영상으로부터 사용자 특징 벡터를 추출하는 단계;
    b) 사용자 특징 벡터를 멤버로 갖는 클러스터를 포함하는 사용자 특징 정보인 사용자 특징 템플릿과 유사도를 비교하는 단계; 및
    c) b)단계의 결과, 추출된 사용자 특징 벡터와 기등록된 사용자 특징 템플릿과의 유사도가 소정의 인식 임계치(θr)를 넘는 경우, 해당 사용자 특징 템플릿의 사용자를 입력 사용자로 인식하는 단계
    를 포함하는 사용자 인식 방법.
  2. 제1항에 있어서,
    i) 입력영상으로부터 사용자 특징 벡터를 추출하여 사용자 특징 벡터를 멤버로 갖는 하나 이상의 클러스터를 생성하여, 상기 클러스터를 포함하는 사용자 특징 정보인 사용자 특징 템플릿을 등록하는 단계를 더 포함하는 사용자 인식 방법.
  3. 제2항에 있어서,
    상기 클러스터는 각 클러스터의 센트로이드와의 유사도가 소정의 클러스터 분류 임계치(θc)를 넘는 특징 벡터를 멤버로 하여, 하나 이상 생성되는 사용자 인식 방법.
  4. 제2항에 있어서,
    상기 i) 단계는
    i-1) 입력영상으로부터 추출된 특징 벡터중 어느 하나인 제1 특징 벡터를 제1 클러스터의 멤버로 설정하고 제1 특징 벡터를 제1 클러스터의 제1 센트로이드로 설정하는 단계;
    i-2) 하나 이상의 제2 특징 벡터들이 존재하는 경우, 제2 특징 벡터들을 차례로 제1 클러스터의 제1 센트로이드와의 유사도를 비교하여 소정의 클러스터 분류 임계치(θc)를 넘을 때, 제1 클러스터의 멤버로 특징 벡터를 분류하는 단계; 및
    i-3) 소정의 클러스터 분류 임계치(θc)를 넘지 않을 때, 해당 특징 벡터로 구성된 제2 클러스터를 형성하는 단계
    를 포함하는 사용자 인식 방법.
  5. 제1항에 있어서,
    상기 b) 단계는,
    상기 사용자 특징 템플릿을 구성하는 각 클러스터와 상기 사용자 특징 벡터간의 유사도 산출을 통해 상기 사용자 특징 템플릿과 상기 사용자 특징 벡터간의 유사도를 산출하는 단계인
    사용자 인식 방법.
  6. 제5항에 있어서,
    상기 b) 단계는,
    하나의 사용자 특징 템플릿을 구성하는 클러스터가 복수로 존재할 때, 각각의 클러스터와 상기 사용자 특징 벡터와의 유사도를 산출하여, 더 큰 유사도를 해당 사용자 특징 템플릿과 상기 사용자 특징 벡터와의 유사도로 산출하는 단계
    를 더 포함하는 사용자 인식 방법.
  7. 제1항에 있어서,
    상기 c) 단계에서 특정 사용자가 인식된 경우,
    d) 기인식된 사용자에 대한 입력 영상을 수집하는 단계;
    e) 수집된 입력 영상으로부터 특징 벡터를 산출하여 기인식된 사용자에 대한 영상인지 여부를 재검증하는 단계;
    f) 상기 e)단계에서 기인식된 사용자로 재검증된 경우, 수집된 입력 영상으로 기인식된 사용자의 사용자 특징 템플릿을 갱신하는 단계
    를 더 포함하는 사용자 인식 방법.
  8. 제7항에 있어서,
    상기 e) 단계는,
    e-1) 수집된 입력 영상으로부터 특징 벡터를 산출하는 단계;
    e-2) 산출된 특징 벡터와 기인식된 사용자 특징 템플릿과의 유사도를 산출하 는 단계;
    e-3) 산출된 유사도 중 소정의 갱신 임계치(θt)를 넘는 유사도가 존재하는 경우, 수집된 입력 영상이 기인식된 사용자에 대한 입력 영상인 것으로 재검증하는 단계
    를 더 포함하는 사용자 인식 방법.
  9. 제8항에 있어서,
    상기 갱신 임계치(θt)는 상기 인식 임계치(θr)보다 큰 값으로 설정되는 사용자 인식 방법.
  10. 제7항에 있어서,
    상기 f) 단계는,
    f-1) 수집된 입력 영상의 특징 벡터와 기인식된 사용자의 사용자 특징 템플릿을 구성하는 클러스터간의 유사도를 산출하는 단계;
    f-2) 최대 유사도를 갖는 승자 클러스터를 찾아, 해당 특징 벡터와 승자 클러스터간의 유사도와 소정의 클러스터 분류 임계치(θc)를 비교하는 단계;
    f-3) 해당 특징 벡터와 승자 클러스터간의 유사도와 소정의 클러스터 분류 임계치(θc)보다 큰 경우, 해당 특징 벡터를 승자 클러스터의 멤버로 포함시키는 단계
    를 더 포함하는 사용자 인식 방법.
  11. 제10항에 있어서,
    상기 f-2) 단계 이후,
    해당 특징 벡터와 승자 클러스터간의 유사도와 소정의 클러스터 분류 임계치(θc)보다 작은 경우,
    새로운 클러스터를 생성하여, 해당 특징 벡터를 새로 생성된 클러스터의 멤버로 포함시키는 단계
    를 더 포함하는 사용자 인식 방법.
  12. 제10항에 있어서,
    상기 f-3) 단계 이후,
    f-4) 멤버가 추가된 승자 클러스터의 센트로이드를 재설정하는 단계
    f-5) 승자 클러스터의 멤버수가 소정의 클러스터 최대 멤버수를 초과하는 경우, 재설정된 센트로이드 해당 멤버를 승자 클러스터로부터 삭제하는 단계
    를 더 포함하는 사용자 인식 방법.
  13. 제11항에 있어서,
    새로운 클러스터가 추가되어 소정의 최대 클러스터 수를 초과하는 경우,
    사용자 특징 템플릿을 구성하는 클러스터 중 다른 클러스터와의 평균 유사도가 가장 높은 클러스터 및 사용자 인식에 참조되는 빈도수가 가장 낮은 클러스터 중 하나 이상을 기초로 삭제 대상 클러스터를 선택하는 단계; 및
    선택된 클러스터를 사용자 특징 템플릿으로부터 삭제하는 단계
    를 더 포함하는 사용자 인식 방법.
  14. 제3항, 제4항 및 제12항 중 어느 한 항에 있어서,
    상기 클러스터의 센트로이드는
    상기 클러스터의 멤버가 복수일 때, 클러스터의 다른 멤버들과의 유사도 합이 가장 큰 특징 벡터인 사용자 인식 방법.
  15. 제14항에 있어서,
    상기 센트로이드는
    Figure 112005029723956-PAT00008
    (Ck : 클러스터 ck : 클러스터 Ck 의 센트로이드 Fi, Fj: 특징 벡터)
    로부터 도출되는 사용자 인식 방법.
  16. 제5항, 제6항 및 제8항 중 어느 한 항에 있어서,
    사용자 특징 템플릿과 사용자 특징 벡터간의 유사도 산출은,
    Figure 112005029723956-PAT00009
    (Sk : 유사도 Ci : 클러스터 ci: 클러스터 Ci 의 센트로이드 Fq: 특징 벡터)
    로부터 도출되는 사용자 인식 방법.
  17. 제13항에 있어서,
    사용자 특징 템플릿을 구성하는 클러스터 중 다른 클러스터와의 평균 유사도가 가장 높은 클러스터는,
    Figure 112005029723956-PAT00010
    (Tp : P 인물의 템플릿 Ci, Cj: 템플릿 Tp 구성 클러스터
    Cp : 템플릿 Tp의 센트로이드 클러스터)
    로부터 도출되는 사용자 인식 방법.
  18. 제13항에 있어서,
    삭제 대상 클러스터 선택은,
    Figure 112005029723956-PAT00011
    (Cri: i번째 클러스터의 인식기여도,
    Csi: i번째 클러스터의 다른 클러스터들과의 평균유사도,
    Figure 112005029723956-PAT00012
    : 가중치)
    로부터 도출되는 사용자 인식 방법.
  19. 입력영상으로부터 사용자를 인식하는 시스템에 있어서,
    사용자 특징 정보인 사용자 특징 템플릿을 저장하는 데이타베이스;
    입력 영상으로부터 사용자 특징 벡터를 산출하는 특징 벡터 산출부;
    상기 특징 벡터를 멤버로 갖는 하나 이상의 클러스터를 생성하여 상기 클러스터를 포함하는 사용자 특징 정보인 사용자 특징 템플릿을 상기 데이타베이스에 저장하는 사용자 특징 정보 등록부;
    상기 특징 벡터와 기등록된 사용자 특징 템플릿과 유사도를 비교하여 소정의 인식 임계치(θr)를 넘는 유사도가 존재할 때 해당 사용자 특징 템플릿의 사용자를 입력 영상의 사용자로 인식하는 사용자 인식부를 포함하는
    사용자 인식 시스템.
  20. 제19항에 있어서,
    상기 사용자 인식부는
    상기 특징 벡터와 기등륵된 사용자 특징 템플릿과의 유사도를 비교하여 상기 인식 임계치(θr)를 넘는 유사도가 존재하지 않을 때, 상기 사용자 특징 정보 등록부가 상기 특징 벡터를 통해 새로운 사용자 특징 템플릿을 생성하여 상기 데이타베 이스에 저장하도록 하는
    사용자 인식 시스템.
  21. 제19항 또는 제20항에 있어서,
    상기 클러스터는 각 클러스터의 센트로이드와의 유사도가 소정의 클러스터 분류 임계치(θc)를 넘는 특징 벡터를 멤버로 하여 하나 이상 생성되는
    사용자 인식 시스템.
  22. 제19항 또는 제20항에 있어서,
    상기 사용자 인식부는
    상기 사용자 특징 템플릿을 구성하는 클러스터와 상기 사용자 특징 벡터간의 유사도 산출을 통해 사용자 특징 템플릿과 상기 사용자 특징 벡터간의 유사도를 산출하고,
    하나의 사용자 특징 템플릿을 구성하는 클러스터가 복수로 존재할 때 각각의 클러스터와 상기 사용자 특징 벡터와의 유사도를 산출하여 더 큰 유사도를 해당 사용자 특징 템플릿과 상기 사용자 특징 벡터와의 유사도로 산출하며,
    산출된 유사도 중 최대값이 상기 인식 임계치(θr)를 넘는 경우, 해당 사용자 템플릿의 사용자를 입력 영상의 사용자로 인식하는
    사용자 인식 시스템.
  23. 제19항에 있어서,
    특정 사용자가 인식된 경우, 기인식된 사용자에 대한 입력 영상을 수집하는 트래킹부;
    수집된 입력 영상으로부터 특징 벡터를 산출하여 산출된 특징 벡터와 기인식된 사용자 특징 템플릿과의 유사도를 산출하고,
    산출된 유사도 중 소정의 갱신 임계치(θt)를 넘는 유사도가 존재하는 경우, 수집된 입력 영상이 기인식된 사용자에 대한 입력 영상으로 확인하는 재검증부; 및
    수집된 입력 영상이 기인식된 사용자의 것으로 확인된 경우, 수집된 입력 영상으로 상기 데이타베이스에 저장된 사용자 특징 템플릿을 갱신하는 사용자 특징 정보 갱신부
    를 더 포함하는 사용자 인식 시스템.
  24. 제23항에 있어서,
    상기 갱신 임계치(θt)는 상기 인식 임계치(θr)보다 큰 값으로 설정되는 사용자 인식 시스템.
  25. 제24항에 있어서,
    상기 사용자 특징 정보 갱신부는
    수집된 입력 영상의 특징 벡터와 기인식된 사용자의 사용자 특징 템플릿을 구성하는 클러스터 간의 유사도를 산출하여 최대 유사도를 갖는 승자 클러스터를 찾아, 해당 특징 벡터와 승자 클러스터간의 유사도와 소정의 클러스터 분류 임계 치(θc)를 비교하여,
    해당 특징 벡터와 승자 클러스터간의 유사도가 소정의 클러스터 분류 임계치(θc)보다 큰 경우, 해당 특징 벡터를 승자 클러스터 멤버로 포함시키고,
    해당 특징 벡터와 승자 클러스터간의 유사도가 소정의 클러스터 분류 임계치(θc)보다 작은 경우, 새로운 클러스터를 생성하여, 해당 특징 벡터를 새로 생성된 클러스터 멤버로 포함시키는
    사용자 인식 시스템.
  26. 제25항에 있어서,
    상기 사용자 특징 정보 갱신부는
    멤버가 추가된 클러스터의 센트로이드를 재설정하고, 승자 클러스터의 멤버수가 소정의 클러스터 최대 멤버수를 초과하는 경우, 재설정된 센트로이드 해당 멤버를 승자 클러스터로부터 삭제하는
    사용자 인식 시스템.
  27. 제25항에 있어서,
    상기 사용자 특징 정보 갱신부는
    새로운 클러스터가 추가되어 소정의 최대 클러스터 수를 초과하는 경우, 사용자 특징 템플릿을 구성하는 클러스터 중 다른 클러스터와의 평균 유사도가 가장 높은 클러스터 및 사용자 인식에 참조되는 빈도수가 가장 낮은 클러스터 중 하나 이상을 기초로 삭제 대상 클러스터를 선택하여, 선택된 클러스터를 사용자 특징 템플릿으로부터 삭제하는
    사용자 인식 시스템.
  28. 제26항에 있어서,
    상기 클러스터의 센트로이드는
    상기 클러스터의 멤버가 복수일 때, 클러스터의 다른 멤버들과의 유사도 합이 가장 큰 특징 벡터로서,
    Figure 112005029723956-PAT00013
    (Ck : 클러스터 ck : 클러스터 Ck 의 센트로이드 Fi, Fj: 특징 벡터)
    로부터 도출되는 사용자 인식 시스템.
  29. 제19항 또는 제23항에 있어서,
    사용자 특징 템플릿과 사용자 특징 벡터간의 유사도 산출은
    Figure 112005029723956-PAT00014
    (Sk : 유사도 Ci : 클러스터 ci: 클러스터 Ci 의 센트로이드 Fq: 특징 벡터)
    로부터 도출되는 사용자 인식 시스템.
  30. 제27항에 있어서,
    사용자 특징 템플릿을 구성하는 클러스터 중 다른 클러스터와의 평균 유사도가 가장 높은 클러스터는,
    Figure 112005029723956-PAT00015
    (Tp : P 인물의 템플릿 Ci, Cj: 템플릿 Tp 구성 클러스터
    Cp : 템플릿 Tp의 센트로이드 클러스터)
    로부터 도출되는 사용자 인식 시스템
  31. 제27항에 있어서,
    삭제 대상 클러스터 선택은,
    Figure 112005029723956-PAT00016
    (Cri: i번째 클러스터의 인식기여도,
    Csi: i번째 클러스터의 다른 클러스터들과의 평균유사도,
    Figure 112005029723956-PAT00017
    : 가중치)
    로부터 도출되는 사용자 인식 시스템.
KR1020050047773A 2004-12-07 2005-06-03 사용자 인식 시스템 및 그 방법 KR20060063599A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/291,605 US7734067B2 (en) 2004-12-07 2005-12-01 User recognition system and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020040102472 2004-12-07
KR20040102472 2004-12-07

Publications (1)

Publication Number Publication Date
KR20060063599A true KR20060063599A (ko) 2006-06-12

Family

ID=37159572

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050047773A KR20060063599A (ko) 2004-12-07 2005-06-03 사용자 인식 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR20060063599A (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100681247B1 (ko) * 2005-05-27 2007-02-09 햄펙스 주식회사 이미지 기반의 컨텐츠 제공 시스템 및 그 방법
KR100870724B1 (ko) * 2007-05-25 2008-11-27 인하대학교 산학협력단 t―test를 이용한 영상 인식시스템 및 그 방법
KR100888751B1 (ko) * 2006-08-24 2009-03-17 연세대학교 산학협력단 객체 인식 장치 및 방법
KR100901231B1 (ko) * 2006-09-06 2009-06-08 야마하 가부시키가이샤 생체 인증 장치, 생체 인증 방법 및 프로그램 명령어를포함하는 기계 판독가능 매체
KR100944247B1 (ko) * 2007-05-29 2010-02-24 주식회사 에스원 얼굴 인식 방법 및 시스템
WO2015069087A1 (ko) * 2013-11-11 2015-05-14 삼성전자주식회사 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치
WO2015141892A1 (ko) * 2014-03-18 2015-09-24 삼성전자 주식회사 사용자 인식 방법 및 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100681247B1 (ko) * 2005-05-27 2007-02-09 햄펙스 주식회사 이미지 기반의 컨텐츠 제공 시스템 및 그 방법
KR100888751B1 (ko) * 2006-08-24 2009-03-17 연세대학교 산학협력단 객체 인식 장치 및 방법
KR100901231B1 (ko) * 2006-09-06 2009-06-08 야마하 가부시키가이샤 생체 인증 장치, 생체 인증 방법 및 프로그램 명령어를포함하는 기계 판독가능 매체
KR100870724B1 (ko) * 2007-05-25 2008-11-27 인하대학교 산학협력단 t―test를 이용한 영상 인식시스템 및 그 방법
WO2008147039A1 (en) * 2007-05-25 2008-12-04 Inha-Industry Partnership Institute System and method for recognizing images using t-test
KR100944247B1 (ko) * 2007-05-29 2010-02-24 주식회사 에스원 얼굴 인식 방법 및 시스템
WO2015069087A1 (ko) * 2013-11-11 2015-05-14 삼성전자주식회사 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치
KR20150054258A (ko) * 2013-11-11 2015-05-20 삼성전자주식회사 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치
WO2015141892A1 (ko) * 2014-03-18 2015-09-24 삼성전자 주식회사 사용자 인식 방법 및 장치

Similar Documents

Publication Publication Date Title
EP3076320B1 (en) Individual identification device, and identification threshold setting method
JP3621245B2 (ja) 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
KR20060063599A (ko) 사용자 인식 시스템 및 그 방법
Gawande et al. A novel algorithm for feature level fusion using SVM classifier for multibiometrics-based person identification
Gomez-Barrero et al. Efficient software attack to multimodal biometric systems and its application to face and iris fusion
EP2091021A1 (en) Face authentication device
KR20090073294A (ko) 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법
WO2009035377A2 (ru) Cпocoб и система для идентификации человека по изображению лицa
Azom et al. Face and Iris biometrics person identification using hybrid fusion at feature and score-level
Yin et al. A proposed approach for biometric-based authentication using of face and facial expression recognition
Awad Machine learning techniques for fingerprint identification: A short review
Soltane et al. Multi-modal biometric authentications: concept issues and applications strategies
Manzoor et al. An analysis of biometric based security systems
Akhtar et al. Biometric template update under facial aging
Matsuo et al. Arm swing identification method with template update for long term stability
Sadeghi et al. Modelling and segmentation of lip area in face images
Ribaric et al. A biometric verification system based on the fusion of palmprint and face features
Rajasekar et al. Efficient multimodal biometric recognition for secure authentication based on deep learning approach
Ipeayeda et al. Optimized gravitational search algorithm for feature fusion in a multimodal biometric system
Santos et al. Manifold learning for user profiling and identity verification using motion sensors
KR102199178B1 (ko) Tprl 알고리즘을 이용하여 얼굴 이미지로부터 신원을 확인하는 시스템 및 그 구동 방법
Aly et al. An adaptive multimodal biometrics system using PSO
Kulkarni Fingerprint feature extraction and classification by learning the characteristics of fingerprint patterns
Kavipriya et al. Human Age Estimation based on ear Biometrics using KNN
CN111626173B (zh) 一种更新数据库中人脸特征向量的方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application