KR20020074330A - 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치 - Google Patents

계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치 Download PDF

Info

Publication number
KR20020074330A
KR20020074330A KR1020010014302A KR20010014302A KR20020074330A KR 20020074330 A KR20020074330 A KR 20020074330A KR 1020010014302 A KR1020010014302 A KR 1020010014302A KR 20010014302 A KR20010014302 A KR 20010014302A KR 20020074330 A KR20020074330 A KR 20020074330A
Authority
KR
South Korea
Prior art keywords
image
face image
face
learned
eigenvalues
Prior art date
Application number
KR1020010014302A
Other languages
English (en)
Other versions
KR100571800B1 (ko
Inventor
기석철
이경무
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020010014302A priority Critical patent/KR100571800B1/ko
Publication of KR20020074330A publication Critical patent/KR20020074330A/ko
Application granted granted Critical
Publication of KR100571800B1 publication Critical patent/KR100571800B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치가 개시된다. 이 방법은 n(여기서, 1≤n≤학습된 얼굴 영상의 수이다.)을 '1'로 설정하는 단계와, 데이타 베이스화되어 있는 학습된 얼굴 영상과 입력 얼굴 영상을 임의의 n차 고유 공간에 투영시켜 고유 벡터와 고유값을 구하는 (b) 단계와, n차원의 고유값을 이용하여 학습된 얼굴 영상과 입력 얼굴 영상간의 유클리디언 거리를 구하는 단계와, 유클리디언 거리를 이용하여 Pn-1%의 학습 벡터들로 이루어진 집합에서 입력 얼굴 영상과 가장 유사한 Pn%의 학습 벡터들로 이루어진 집합을 추출하는 단계와, Pn%의 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나인가를 판단하는 단계와, Pn%의 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나가 아니라고 판단되면, n을 1만큼 증가시키고, (b) 단계로 진행하는 단계 및 Pn%의 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나라고 판단되면, 남겨진 하나의 고유값에 해당하는 학습된 얼굴 영상을 입력 얼굴 영상과 가장 유사한 영상으로서 결정하는 단계를 구비하는 것을 특징으로 한다. 그러므로, 계산량이 줄어들고 정합 성능이 향상되는 효과를 갖는다.

Description

계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치{Method and apparatus for face recognition based on hierarchical Principal Component Analysis}
본 발명은 얼굴 인식에 관한 것으로서, 특히 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치에 관한 것이다.
주요 성분 분석(PCA:Principal Component Analysis)에 기반하여 얼굴을 인식하는데 이용될 수 있는 종래의 방법이 "Detection, recognition and coding of complex objects using probabilistic eigenspace analysis"라는 제목의 미국 특허 번호 US5,710,833에 개시되어 있다. 개시된 종래의 특허는 영상 자체가 갖는 고유 정보의 손실을 최소화하면서 KL(Karhanen-Loeve) 변환을 이용하여 영상 데이타를 저 차원 고유 벡터 공간으로 투영시켜 정보를 축소시킨다. 그러나, 고유 벡터 공간으로 영상 데이타를 투영시킬 때, 종래에는 비효율적인 상관(correlation) 방법을 사용하기 때문에 계산량을 증가시킨다.
이 때, 얼굴 영상을 인식하기 위해 PCA를 이용하는 종래의 다른 방법은 계산량을 감소시키기 위해 너무 낮은 차원에서 정합을 수행함으로 인해 상세한 정보를 손실하여 오정합 가능성을 상대적으로 증가시키는 문제점을 갖는다. 즉, 투영되어 얻어진 상위 p%만의 벡터들만을 가지고 영상을 인식하므로 계산량을 많이 줄일 수 있지만, 고 차원에서의 정합을 무시함에 따라 잘못된 정합을 일으키는 가능성을 많이 갖는다. 한편, 정합 성능을 개선하기 위하여 고차원의 정합을 수행하면 많은 계산량으로 인한 인식 속도 저하의 문제가 발생한다.
본 발명이 이루고자 하는 기술적 과제는, 학습된 영상을 저 차원에서 고 차원으로 계층적으로 검색할 때 각 차원에서 검색되는 데이타의 수를 해당하는 고유값(eigen value)의 유사도에 비례하도록 하여 계산량과 정합 성능을 동시에 향상시킨 계층적 주요 성분 분석에 기반한 얼굴 인식 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 상기 얼굴 인식 방법을 수행하는 계층적 주요 성분 분석에 기반한 얼굴 인식 장치를 제공하는 데 있다.
도 1은 본 발명에 의한 계층적 주요 성분 분석에 기반한 얼굴 인식 방법을 설명하기 위한 플로우차트이다.
도 2는 도 1에 도시된 얼굴 인식 방법을 수행하는 본 발명에 의한 얼굴 인식 장치의 블럭도이다.
도 3은 학습된 얼굴 영상을 구하는 본 발명에 의한 얼굴 인식 방법을 설명하기 위한 플로우차트이다.
도 4는 입력 얼굴 영상을 구하는 본 발명에 의한 얼굴 인식 방법을 설명하기 위한 플로우차트이다.
도 5 (a) 및 (b)들은 얼굴 영상을 1차원 고유 공간에 투영시키는 것을 설명하기 위한 예시적인 도면이다.
도 6 (a) 및 (b)들은 얼굴 영상을 2차원 고유 공간에 투영시키는 것을 설명하기 위한 예시적인 도면이다.
도 7은 고유값의 크기에 따른 고유 벡터의 분포를 나타내는 그래프이다.
도 8은 동일 계산량에서의 본 발명과 종래의 얼굴 인식 성능을 비교하는 그래프이다.
상기 과제를 이루기 위한 본 발명에 의한 계층적 주요 성분 분석에 기반한 얼굴 인식 방법은, n(여기서, 1≤n≤k, k는 학습된 얼굴 영상의 수이다.)을 '1'로 설정하는 (a) 단계와, 주요 성분 분석(PCA) 공간상으로 변환된 미리 학습되어 데이타 베이스화되어 있는 상기 학습된 얼굴 영상과 상기 PCA 공간상으로 변환된 인식 대상이 되는 입력 얼굴 영상을 임의의 n차 고유 공간에 투영시켜 고유 벡터와 고유값을 구하는 (b) 단계와, 상기 n차원의 고유값을 이용하여 상기 학습된 얼굴 영상과 상기 입력 얼굴 영상간의 유클리디언 거리를 구하는 (c) 단계와, 상기 유클리디언 거리를 이용하여 Pn-1%의 학습 벡터들로 이루어진 집합에서 상기 입력 얼굴 영상과 가장 유사한 Pn%의 학습 벡터들로 이루어진 집합을 추출하는 (d) 단계와, 상기 Pn%의 상기 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나인가를 판단하는 (e) 단계와, 상기 Pn%의 상기 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나가 아니라고 판단되면, 상기 n을 1만큼 증가시키고, 상기 (b) 단계로 진행하는 (f) 단계 및 상기 Pn%의 상기 학습 벡터들로 이루어진 집합에 남겨진 상기 고유값의 수가 하나라고 판단되면, 남겨진 하나의 상기 고유값에 해당하는 상기 학습된 얼굴 영상을 상기 입력 얼굴 영상과 가장 유사한 영상으로서 결정하는 (g) 단계로 이루어지는 것이 바람직하다.
상기 다른 과제를 이루기 위한 본 발명에 의한 계층적 주요 성분 분석에 기반한 얼굴 인식 장치는, 제어 신호에 응답하여 상향 카운팅하고, 카운팅된 결과를 상기 n으로서 출력하는 카운터와, 상기 학습된 얼굴 영상과 상기 입력 얼굴 영상을 임의의 상기 n차 고유 공간에 투영시켜 생성한 고유 벡터와 고유값을 출력하는 영상 투영부와, 상기 영상 투영부로부터 출력되는 상기 고유값으로부터 상기 유클리디언 거리를 계산하고, 계산된 유클리디언 거리를 출력하는 거리 계산부와, 상기 거리 계산부로부터 입력한 상기 유클리디언 거리로부터 Pn-1%의 벡터들로 이루어진 집합에서 상기 입력 얼굴 영상과 가장 유사한 Pn%의 벡터들로 이루어진 집합을 추출하는 유사 벡터 추출부와, 상기 Pn%의 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나인가를 검사하고, 검사된 결과에 응답하여 상기 제어 신호를 발생하는 제어부 및 상기 제어 신호에 응답하여, 남겨진 하나의 상기 고유값에 해당하는 상기 학습된 얼굴 영상을 입력하여 상기 입력 얼굴 영상과 가장 유사한 영상으로서 출력하는 영상 결정부로 구성되는 것이 바람직하다.
이하, 본 발명에 의한 계층적 주요 성분 분석에 기반한 얼굴 인식 방법과 그 방법을 수행하는 본 발명에 의한 얼굴 인식 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 1은 본 발명에 의한 계층적 주요 성분 분석에 기반한 얼굴 인식 방법을 설명하기 위한 플로우차트로서, 최소의 유클리디언 거리를 구하여 남은 한 개의 고유값(eigen value)으로부터 입력 얼굴 영상과 유사한 학습된 얼굴 영상을 구하는 단계(제10 ∼ 제22 단계들)로 이루어진다.
도 2는 도 1에 도시된 얼굴 인식 방법을 수행하는 본 발명에 의한 얼굴 인식 장치의 블럭도로서, 카운터(40), 영상 투영부(42), 거리 계산부(44), 유사 벡터 추출부(46), 제어부(48) 및 영상 결정부(50)로 구성된다.
도 1에 도시된 본 발명에 의한 얼굴 인식 방법은 먼저, n(여기서, 1≤n≤k, k는 학습된 얼굴 영상의 수이다.)을 '1'로 설정한다(제10 단계). 제10 단계후에, 주요 성분 분석(PCA) 공간상으로 변환된 미리 학습되어 데이타 베이스화되어 있는 학습된 얼굴 영상과 PCA 공간상으로 변환된 인식 대상이 되는 입력 얼굴 영상을 임의의 n차 고유 공간(eigen space)에 투영시켜 고유 벡터(eigen vector)와 고유값을 구한다(제12 단계). 이를 위해, 제어부(48)로부터 출력되는 제어 신호에 응답하여 상향 카운팅하고, 카운팅된 결과를 n으로서 영상 투영부(42)로 출력하는 카운터(40)가 마련될 수 있다. 이 때, 제10 단계를 수행하기 위해, 카운터(40)는 초기 상태에서 '1'로 설정되고, 설정된 '1'을 n으로서 영상 투영부(42)로 출력한다. 또한, 제12 단계를 수행하기 위해, 영상 투영부(42)는 입력단자 IN1을 통해 입력된 학습된 얼굴 영상과 입력단자 IN2를 통해 입력된 입력 얼굴 영상을 임의의 n차 고유 공간에 투영시켜 생성한 고유 벡터와 고유값을 거리 계산부(44)로 출력한다.
이하, 도 2에 입력단자 IN1 및 IN2를 통해 각각 입력되는 학습된 얼굴 영상과 입력 얼굴 영상을 구하는 본 발명에 의한 얼굴 인식 방법을 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 3은 학습된 얼굴 영상을 구하는 본 발명에 의한 얼굴 인식 방법을 설명하기 위한 플로우차트로서, 정규화 및 PCA 변환을 통해 학습된 얼굴 영상을 구하는 단계들(제60 ∼ 제68 단계들)로 이루어진다.
도 3을 참조하면, 학습된 얼굴 영상을 얻기 위해, 먼저, 인식하고자 하는 N(여기서, N≥k 이다.)명의 얼굴을 포함하는 학습될 얼굴 영상을 준비한다(제60 단계). 제60 단계후에, 준비된 학습될 얼굴 영상에서 얼굴 부분의 영역과 눈 중심점의 위치를 찾는다(제62 단계). 제62 단계후에, 눈 중심점의 위치를 기준으로 얼굴 부분의 영역을 동일한 포즈(pose)와 크기로 정규화한다(제64 단계). 제64 단계후에, 정규화된 결과를 PCA 공간상으로 변환한다(제66 단계). 제66 단계후에, PCA 공간상으로 변환된 모든 결과를 k차원의 고유값으로 표현하여 각 고유값을 하나의 학습된 얼굴 영상으로서 등록하고 제12 단계로 진행한다.
도 4는 입력 얼굴 영상을 구하는 본 발명에 의한 얼굴 인식 방법을 설명하기 위한 플로우차트로서, 정규화 및 PCA 변환을 통해 입력 얼굴 영상을 구하는 단계(제80 ∼ 제86 단계들)로 이루어진다.
도 4를 참조하면, 입력 얼굴 영상을 구하기 위해, 먼저, 현재 인식 대상이 될 하나의 얼굴을 포함하는 영상을 준비한다(제80 단계). 제80 단계후에, 준비된 영상에서 얼굴 부분의 영역과 눈 중심점의 위치를 찾는다(제82 단계). 제82 단계후에, 눈 중심점의 위치를 기준으로 얼굴 부분의 영역을 동일한 포즈와 크기로 정규화한다(제84 단계). 제84 단계후에, 정규화된 결과를 PCA 공간상으로 변환하고, 변환된 결과를 입력 얼굴 영상으로서 결정한 후에, 제10 단계로 진행한다.
한편, 전술한 바와 같이 제12 단계가 수행된 후에, 거리 계산부(44)는 영상 투영부(42)로부터 출력되는 n차원의 고유값만을 이용하여 학습된 얼굴 영상과 입력 얼굴 영상간의 유클리디언 거리를 계산하고, 계산된 유클리디언 거리(En)를 유사 벡터 추출부(46)로 출력한다(제14 단계).
제14 단계후에, 유사 벡터 추출부(46)는 거리 계산부(44)로부터 입력한 유클리디언 거리(En)값이 가까운 Pn-1%의 학습 벡터들로 이루어진 집합에서 입력 얼굴 영상과 가장 유사한 Pn%의 학습 벡터들로 이루어진 벡터 집합을 추출한다(제16 단계). 예컨데, Pn-1%의 학습 벡터들의 집합을 Dn-1이라고 할 때, n차 공간에서는 이들 Pn-1%의 학습 벡터 집합에 포함된 학습 벡터들에 대해서만 검색을 수행한다.
제16 단계후에, 제어부(48)는 유사 벡터 추출부(46)로부터 출력되는 Pn%의 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나인가를 검사하고, 검사된 결과에 응답하여 생성한 제어 신호를 카운터(40) 및 영상 결정부(50)로 각각 출력한다(제18 단계).
만일, 유사 벡터 추출부(46)로부터 출력되는 Pn%의 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나가 아니라고 판단될 경우, 제어부(48)는 제어 신호를 발생하여 n이 1만큼 증가되도록 카운터(40)를 상향 카운팅시킨다(제20 단계). 이 때, 제20 단계에서 Pnnmax(여기서, λ는 고유값을 의미한다.)가 된다.
따라서, 제18 단계에서 학습된 얼굴 영상으로서 등록된 고유값이 한 개만 존재할 때까지 제12 ∼ 제20 단계들이 반복적으로 수행된다. 이는, 상향 카운팅된 결과가 카운터(40)로부터 영상 투영부(42)로 출력될 때마다 영상 투영부(42), 거리 계산부(44), 유사 벡터 추출부(46) 및 제어부(48)가 제12, 제14, 제16 및 제18 단계를 각각 수행하도록 하므로서 가능해진다.
그러나, 유사 벡터 추출부(46)에서 추출된 Pn%의 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나라고 판단될 경우, 제어부(48)로부터 출력되는 제어 신호에 응답하여, 영상 결정부(50)는 남겨진 하나의 고유값에 해당하며 입력단자 IN1을 통해 입력된 학습된 얼굴 영상을 입력 얼굴 영상과 가장 유사한 영상으로서 결정하여 출력단자 OUT를 통해 출력한다(제22 단계). 결국, n이 증가할 수록 학습 벡터들로 이루어진 집합(Dn)에 포함된 고유값의 수는 순차적으로 감소하게 되고, 최종적인 벡터 집합(Dn)에는 하나의 고유값만이 존재하게 됨을 알 수 잇다.
본 발명의 이해를 돕기 위해, 도 1 및 도 2에 도시된 본 발명에 의한 얼굴 인식 방법 및 장치를 첨부한 도면들을 참조하여 다음과 같이 설명한다.
도 5 (a) 및 (b)들은 얼굴 영상을 1차원(n=1) 고유 공간에 투영시키는 것을설명하기 위한 예시적인 도면이다. 여기서, x는 얼굴 영상을 나타낸다.
도 6 (a) 및 (b)들은 얼굴 영상을 2차원(n=2) 고유 공간에 투영시키는 것을 설명하기 위한 예시적인 도면이다.
먼저, n=1인 경우, 도 1에 도시된 제12 단계는 도 5 (a)에 도시된 얼굴 영상을 도 5 (b)에 도시된 바와 같이 1차원 고유 공간에 투영한다. 이 때, 제14 단계를 수행하여 구한 유클리디언 거리로부터 P1% 벡터 집합이 제16 단계에서 추출되고, 추출된 P1%의 벡터 집합에 존재하는 고유값의 수가 한 개 보다 많다고 제18 단계에서 판단되어, 제20 단계에서 n이 2로 증가된다.
n=2로 된 다음, 제12 단계를 수행하기 위해, 영상 투영부(42)는 도 6 (a)에 도시된 영상을 다시 도 6 (b)에 도시된 바와 같이 2차원 고유 공간으로 투영한다. 이 때, 제14 단계를 수행하여 구한 유클리디언 거리로부터 P2%의 벡터 집합이 제16 단계에서 추출되고, P2%의 벡터 집합에 존재하는 고유값의 수가 도 6 (b)에 도시된 바와 같이 한개 남아있다고 제18 단계에서 판단되면, 즉, 최종적으로 최소의 유클리디언 거리를 갖는 원(90)이 발견되면, 남아 있는 한 개의 고유값에 해당하는 학습된 얼굴 영상이 입력 얼굴 영상과 가장 유사한 영상으로 결정된다.
결국, 도 1 및 도 2에 도시된 본 발명에 의한 얼굴 인식 방법 및 장치는 PCA를 통해 얻어진 고유 벡터를 고유값에 따라 그 중요도 순으로 정렬하고, 저 차원으로부터 고 차원으로 고유 벡터 공간을 단계적으로 차원을 이동해가면서 정합(matching)을 수행한다. 여기서, PCA를 이용하여 얻어진 고유 벡터들이 그들의고유값에 의존하여 중요도가 결정되는 이유를 살펴보면 다음과 같다.
도 7은 고유값의 크기에 따른 고유 벡터의 분포를 나타내는 그래프로서, 횡축은 고유 벡터의 수를 나타내고 종축은 고유값을 각각 나타낸다.
일반적으로 고유값이 높은 고유 벡터는 그 영상에서 상대적으로 중요한 정보를 갖게 되고, 고유값이 낮은 벡터는 상대적으로 중요도가 낮은 정보를 갖게 된다. 왜냐하면, 도 7에 도시된 바와 같이, 대부분의 에너지는 상위 몇 개(약 20%)의 고유값들이 차지하고 있기 때문이다. 따라서, 높은 고유값을 갖는 소수의 상위 고유 벡터들만을 사용한 저 차원 공간으로 원래의 입력 얼굴 영상 벡터들을 투영하여 비교해도 많은 정보 손실없이 비교적 정확한 정합이 이루어질 수 있다.
그럼에도 불구하고, 본 발명에서는 잘못된 정합의 가능성을 줄이기 위해, 저 차원으로부터 고 차원으로 계층적으로 고유값을 검색해간다. 또한, 본 발명에 의한 얼굴 인식 방법 및 장치는 종래의 방법과 달리, 각 차원에서 소수의 정합 후보만을 선별적으로 선택하므로써 전체적인 계산량과 정합 성능을 향상시켰다. 예컨데, 얼굴 영상을 인식하기 위해서, 본 발명에 의한 계층적 PCA를 이용할 때와, 종래와 같이 정규화된 상관(normalized correlation) 또는 PCA를 이용할 때의 계산량을 살펴보면 다음과 같다.
영상의 크기가 M이라고 할 때, 먼저 종래의 정규화된 상관을 이용할 경우의 계산량은 O(M2×N)이고, 종래의 PCA를 이용할 경우의 계산량은 O(k×M2+ k×N)가 되는 반면, 본 발명에 의한 계층적 PCA를 이용할 경우의 계산량은 O(k×M2+ N×Λ)가 된다. 여기서, O는 차수(Order)를 나타내며 ( )의 주 인자(main factor)에 의해 곱셈의 수가 거의 정해지며, Λ는 다음 수학식 1과 같이 표현된다.
그러므로, 본 발명에 의한 얼굴 인식 방법 및 장치는 종래의 방식보다 전체적인 계산량을 줄일 수 있음을 알 수 있다. 이 때, 동일한 계산량에서의 종래와 본 발명의 얼굴 인식율을 그래프로서 표현하면 다음과 같다.
도 8은 동일 계산량에서의 본 발명과 종래의 얼굴 인식 성능을 비교하는 그래프로서, 횡축은 곱셈의 차수(order)를 나타내고, 종축은 인식율을 %로 나타낸다.
도 8을 참조하면, 동일한 계산량에서 본 발명에 의한 얼굴 인식 방법 및 장치가 종래의 방식보다 향상된 얼굴 인식율을 가짐을 알 수 있다.
이상에서 설명한 바와 같이, 본 발명에 의한 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치는 학습된 얼굴 영상을 저 차원에서 고 차원으로 계층적으로 검색하기 때문에 잘못된 정합의 가능성을 줄여 정합 성능을 향상시킬 수 있을 뿐만 아니라, 각 차원에서 검색되는 데이타의 수를 해당하는 고유값에 비례하도록 하기 때문에 계산량도 줄일 수 있는 효과를 갖는다.

Claims (4)

  1. (a) n(여기서, 1≤n≤k, k는 학습된 얼굴 영상의 수이다.)을 '1'로 설정하는 단계;
    (b) 주요 성분 분석(PCA) 공간상으로 변환된 미리 학습되어 데이타 베이스화되어 있는 상기 학습된 얼굴 영상과 상기 PCA 공간상으로 변환된 인식 대상이 되는 입력 얼굴 영상을 임의의 n차 고유 공간에 투영시켜 고유 벡터와 고유값을 구하는 단계;
    (c) 상기 n차원의 고유값을 이용하여 상기 학습된 얼굴 영상과 상기 입력 얼굴 영상간의 유클리디언 거리를 구하는 단계;
    (d) 상기 유클리디언 거리를 이용하여 Pn-1%의 학습 벡터들로 이루어진 집합에서 상기 입력 얼굴 영상과 가장 유사한 Pn%의 학습 벡터들로 이루어진 집합을 추출하는 단계;
    (e) 상기 Pn%의 상기 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나인가를 판단하는 단계;
    (f) 상기 Pn%의 상기 학습 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나가 아니라고 판단되면, 상기 n을 1만큼 증가시키고, 상기 (b) 단계로 진행하는 단계; 및
    (g) 상기 Pn%의 상기 학습 벡터들로 이루어진 집합에 남겨진 상기 고유값의 수가 하나라고 판단되면, 남겨진 하나의 상기 고유값에 해당하는 상기 학습된 얼굴 영상을 상기 입력 얼굴 영상과 가장 유사한 영상으로서 결정하는 단계를 구비하는것을 특징으로 하는 계층적 주요 성분 분석(PCA)에 기반한 얼굴 인식 방법.
  2. 제1 항에 있어서, 상기 얼굴 인식 방법은
    N(여기서, N≥k 이다.)명의 얼굴을 포함하는 학습될 얼굴 영상을 준비하는 단계;
    상기 학습될 얼굴 영상에서 얼굴 부분의 영역과 눈 중심점의 위치를 찾는 단계;
    상기 눈 중심점의 위치를 기준으로 상기 얼굴 부분의 영역을 동일한 포즈와 크기로 정규화하는 단계;
    상기 정규화된 결과를 상기 PCA 공간상으로 변환하는 단계; 및
    상기 PCA 공간상으로 변환된 모든 결과를 k차원의 고유값으로 표현하여 상기 학습된 얼굴 영상으로서 등록하고 상기 (b) 단계로 진행하는 단계를 더 구비하는 것을 특징으로 하는 계층적 주요 성분 분석(PCA)에 기반한 얼굴 인식 방법.
  3. 제1 항에 있어서, 상기 얼굴 인식 방법은
    현재 인식대상이 되는 하나의 얼굴을 포함하는 영상을 준비하는 단계;
    준비된 상기 영상에서 얼굴 부분의 영역과 눈 중심점의 위치를 찾는 단계;
    상기 눈 중심점의 위치를 기준으로 상기 얼굴 부분의 영역을 동일한 포즈와 크기로 정규화하는 단계; 및
    상기 정규화된 결과를 상기 PCA 공간상으로 변환하고, 변환된 결과를 상기입력 얼굴 영상으로서 결정하고 상기 (a) 단계로 진행하는 단계를 더 구비하는 것을 특징으로 하는 계층적 주요 성분 분석에 기반한 얼굴 인식 방법.
  4. 제1 항에 있어서, 상기 얼굴 인식 방법을 수행하는 얼굴 인식 장치에 있어서,
    제어 신호에 응답하여 상향 카운팅하고, 카운팅된 결과를 상기 n으로서 출력하는 카운터;
    상기 학습된 얼굴 영상과 상기 입력 얼굴 영상을 임의의 상기 n차 고유 공간에 투영시켜 생성한 고유 벡터와 고유값을 출력하는 영상 투영부;
    상기 영상 투영부로부터 출력되는 상기 고유값으로부터 상기 유클리디언 거리를 계산하고, 계산된 유클리디언 거리를 출력하는 거리 계산부;
    상기 거리 계산부로부터 입력한 상기 유클리디언 거리로부터 Pn-1%의 벡터들로 이루어진 집합에서 상기 입력 얼굴 영상과 가장 유사한 Pn%의 벡터들로 이루어진 집합을 추출하는 유사 벡터 추출부;
    상기 Pn%의 벡터들로 이루어진 집합에 남겨진 고유값의 수가 하나인가를 검사하고, 검사된 결과에 응답하여 상기 제어 신호를 발생하는 제어부; 및
    상기 제어 신호에 응답하여, 남겨진 하나의 상기 고유값에 해당하는 상기 학습된 얼굴 영상을 입력하여 상기 입력 얼굴 영상과 가장 유사한 영상으로서 출력하는 영상 결정부를 구비하는 것을 특징으로 하는 계층적 주요 성분 분석에 기반한얼굴 인식 장치.
KR1020010014302A 2001-03-20 2001-03-20 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치 KR100571800B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010014302A KR100571800B1 (ko) 2001-03-20 2001-03-20 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010014302A KR100571800B1 (ko) 2001-03-20 2001-03-20 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20020074330A true KR20020074330A (ko) 2002-09-30
KR100571800B1 KR100571800B1 (ko) 2006-04-17

Family

ID=27697975

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010014302A KR100571800B1 (ko) 2001-03-20 2001-03-20 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치

Country Status (1)

Country Link
KR (1) KR100571800B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100749380B1 (ko) * 2006-03-10 2007-08-16 연세대학교 산학협력단 암호화 생체인식시스템의 고유 생체코드 생성방법
KR100898766B1 (ko) * 2007-09-21 2009-05-20 한국전자통신연구원 얼굴 인식 장치, 얼굴 인식 등록 및 인증 방법
CN103093184A (zh) * 2011-11-03 2013-05-08 南京理工大学常熟研究院有限公司 一种基于列向量展开二维主成分分析的人脸识别方法
CN109459409A (zh) * 2017-09-06 2019-03-12 盐城工学院 一种基于knn的近红外异常光谱识别方法
CN112766014A (zh) * 2019-10-21 2021-05-07 深圳君正时代集成电路有限公司 一种人脸识别中进行自动学习的识别方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100749380B1 (ko) * 2006-03-10 2007-08-16 연세대학교 산학협력단 암호화 생체인식시스템의 고유 생체코드 생성방법
KR100898766B1 (ko) * 2007-09-21 2009-05-20 한국전자통신연구원 얼굴 인식 장치, 얼굴 인식 등록 및 인증 방법
CN103093184A (zh) * 2011-11-03 2013-05-08 南京理工大学常熟研究院有限公司 一种基于列向量展开二维主成分分析的人脸识别方法
CN109459409A (zh) * 2017-09-06 2019-03-12 盐城工学院 一种基于knn的近红外异常光谱识别方法
CN109459409B (zh) * 2017-09-06 2022-03-15 盐城工学院 一种基于knn的近红外异常光谱识别方法
CN112766014A (zh) * 2019-10-21 2021-05-07 深圳君正时代集成电路有限公司 一种人脸识别中进行自动学习的识别方法

Also Published As

Publication number Publication date
KR100571800B1 (ko) 2006-04-17

Similar Documents

Publication Publication Date Title
Yang et al. Hidden markov model for gesture recognition
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
Kadir et al. Minimal Training, Large Lexicon, Unconstrained Sign Language Recognition.
Walker et al. Locating Salient Object Features.
US20050226509A1 (en) Efficient classification of three dimensional face models for human identification and other applications
JP2014232533A (ja) Ocr出力検証システム及び方法
US10872258B2 (en) Adaptive image cropping for face recognition
CN109993061B (zh) 一种人脸检测与识别方法、系统以及终端设备
Haque et al. Two-handed bangla sign language recognition using principal component analysis (PCA) and KNN algorithm
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
US7593566B2 (en) Data recognition device
CN105184260A (zh) 一种图像特征提取方法及行人检测方法及装置
KR19990010210A (ko) 대용량 패턴 정합 장치 및 방법
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
Liu et al. Audio-visual keyword spotting based on adaptive decision fusion under noisy conditions for human-robot interaction
JPH10240930A (ja) パターン認識方法およびパターン認識装置
KR100571800B1 (ko) 계층적 주요 성분 분석에 기반한 얼굴 인식 방법 및 장치
JP3537949B2 (ja) パターン認識装置及び同装置における辞書修正方法
CN116258938A (zh) 基于自主进化损失的图像检索与识别方法
CN111914718B (zh) 基于平均影响值数据变换的特征加权pca人脸识别方法
Yektaii et al. A criterion for measuring the separability of clusters and its applications to principal component analysis
Hahmann et al. Model interpolation for eye localization using the Discriminative Generalized Hough Transform
Tralie et al. Multi-scale geometric summaries for similarity-based sensor fusion
Krishnan et al. Similarity measure between two gestures using triplets
Hahmann et al. Eye localization using the discriminative generalized hough transform

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee