KR100723417B1 - 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치 - Google Patents

얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치 Download PDF

Info

Publication number
KR100723417B1
KR100723417B1 KR1020050128742A KR20050128742A KR100723417B1 KR 100723417 B1 KR100723417 B1 KR 100723417B1 KR 1020050128742 A KR1020050128742 A KR 1020050128742A KR 20050128742 A KR20050128742 A KR 20050128742A KR 100723417 B1 KR100723417 B1 KR 100723417B1
Authority
KR
South Korea
Prior art keywords
fourier
feature
face image
frequency band
image
Prior art date
Application number
KR1020050128742A
Other languages
English (en)
Inventor
황원준
박규태
왕하이타오
기석철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050128742A priority Critical patent/KR100723417B1/ko
Priority to US11/642,883 priority patent/US20070147683A1/en
Application granted granted Critical
Publication of KR100723417B1 publication Critical patent/KR100723417B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징 추출 방법 및 그 장치가 개시된다. 본 발명의 얼굴 인식 방법은 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 단계; 다중 서브 영상들을 푸리에 변환하고, 변환 결과를 이용하여 다중 서브 영상들에 대한 푸리에 특징을 각각 추출하는 단계; 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 푸리에 특징들 간의 유사도를 측정하는 단계; 및 유사도를 복수의 타겟 영상에 대해 구하고, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 단계를 포함함을 특징으로 한다.

Description

얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징 추출 방법 및 그 장치{Apparatuses and methods for recognizing face, and apparatus and method for extracting face from multiple face images}
도 1은 본 발명에 따른 얼굴 영상에서 푸리에 특징(Fourier feature)을 추출하는 장치에 대한 블록도를 도시한 것이다.
도 2는 본 발명에 따른 얼굴 영상에서 푸리에 특징을 추출하는 방법에 대한 흐름도를 도시한 것이다.
도 3은 푸리에 영역에 분포하는 복수의 클래스를 예시한 것이다.
도 4(a)는 저주파수 대역을 나타낸다.
도 4(b)는 중간 주파수 이하 대역을 나타낸다.
도 4(c)는 고주파수 대역을 포함하는 전체 주파수 대역을 나타낸다.
도 5는 본 발명에 따른 다중 얼굴 모델을 이용한 얼굴 인식 장치에 대한 블록도를 도시한 것이다.
도 6은 본 발명에 따른 다중 얼굴 모델을 이용한 얼굴 인식 방법에 대한 흐름도를 도시한 것이다.
도 7(a) 내지 도 7(d)는 입력 영상으로부터 서로 다른 눈 거리를 갖는 서브 영상들을 생성하는 과정을 도시한 것이다.
도 8은 본 발명에 따른 얼굴 인식 장치에 대한 블록도이다.
도 9는 본 발명에 따른 얼굴 인식 방법에 따른 흐름도를 도시한 것이다.
도 10은 본 발명 및 종래 기술에 의한 얼굴 인식 실험에 사용되는 얼굴 영상들의 예를 도시한 것이다.
본 발명은 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징 추출 방법 및 그 장치에 관한 것이다.
얼굴 인식은 카메라를 통해 입력되는 얼굴 영상을 템플릿(Templates)과 비교하여 사람을 식별하는 것을 말한다.
얼굴인식의 근간을 이루는 기술은 두 가지로 구분된다. 그 첫 번째는 얼굴의 각 구성요소의 특징값과 상호관계- 예컨대 코 길이와 눈으로부터의 거리 등을 비교하는 것이고, 두 번째는 얼굴의 가장 중요한 이미지 데이터, 예를 들어 코의 크기 등을 데이터베이스에 저장되어 있는 얼굴의 데이터와 비교하여 매칭(matching)하는 방법이다.
얼굴 영상은 원래의 3차원 얼굴이 2차원으로 투영(projection)된 것이기 때문에 깊이 정보, 크기, 회전 등 인식에 있어 중요한 여러 정보의 손실이 있고, 기본적으로 패턴으로서 얼굴이 가지는 복잡성과, 조명이나 배경 등의 환경의 복잡성 등으로 인하여 얼굴 인식 문제가 어려워진다. 또한 안경이나 부분적인 겹침, 얼굴 표정의 변화 등의 여러 가지 요인이 인식을 어렵게 만든다.
얼굴은 형태가 일정한 고정된 물체가 아니기 때문에 영상으로부터 사람을 식별하는 것이 더욱 어렵다. 즉, 수백만의 서로 다른 형태의 얼굴이 존재하며 동일한 얼굴도 여러 가지 형태의 다양한 변형이 가능하다. 집단의 얼굴은 종족, 성별 및 개인에 따라 차이가 나고 개인의 얼굴은 표정, 나이, 머리모양 및 화장에 따라 다양하게 변화한다.
따라서 일정한 얼굴 크기의 영상에 대한 갖는 얼굴 모델을 사용하는 경우 그 얼굴에 대한 글로벌 특징을 얻기가 어렵게 되어, 다양한 변형이 있는 얼굴 영상으로부터 사람을 식별해내기가 어렵다.
본 발명이 이루고자 하는 기술적 과제는 영상 크기는 같지만 눈 사이 거리가 각기 다른 얼굴 영상들에 대해 푸리에 영역에서 얼굴 특징 정보를 분석함으로써 얼굴을 인식하는 방법 및 그 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는 얼굴 영상에서 푸리에 영역의 특징들을 추출하는 방법 및 그 장치를 제공하는 데 있다.
본 발명이 이루고자 하는 또 다른 기술적 과제는 영상 크기는 같지만 눈 사이 거리가 각기 다른 얼굴 영상들에 대한 얼굴 모델을 사용하여 얼굴을 인식하는 방법 및 그 장치를 제공하는 데 있다.
상기 기술적 과제를 이루기 위한, 본 발명의 얼굴 인식 방법은 질의 얼굴 영 상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 단계; 상기 다중 서브 영상들을 푸리에 변환하고, 변환 결과를 이용하여 상기 다중 서브 영상들에 대한 푸리에 특징을 각각 추출하는 단계; 상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 푸리에 특징들 간의 유사도를 측정하는 단계; 및 상기 유사도를 복수의 타겟 영상에 대해 구하고, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 단계를 포함함을 특징으로 한다.
상기 기술적 과제를 이루기 위한, 본 발명의 얼굴 인식 장치는 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 다중 서브 영상 생성부; 상기 다중 서브 영상들을 푸리에 변환하고, 변환 결과를 이용하여 푸리에 특징을 각각 추출하는 푸리에 특징 추출부; 및 상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 푸리에 특징들 간의 유사도를 측정하고, 상기 유사도를 복수의 타겟 영상에 대해 구하며, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 인식부를 포함함을 특징으로 한다.
상기 다른 기술적 과제를 이루기 위한, 본 발명의 특징 추출 방법은 입력 영상을 푸리에 변환하는 단계; 푸리에 변환된 결과를 푸리에 영역별로 분류하는 단계; 상기 각 푸리에 영역에 대해 해당 푸리에 영역의 특성을 반영하는 주파수 대역을 분류하는 단계; 분류된 주파수 대역에서 특징을 추출하는 단계; 및 추출된 특징을 상기 푸리에 영역별로 연결하고, 다시 전체적으로 연결하여 상기 입력 영상에 대한 특징을 출력하는 단계를 포함함을 특징으로 한다.
상기 다른 기술적 과제를 이루기 위한, 본 발명의 특징 추출 장치는 입력 영 상을 푸리에 변환하는 푸리에 변환부; 푸리에 변환된 결과를 푸리에 영역별로 분류하는 푸리에 영역 분류부; 상기 각 푸리에 영역에 대해 해당 푸리에 영역의 특성에 따른 주파수 대역을 분류하는 주파수 대역 분류부; 분류된 주파수 대역에 해당하는 푸리에 성분을 이용하여 특징을 추출하는 특징 추출부; 및 추출된 특징을 상기 푸리에 영역별로 연결하고, 연결된 특징을 전체적으로 연결하여 상기 푸리에 특징을 생성하는 특징 연결부를 포함함을 특징으로 한다.
상기 다른 기술적 과제를 이루기 위한, 본 발명의 얼굴 인식 방법은 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 단계; 상기 다중 서브 영상들에 대한 특징을 각각 추출하는 단계; 상기 다중 서브 영상들의 특징들을 이용하여 상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 특징들 간의 유사도를 측정하는 단계; 및 상기 유사도를 복수의 타겟 영상에 대해 구하고, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 단계를 포함함을 특징으로 한다.
상기 다른 기술적 과제를 이루기 위한, 본 발명의 얼굴 인식 장치는 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 다중 서브 영상 생성부; 상기 다중 서브 영상들에 대한 특징을 각각 추출하는 특징 추출부; 및 상기 다중 서브 영상들의 특징들을 이용하여 상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 특징들 간의 유사도를 측정하고, 상기 유사도를 복수의 타겟 영상에 대해 구하며, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 인식부를 포함함을 특징으로 한다.
상기의 과제를 이루기 위하여 본 발명에서는, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
이하에서 첨부된 도면을 참조하여 본 발명의 특징으로 보다 상세하게 설명하기로 한다.
도 1은 본 발명에 따른 얼굴 영상에서 푸리에 특징을 추출하는 장치에 대한 블록도를 도시한 것이다. 도시된 푸리에 특징 추출 장치는 푸리에 변환부(11), 푸리에 영역 분류부(12), 주파수 대역 분류부(13), 특징 추출부(14) 및 특징 연결부(15)를 포함한다. 각 구성요소의 동작을 도 2에 도시된 흐름도를 참조하여 설명하기로 한다.
푸리에 변환부(11)는 입력 영상을 다음 식과 같이 푸리에 변환한다(21단계).
Figure 112005075747054-pat00001
여기서, M은 영상에서 x축 방향의 픽셀 수, N은 y축 방향의 픽셀 수,
Figure 112005075747054-pat00002
는 입력 영상의 픽셀값이다.
푸리에 영역(Fourier domain) 분류부(12)는 수학식 1에 따라 푸리에 변환된 결과를 각 영역별로 분류한다(22단계). 여기서 푸리에 영역은 다음 식과 같이 표현되는 푸리에 변환 결과의 실수 성분
Figure 112005075747054-pat00003
/허수 성분
Figure 112005075747054-pat00004
, 크기 성분
Figure 112005075747054-pat00005
및 위상 성분
Figure 112005075747054-pat00006
으로 각각 구분되는 영역이다.
Figure 112005075747054-pat00007
영상을 푸리에 영역별로 분류하는 이유는 도 3에 도시된 바와 같이 푸리에 영역중 어느 한 영역만을 고려해서는 얼굴 영상이 속하는 클래스의 구별이 어려울 수 있기 때문이다. 여기서, 클래스는 한 사람에 대응하는 복수의 얼굴 영상이 차지하는 푸리에 영역의 한 공간을 말한다.
예를 들어, 클래스 1과 클래스 3은 위상면에서 보면 클래스간 구분이 어렵지만, 크기면에서는 구분됨을 알 수 있다. 또한 클래스 1과 클래스 2는 크기면에서는 구분이 어려우나 위상면에서는 구분됨을 알 수 있다. 도면에서 x 1, x 2x 3는 각 클래스에 포함되는 특징의 예를 표현한 것이다. 도 3에 도시된 바를 참조하면, 모든 푸리에 영역들을 반영하여 클래스를 분류하는 것이 얼굴 인식에 보다 유리함을 알 수 있다.
일반적인 템플릿(template) 기반의 얼굴인식의 경우, 크기 영역, 즉 푸리에 스펙트럼(Fourier spectrum)이 얼굴 특징을 기술하는데 주로 사용된다. 그 이유는 약간의 공간 이동(spatial displacement)이 발생하면 위상은 크게(drastically) 변 하지만 크기는 평탄하게(smoothly) 변하기 때문이다. 그러나, 본 실시 예에서는 얼굴 영상에 대해 두드러진 특징을 보이는 위상 영역을 반영하되, 상대적으로 덜 민감한 저주파수 대역의 위상 영역을 크기 영역과 함께 고려하기로 한다. 또한 얼굴의 세세한 특징을 모두 반영하기 위하여, 총 3가지의 푸리에 특징 영역을 사용하여 얼굴 인식을 수행한다. 푸리에 특징으로는 실수/허수 성분 영역(이하 RI영역이라 함), 크기 성분 영역, 위상 성분 영역이 있다. 일반적으로, 푸리에 특징 영역은 얼굴 영상의 특징에 따라 주파수 대역별로 특성이 다르다. 따라서 푸리에 특징 영역을 주파수 대역별로 분류할 필요가 있다.
주파수 대역 분류부(13)는 각 푸리에 영역을 주파수 대역별로 분류한다(23단계). 본 실시예에서 주파수 대역은 0~ 전체 대역의 1/3에 해당하는 저주파수 대역 B1, 0~ 전체 대역의 2/3에 해당하는 중간 주파수 이하 대역 B2 그리고 0~전체 대역까지에 해당하는 전체 주파수 대역 B3으로 분류된다.
얼굴 영상에서 저주파수 대역은 푸리에 영역의 바깥쪽에, 고주파수 대역은 푸리에 영역의 중심쪽에 위치한다. 도 4(a)는 본 실시예에 따라 분류되는 저주파수 대역 B1 (B11, B12)을 나타내고, 도 4(b)는 중간 주파수 이하 대역 B2 (B21, B22) 그리고 도 4(c)는 고주파수 대역을 포함하는 전체 대역 B3 (B31, B32)을 나타낸다.
푸리에 변환의 RI영역에서는 B1, B2, 및 B3 주파수 대역의 푸리에 성분들을 모두 고려한다(23-1단계). 크기 영역에서는 고주파수 대역에서는 정보를 충분히 많 이 포함하지 않으므로 B3를 제외한 B1 및 B2 주파수 대역의 성분들을 고려한다(23-2 단계). 위상 영역에서는 위상이 크게 변하는 B2 및 B3를 제외한 B1 주파수 대역의 성분만을 고려한다(23-3단계). 위상은 중간 주파수 및 고주파수 대역에서 작은 변동(variation)에 대해서도 그 값이 급격하게 변하기 때문에 저주파수 대역만을 고려하는 것이 적절하다.
특징 추출부(14)는 각 푸리에 영역에서 분류된 주파수 대역의 푸리에 성분들로부터 얼굴 인식을 위한 특징을 추출한다. 본 실시예에서 특징 추출은 PCLDA(Principal Component and Linear Discriminant Analysis) 방법을 이용하여 이루어진다.
LDA(Linear Discriminant Analysis)는 클래스내의 스캐터 (within-class scatter)를 줄이면서 클래스간 스캐터(between-class scatter)를 최대화하는 서브 공간으로 데이터를 선형 투영(linear projection)하도록 학습하는 방법이다. 이를 위해 클래스간 분산을 나타내는 클래스간 스캐터 매트릭스 SB 및 클래스내 분산을 나타내는 클래스내 스캐터 매트릭스 SW는 다음 식과 같이 정의된다.
Figure 112005075747054-pat00008
여기서, mi는 Mi개의 샘플을 갖는 i번째 클래스 ci의 평균 영상, c는 클래스 수이다. 변환 매트릭스 Wopt는 다음 식을 만족하도록 구해진다.
Figure 112005075747054-pat00009
여기서, n은 투영 벡터의 수이고, n=min(c-1, N, M)이다.
PCA(Principal Component Analysis)는 LDA를 수행하기 전에 수행되어 벡터의 차원(dimensionality)을 줄여서 클래스내 스캐터 매트릭스의 특이성(sinularity)를 극복한다. 이를 본 실시예에서는 PCLDA라 하며, PCLDA의 성능은 입력 차원을 줄이는 데 사용되는 고유공간(eigenspace)의 수에 좌우된다.
특징 추출부(14)는 상술한 PCLDA 방법에 따라 각 푸리에 영역의 해당 주파수 대역별로 특징을 추출한다(24-1단계, 24-2단계, 24-3단계, 24-4단계, 24-5단계, 24-6단계). 예를 들어, RI 푸리에 영역의 B1 주파수 대역의 특징 yRIB1은 다음 식과 같이 구할 수 있다.
Figure 112005075747054-pat00010
여기서, WRIB1은 수학식 4에 따라 학습 세트에서 RIB1의 푸리에 성분에 대한 특징들을 출력하도록 학습한 PCLDA의 변환 매트릭스, mRIB1은 RIB1에서 특징들의 평균 이다.
특징연결부(15)는 특징 추출부(14)에서 출력되는 특징들을 연결한다(concatenate)(25단계). RI 영역의 세 주파수 대역에서 출력되는 특징들, 크기 영역의 두 주파수 대역에서 출력되는 특징들, 그리고 위상 영역의 하나의 주파수 대역에서 출력되는 특징은 각각 다음 식과 같이 연결된다.
Figure 112005075747054-pat00011
수학식 6의 특징들은 최종적으로 다음 식의 f와 같이 연결되어 서로 상보적인(complementary) 특징을 구성한다.
Figure 112005075747054-pat00012
도 5는 본 발명에 따른 다중 얼굴 모델을 이용한 얼굴 인식 장치에 대한 블록도를 도시한 것이다. 도시된 얼굴 인식 장치는 다중 서브 영상 생성부(51), 특징 추출부(52) 및 인식부(53)를 포함한다. 도시된 얼굴 인식 장치의 동작을 도 6의 흐름도를 참조하여 설명하기로 한다. 도 6은 본 발명에 따른 다중 얼굴 모델을 이용한 얼굴 인식 방법에 대한 흐름도를 도시한 것이다.
다중 서브 영상 생성부(51)는 입력 영상, 즉 인식 대상의 얼굴 영상인 질의 영상 또는 데이터베이스(미도시)에 이미 저장된 복수의 얼굴 영상중의 하나인 타겟 영상에 대해 눈 거리(eye distance)가 각각 다른 서브 영상들을 생성한다(61단계).
생성되는 서브 영상들은 46x56의 동일한 크기를 갖고 각각 다른 눈 거리를 갖는다.
도 7(a) 내지 도 7(d)는 입력 영상으로부터 서로 다른 눈 거리를 갖는 서브 영상들을 생성하는 과정을 도시한 것이다.
도 7(a)는 입력 영상을 나타낸다. 도면에서 참조번호 71은 머리 및 배경이 완전히 제거된 상태에서 얼굴의 안쪽의 특징만을 포함한다. 참조번호 73은 얼굴의 전반적인 형태를 포함한다. 참조번호 72는 71과 73의 중간 영상이다.
도 7(b) 내지 도 7(d)는 입력 영상으로부터 71 내지 73의 영상을 조명 처리 등과 같은 전처리를 수행한 다음, 각각 46x56 크기의 영상으로 만든 결과를 도시한 것이다. 도시된 영상들의 좌우 눈의 좌표는 각각 [(7, 20) (38, 20)], [(10, 21) (35, 21)], [(13, 22) (32, 22)]이다.
도 7(b)의 ED1 영상은 얼굴에 포즈, 즉, 얼굴이 향하는 방향에 있어서 구성요소, 예를 들어 코의 형태가 바뀌거나 눈 좌표가 잘못될 경우 학습 성능의 감소폭이 클 수 있다.
도 7(d)의 ED3 영상은 얼굴의 전반적인 형태를 포함하므로, 포즈나 잘못된 눈 좌표에 강인하고, 짧은 시간 변화에서는 머리 모양이 변하지 않기 때문에 좋은 성능을 보이나 장기간 동안에 머리 모양이 바뀔 경우 성능 감소가 크고 얼굴 내부 정보가 상대적으로 적기 때문에 학습시 얼굴 내부 정보가 반영이 잘 되지 않아서 전반적인 성능은 좋지 않을 수 있다.
도 7(c)의 ED2 영상은 도 7(b)와 도 7(d)의 장점을 적절히 포함하므로, 과도하게 머리 정보나 배경 정보가 들어가지 않고 대부분의 정보가 얼굴 내부 구성 요소이므로 가장 안정적인 성능을 보일 수 있다.
특징 추출부(52)는 도 7(b) 내지 도 7(c)의 ED1, ED2 및 ED3 영상들로부터 특징을 추출한다(62단계). 특징 추출에는 종래의 어떠한 방법도 사용될 수 있으며, 본 실시예에서는 특히 상술한 바 있는 PCLDA 방법에 따라 특징을 추출한다.
인식부(53)는 질의 영상 및 타겟 영상들에 대해 각각 추출한 특징들의 유사도를 비교함으로써 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자로 인식한다(63단계).
유사도 S는 질의 영상 i에 대해 최종 추출되는 특징 Fi 및 현재 타겟 영상 j에 대해 최종 추출되는 특징 Fj를 다음 식과 같이 비교한다.
Figure 112005075747054-pat00013
여기서, fik는 질의 영상 i에 대한 k번째 서브 영상의 특징을 나타낸다.
도 8은 본 발명에 따른 얼굴 인식 장치에 대한 블록도이고, 도 9는 본 발명에 따른 얼굴 인식 방법에 따른 흐름도를 도시한 것이다.
도 8에 도시된 얼굴 인식 장치는 다중 서브 영상 생성부(81), 푸리에 특징 추출부(82) 및 인식부(83)을 포함한다. 또한 푸리에 특징 추출부(82)는 푸리에 변환부(821), 푸리에 영역 분류부(822), 주파수 대역 분류부(823), 특징 추출부(824) 및 특징 연결부(825)를 포함한다. 도시된 얼굴 인식 장치의 동작을 도 9의 흐름도를 참조하여 설명하기로 한다.
다중 서브 영상 생성부(81)는 입력 영상, 즉 질의 영상 또는 타겟 영상에 대한 복수의 서브 영상들 ED1, ED2 및 ED3를 생성한다(91단계). 서브 영상의 생성은 도 7(a) 내지 도 7(d)에 도시된 바와 같이 이루어진다.
푸리에 변환부(821)는 현재 서브 얼굴 영상을 푸리에 변환한다(92단계). 푸리에 영역 분류부(822)는 푸리에 변환 결과를 푸리에 영역별로, 즉 RI영역, 크기 영역 및 위상 영역으로 분류한다(93단계).
주파수 대역 분류부(823)는 각 푸리에 영역에 대해 주파수 대역별로 분류한다. 상술한 바와 같이 RI 영역에 대해서는 B1, B2 및 B3 대역으로 분류하고(94-1단계), 크기 영역에 대해서는 B1 및 B2 영역만을 분류하며(94-2단계), 위상 영역에 대해서는 B1 대역만을 분류한다(94-3단계).
특징 추출부(824)는 각 푸리에 영역의 해당 주파수 대역에 따라 특징을 추출한다(95-1단계, 95-2단계, 95-3단계). 본 실시예에서는 상술한 바와 같이 PCLDA 방법에 따라 특징을 추출한다. 특징 연결부(825)는 각 푸리에 영역의 해당 주파수 대역에 따라 추출된 특징을 수학식 6 및 수학식 7에 따라 연결한다(96단계).
97단계에서는 현재 서브 영상이 입력 영상에 대한 마지막 서브 영상이면(97 단계), 인식부(83)는 질의 영상 및 현재 타겟 영상에 대해 각각 추출한 푸리에 특징들의 유사도를 비교하고, 타겟 영상들중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자로 인식한다(98단계). 유사도는 수학식 8과 같이 계산된다.
97단계에서 현재 서브 영상이 마지막 서브 영상이 아니면, 다음번 서브 영상을 로드하여 92단계 내지 98단계를 반복한다(99단계).
도 10은 본 발명 및 종래 기술에 의한 얼굴 인식 실험에 사용되는 얼굴 영상들의 예를 도시한 것이다. 도시된 얼굴 영상들은 얼굴 인식을 위한 데이터베이스(Face Recognition Grand Test Database)에서 추출한 것이다.
도시된 얼굴 영상들중에서 명암이 균일한 것은 조명이 균일하게 조사되는 환경에서 찍은 영상들, 즉, 컨트롤드 이미지(controlled image)이고, 명암이 얼굴의 굴곡에 따라 균일하지 않은 영상들은 조명이 균일하지 않은 환경에서 찍은 영상들, 즉 언컨트롤드 이미지(uncontrolled image)이다.
학습 세트는 222명에 대한 12, 776장의 얼굴 영상으로 구성되었고, 테스트 세트는 466명에 대한 6,067장의 얼굴 영상으로 구성되어 총 4회의 테스트를 한 후 테스트 결과를 평균하였다.
실험은 제1실험군과 제2실험군으로 나뉘어 이루어졌다. 제1실험군은 컨트롤드 이미지를 등록한 후 컨트롤드 이미지에 대해 인식을 수행한 것이다. 제2실험군은 컨트롤드 이미지를 등록한 후 언컨트롤드 이미지에 대해 인식을 수행한 것이다.
다음 표는 제1실험군과 제2실험군에 대한 실험결과를 나타낸 것이다. 표에서 PCA (ED2)는 주성분분석(Principal component Analysis) 알고리즘을 ED2 영상에 사 용한 결과이고, LDA (ED2)는 선형 판별 분석(Linear Discriminant Analysis)을 ED2 영상에 사용한 결과이다.
또한 ED1, ED2 및 ED3는 각각 ED1, ED2 및 ED3 영상에 대해 본 발명에 따른 푸리에 특징 추출 방법에 따라 추출된 특징을 이용하여 인식한 결과를 나타낸다.
ED1+ED2+ED3는 푸리에 특징 추출 방법에 따라 ED1, ED2 및 ED3의 영상 모두에 대해 특징을 추출하고 추출된 특징을 결합하여 인식한 결과를 나타낸다.
제1실험군 제2실험군
EER VR EER VR
PCA(ED2) 4.48% 78.86% 22.16% 16.08%
LDA(ED2) 2.1% 88.69% 5.45% 56.74%
ED1 1.89% 91.77% 5.06% 66.98%
ED2 1.51% 92.95% 4.39% 69.88%
ED3 1.96% 88.71% 4.96% 63.05%
ED1+ED2+ED3 1.31% 94.27% 3.50% 75.59%
여기서, FAR은 오인식률로서, 본인이 아님에도 본인으로 승인되는 것을 말한다. FRR은 본인임에도 거부당하는 거부하는 인식오율을 말하고, EER은 FAR=FRR일 때의 오인식률로 전체적인 성능 고려시 참조되는 값이다.
VR(Verification Ration)은 본인임을 확인하는 인증률을 나타낸 것으로, VR=100%-FRR로 계산되면 본 발명에서 사용되는 VR은 FAR=0.1%일 때 값을 나타낸다.
표에 따르면, 본 발명에 따른 푸리에 특징 추출 방법에 따라 특징을 추출하여 인식을 수행한 경우, 예를 들어 ED1, ED2 및 ED3 중 어느 경우에나 종래의 PCA 또는 LDA 방법에 의한 경우보다 VR이 우수하며 EER이 낮은 것을 알 수 있다.
또한 ED1, ED2 및 ED3 모두에 대해 푸리에 특징을 추출하고, 추출된 특징을 결합하여 얼굴을 인식하는 경우 VR 및 EER에서 다른 경우보다 우수한 결과를 보임을 알 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기 테이프, 플로피 디스크 및 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브, 예를 들어 인터넷을 통한 전송의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
본 발명에 따르면, 푸리에 영역을 실수/허수 성분 영역, 크기 영역 및 위상 영역의 세 영역으로 분류함으로써 푸리에 특징 공간을 표현할 수 있는 다양한 영역을 이용할 수 있다. 또한 각 영역에서 해당 영역의 특성에 맞는 주파수 대역만을 을 분류하여 특징을 추출함으로써 계산의 복잡성을 줄일 수 있다.
또한 다중 얼굴 모델을 채택함으로써 ED1으로부터 얼굴 안쪽 정보, ED3로부터 얼굴의 외곽 윤곽 정보를 각각 얻어서 학습함으로써 얼굴의 포즈 또는 얼굴의 형태 정보에 강인한 인식 성능을 얻을 수 있다.
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서, 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사 용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (33)

  1. 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 단계;
    상기 다중 서브 영상들을 푸리에 변환하고, 변환 결과를 이용하여 상기 다중 서브 영상들에 대한 푸리에 특징을 각각 추출하는 단계;
    상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 푸리에 특징들 간의 유사도를 측정하는 단계; 및
    상기 유사도를 복수의 타겟 영상에 대해 구하고, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 단계를 포함하고,
    상기 다중 서브 영상은 동일한 크기를 갖고, 동일 얼굴 영상에 대해 눈 사이의 거리가 각각 다른 복수의 영상임을 특징으로 하는 얼굴 인식 방법.
  2. 삭제
  3. 제1항에 있어서, 상기 특징을 추출하는 단계는
    상기 다중 서브 영상들을 푸리에 변환하는 단계;
    푸리에 변환된 결과를 푸리에 영역별로 분류하는 단계;
    분류된 푸리에 영역별로 해당 푸리에 성분을 이용하여 특징을 추출하는 단 계;
    상기 푸리에 영역별로 추출된 특징을 모두 연결하여 상기 푸리에 특징을 생성하는 단계를 포함함을 특징으로 하는 얼굴 인식 방법.
  4. 제3항에 있어서,
    상기 푸리에 영역별로 분류하는 단계는
    각 푸리에 영역에 대해 해당 푸리에 영역의 특성에 따른 주파수 대역을 분류하는 단계를 더 포함하고,
    상기 특징을 추출하는 단계는
    상기 푸리에 영역별로 분류된 주파수 대역에 해당하는 푸리에 성분을 이용하여 상기 특징을 추출하는 것을 특징으로 하는 얼굴 인식 방법.
  5. 제4항에 있어서, 상기 특징은
    상기 주파수 대역의 상기 푸리에 성분에서 해당 주파수 대역의 평균 푸리에 성분을 감산한 결과에 미리 학습한 변환 매트릭스를 곱하여 추출되는 것을 특징으로 하는 얼굴 인식 방법.
  6. 제5항에 있어서, 상기 변환 메트릭스는
    PCLDA 알고리즘에 따라 상기 푸리에 성분을 입력으로 할 때 상기 특징을 출력하도록 학습되는 것을 특징으로 하는 얼굴 인식 방법.
  7. 제3항에 있어서, 상기 푸리에 영역은
    상기 푸리에 변환결과의 실수 및 허수 성분 영역, 크기 영역 및 위상 영역을 포함함을 특징으로 하는 얼굴 인식 방법.
  8. 제7항에 있어서,
    전체 주파수 대역을 3등분 하였을 때,
    상기 실수 및 허수 성분 영역은 저주파수 대역, 중간 주파수 이하 대역 및 전체 주파수 대역 모두를 포함하고,
    상기 크기 영역은 상기 저주파수 대역 및 중간 주파수 이하 대역을 포함하며,
    상기 위상 영역은 상기 저주파수 대역만을 포함함을 특징으로 하는 얼굴 인식 방법.
  9. 제1항에 있어서, 상기 유사도는
    상기 질의 얼굴 영상 i에 대한 푸리에 특징이 Fi이고, 상기 타겟 얼굴 영상 j에 대한 푸리에 특징이 Fj이며, fik는 상기 질의 얼굴 영상 i에 대한 k번째 서브 영상의 특징이고, fjk는 상기 타겟 얼굴 영상 j에 대한 k번째 서브 영상의 특징일 때, 다음 식
    [수학식]
    Figure 112005075747054-pat00014
    과 같이 결정되는 것을 특징으로 하는 얼굴 인식 방법.
  10. 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 다중 서브 영상 생성부;
    상기 다중 서브 영상들을 푸리에 변환하고, 변환 결과를 이용하여 푸리에 특징을 각각 추출하는 푸리에 특징 추출부; 및
    상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 푸리에 특징들 간의 유사도를 측정하고, 상기 유사도를 복수의 타겟 영상에 대해 구하며, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 인식부를 포함하고,
    상기 다중 서브 영상 생성부는 동일한 얼굴 영상에 대해 동일한 크기를 갖고 눈 사이의 거리가 각각 다른 복수의 서브 영상을 생성하는 것을 특징으로 하는 얼굴 인식 장치.
  11. 삭제
  12. 제10항에 있어서, 상기 푸리에 특징 추출부는
    상기 다중 서브 영상들을 푸리에 변환하는 푸리에 변환부;
    푸리에 변환된 결과를 푸리에 영역별로 분류하는 푸리에 영역 분류부;
    각 푸리에 영역에 해당하는 푸리에 성분을 이용하여 특징을 추출하는 특징 추출부; 및
    상기 푸리에 영역별로 추출된 특징을 모두 연결하여 상기 푸리에 특징을 생성하는 특징 연결부를 포함함을 특징으로 하는 얼굴 인식 장치.
  13. 제12항에 있어서, 상기 푸리에 영역 분류부는
    상기 푸리에 변환결과를 실수 및 허수 성분 영역, 크기 영역 및 위상 영역으로 분류하는 것을 특징으로 하는 얼굴 인식 장치.
  14. 제13항에 있어서,
    상기 푸리에 영역 분류부 및 상기 특징 추출부 사이에
    상기 각 푸리에 영역에 대해 해당 푸리에 영역의 특성에 따른 주파수 대역을 분류하는 주파수 대역 분류부를 더 포함하고,
    상기 특징 추출부는
    분류된 주파수 대역에 해당하는 푸리에 성분을 이용하여 상기 특징을 추출하는 것을 특징으로 하는 얼굴 인식 장치.
  15. 제14항에 있어서, 상기 주파수 대역 분류부는
    전체 주파수 대역을 3등분하고, 상기 실수 및 허수 성분 영역에 대해서는 3등분된 대역들중 저주파수 대역, 중간 주파수 이하 대역 및 전체 주파수 대역 모두를 포함하고, 상기 크기 영역은 상기 저주파수 대역 및 중간 주파수 이하 대역을 포함하며, 상기 위상 영역은 상기 저주파수 대역만을 포함하도록 분류하는 것을 특징으로 하는 얼굴 인식 장치.
  16. 제10항에 있어서,
    상기 인식부는 상기 유사도를 다음 식
    [수학식]
    Figure 112005075747054-pat00015
    여기서, Fi는 상기 질의 얼굴 영상 i에 대한 푸리에 특징, Fj는 상기 타겟 얼굴 영상 j에 대한 푸리에 특징, fik는 상기 질의 얼굴 영상 i에 대한 k번째 서브 영상의 특징, fjk는 상기 타겟 얼굴 영상 j에 대한 k번째 서브 영상의 특징
    과 같이 결정하는 것을 특징으로 하는 얼굴 인식 장치.
  17. 입력 영상을 푸리에 변환하는 단계;
    푸리에 변환된 결과를 푸리에 영역별로 분류하는 단계;
    상기 각 푸리에 영역에 대해 해당 푸리에 영역의 특성을 반영하는 주파수 대역을 분류하는 단계;
    분류된 주파수 대역에서 특징을 추출하는 단계; 및
    추출된 특징을 상기 푸리에 영역별로 연결하고, 다시 전체적으로 연결하여 상기 입력 영상에 대한 특징을 출력하는 단계를 포함하고,
    상기 주파수 대역은 전체 주파수 대역을 3등분 하였을 때,
    상기 실수 및 허수 성분 영역은 저주파수 대역, 중간 주파수 이하 대역 및 전체 주파수 대역 모두를 포함하고,
    상기 크기 영역은 상기 저주파수 대역 및 중간 주파수 이하 대역을 포함하며,
    상기 위상 영역은 상기 저주파수 대역만을 포함함을 특징으로 하는 특징 추출 방법.
  18. 제17항에 있어서, 상기 특징은
    상기 주파수 대역의 푸리에 성분에서 해당 주파수 대역의 평균 푸리에 성분을 감산한 결과에 미리 학습한 변환 매트릭스를 곱하여 추출되는 것을 특징으로 하는 특징 추출 방법.
  19. 제18항에 있어서, 상기 변환 메트릭스는
    PCLDA 알고리즘에 따라 상기 푸리에 성분 입력으로 할 때 상기 특징을 출력하도록 학습되는 것을 특징으로 하는 특징 추출 방법.
  20. 제17항에 있어서, 상기 푸리에 영역은
    상기 푸리에 변환결과의 실수 및 허수 성분 영역, 크기 영역 및 위상 영역을 포함함을 특징으로 하는 특징 추출 방법.
  21. 삭제
  22. 입력 영상을 푸리에 변환하는 푸리에 변환부;
    푸리에 변환된 결과를 푸리에 영역별로 분류하는 푸리에 영역 분류부;
    상기 각 푸리에 영역에 대해 해당 푸리에 영역의 특성에 따른 주파수 대역을 분류하는 주파수 대역 분류부;
    분류된 주파수 대역에 해당하는 푸리에 성분을 이용하여 특징을 추출하는 특징 추출부; 및
    추출된 특징을 상기 푸리에 영역별로 연결하고, 연결된 특징을 전체적으로 연결하여 상기 푸리에 특징을 생성하는 특징 연결부를 포함하고,
    상기 주파수 대역 분류부는
    전체 주파수 대역을 3등분 하였을 때, 상기 실수 및 허수 성분 영역에 대해서는 저주파수 대역, 중간 주파수 이하 대역 및 전체 주파수 대역 모두를 포함하고, 상기 크기 영역은 상기 저주파수 대역 및 중간 주파수 이하 대역을 포함하며, 상기 위상 영역은 상기 저주파수 대역만을 포함하도록 분류하는 것을 특징으로 하는 특징 추출 장치.
  23. 제22항에 있어서, 상기 푸리에 영역 분류부는
    상기 푸리에 변환결과를 실수 및 허수 성분 영역, 크기 영역 및 위상 영역으로 분류하는 것을 특징으로 하는 특징 추출 장치.
  24. 삭제
  25. 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 단계;
    상기 다중 서브 영상들에 대한 특징을 각각 추출하는 단계;
    상기 다중 서브 영상들의 특징들을 이용하여 상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 특징들 간의 유사도를 측정하는 단계; 및
    상기 유사도를 복수의 타겟 영상에 대해 구하고, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 단계를 포함하고,
    상기 다중 서브 영상은 동일한 크기를 갖고, 동일한 얼굴 영상에 대해 눈 사이의 거리가 각각 다른 복수의 영상임을 특징으로 하는 얼굴 인식 방법.
  26. 삭제
  27. 제25항에 있어서, 상기 유사도는 다음 식
    [수학식]
    Figure 112005075747054-pat00016
    여기서, Fi는 상기 질의 얼굴 영상 i에 대한 특징, Fj는 상기 타겟 얼굴 영상 j에 대한 특징, fik는 상기 질의 얼굴 영상 i에 대한 k번째 서브 영상의 특징, fjk는 상기 타겟 얼굴 영상 j에 대한 k번째 서브 영상의 특징
    과 같이 결정하는 것을 특징으로 하는 얼굴 인식 방법.
  28. 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 다중 서브 영상을 각각 생성하는 다중 서브 영상 생성부;
    상기 다중 서브 영상들에 대한 특징을 각각 추출하는 특징 추출부; 및
    상기 다중 서브 영상들의 특징들을 이용하여 상기 질의 얼굴 영상 및 타겟 얼굴 영상에 대한 특징들 간의 유사도를 측정하고, 상기 유사도를 복수의 타겟 영상에 대해 구하며, 구해진 유사도들 중 유사도가 가장 큰 타겟 영상에 해당하는 사람을 질의자인 것으로 인식하는 인식부를 포함하고,
    상기 다중 서브 영상 생성부는 동일한 얼굴 영상에 대해 동일한 크기를 갖고 눈 사이의 거리가 각각 다른 복수의 서브 영상을 생성하는 것을 특징으로 하는 얼굴 인식 장치.
  29. 삭제
  30. 제28항에 있어서, 상기 유사도는 다음 식
    [수학식]
    Figure 112005075747054-pat00017
    여기서, Fi는 상기 질의 얼굴 영상 i에 대한 특징, Fj는 상기 타겟 얼굴 영상 j에 대한 특징, fik는 상기 질의 얼굴 영상 i에 대한 k번째 서브 영상의 특징, fjk는 상기 타겟 얼굴 영상 j에 대한 k번째 서브 영상의 특징
    과 같이 결정하는 것을 특징으로 하는 얼굴 인식 장치.
  31. 제1항, 제3항 내지 제9항중 어느 한 항에 기재된 얼굴 인식 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  32. 제17항 내지 제20항중 어느 한 항에 기재된 특징 추출 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  33. 제25항 및 제27항중 어느 한 항에 기재된 얼굴 인식 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020050128742A 2005-12-23 2005-12-23 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치 KR100723417B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020050128742A KR100723417B1 (ko) 2005-12-23 2005-12-23 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치
US11/642,883 US20070147683A1 (en) 2005-12-23 2006-12-21 Method, medium, and system recognizing a face, and method, medium, and system extracting features from a facial image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050128742A KR100723417B1 (ko) 2005-12-23 2005-12-23 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR100723417B1 true KR100723417B1 (ko) 2007-05-30

Family

ID=38193800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050128742A KR100723417B1 (ko) 2005-12-23 2005-12-23 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치

Country Status (2)

Country Link
US (1) US20070147683A1 (ko)
KR (1) KR100723417B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101314131B1 (ko) 2011-12-21 2013-10-04 사우스이스트 유니버시티 기하학적 이미지 중의 중파 정보에 기반한 삼차원 얼굴 식별방법
KR20170015639A (ko) 2015-07-29 2017-02-09 대한민국(관리부서: 행정자치부 국립과학수사연구원장) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100771244B1 (ko) * 2006-06-12 2007-10-29 삼성전자주식회사 동영상 데이터 처리 방법 및 장치
JP5214762B2 (ja) * 2011-03-25 2013-06-19 株式会社東芝 認識装置、方法及びプログラム
US9361540B2 (en) * 2012-08-15 2016-06-07 Augmented Reality Lab LLC Fast image processing for recognition objectives system
JP5787845B2 (ja) * 2012-08-24 2015-09-30 株式会社東芝 画像認識装置、方法、及びプログラム
WO2014056112A1 (en) * 2012-10-10 2014-04-17 Broadbandtv, Corp. Intelligent video thumbnail selection and generation
US9946933B2 (en) * 2016-08-18 2018-04-17 Xerox Corporation System and method for video classification using a hybrid unsupervised and supervised multi-layer architecture
CN109034137B (zh) * 2018-09-07 2019-11-19 百度在线网络技术(北京)有限公司 头部姿态标记更新方法、装置、存储介质和终端设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187229A (ja) 2001-12-14 2003-07-04 Nec Corp 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
KR20040034342A (ko) * 2002-10-15 2004-04-28 삼성전자주식회사 얼굴 인식 및 검색용 특징벡터 추출방법 및 장치
KR20040079637A (ko) * 2003-03-08 2004-09-16 삼성전자주식회사 3차원 얼굴기술자를 이용한 얼굴인식방법 및 장치
KR20050009698A (ko) * 2002-07-16 2005-01-25 닛본 덴끼 가부시끼가이샤 패턴 특징 추출 방법 및 그 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187229A (ja) 2001-12-14 2003-07-04 Nec Corp 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
KR20050009698A (ko) * 2002-07-16 2005-01-25 닛본 덴끼 가부시끼가이샤 패턴 특징 추출 방법 및 그 장치
KR20040034342A (ko) * 2002-10-15 2004-04-28 삼성전자주식회사 얼굴 인식 및 검색용 특징벡터 추출방법 및 장치
KR20040079637A (ko) * 2003-03-08 2004-09-16 삼성전자주식회사 3차원 얼굴기술자를 이용한 얼굴인식방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101314131B1 (ko) 2011-12-21 2013-10-04 사우스이스트 유니버시티 기하학적 이미지 중의 중파 정보에 기반한 삼차원 얼굴 식별방법
KR20170015639A (ko) 2015-07-29 2017-02-09 대한민국(관리부서: 행정자치부 국립과학수사연구원장) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법

Also Published As

Publication number Publication date
US20070147683A1 (en) 2007-06-28

Similar Documents

Publication Publication Date Title
Abate et al. 2D and 3D face recognition: A survey
KR100723417B1 (ko) 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치
Kak et al. A review of person recognition based on face model
Teja et al. Face recognition using subspaces techniques
Durmuşoğlu et al. Facial expression recognition using geometric features
Bhat Makeup invariant face recognition using features from accelerated segment test and eigen vectors
Martins et al. Expression-invariant face recognition using a biological disparity energy model
Riaz et al. Age-invariant face recognition using gender specific 3D aging modeling
Patil et al. Expression invariant face recognition using semidecimated DWT, Patch-LDSMT, feature and score level fusion
Sharma et al. 3D face recognition techniques-a review
Shermina Face recognition system using multilinear principal component analysis and locality preserving projection
Elgarrai et al. Robust facial expression recognition system based on hidden Markov models
Qasim et al. Comparison and improvement of PCA and LBP efficiency for face recognition
Monteiro et al. Multimodal hierarchical face recognition using information from 2.5 D images
Dadure et al. Plastic surgery face recognition using LBP and PCA algorithm
Tandon et al. An efficient age-invariant face recognition
Kathavarayan et al. Identification of untrained facial image in combined global and local preserving feature space
Panchal et al. 3d face recognition based on pose correction using Euler angle method
Tayal et al. Human emotion recognition and classification from digital colour images using fuzzy and PCA approach
Jain et al. Face recognition
Ujir et al. Facial expression recognition using FAPs-based 3DMMM
Freitas 3D face recognition under unconstrained settings using low-cost sensors
Olatunji et al. Feature Level Fusion Algorithm for Iris and Face
Pittalia et al. An invention approach to 3D face recognition using combination of 2D texture data and 3D shape data
Hasan Efficient Method for Iris Recognition System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
LAPS Lapse due to unpaid annual fee