KR20080068988A - Progressive aam based robust face alignment - Google Patents

Progressive aam based robust face alignment Download PDF

Info

Publication number
KR20080068988A
KR20080068988A KR1020070006512A KR20070006512A KR20080068988A KR 20080068988 A KR20080068988 A KR 20080068988A KR 1020070006512 A KR1020070006512 A KR 1020070006512A KR 20070006512 A KR20070006512 A KR 20070006512A KR 20080068988 A KR20080068988 A KR 20080068988A
Authority
KR
South Korea
Prior art keywords
face
aam
model
contour detection
facial
Prior art date
Application number
KR1020070006512A
Other languages
Korean (ko)
Inventor
장용석
김대환
김부균
정선태
조성원
김재민
Original Assignee
뷰웨이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 뷰웨이 주식회사 filed Critical 뷰웨이 주식회사
Priority to KR1020070006512A priority Critical patent/KR20080068988A/en
Publication of KR20080068988A publication Critical patent/KR20080068988A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20121Active appearance model [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

A face outline detection method using a gradual AAM(Active Appearance Model) is provided to improve a detection rate as being robust against a pose, a lighting and a face background. A face outline detection process comprises the following steps. From a model input image, a face region is detected. The detected face region is normalized. Fitting with a face inner AAM is performed. Through a relation matrix, an initial value for the entire face AAM parameter vector is estimated. By using the estimated initial value and performing entire face AAM fitting, the entire face outline is detected.

Description

점진적 활성형상모델을 이용한 얼굴 윤곽 검출{Progressive AAM based Robust Face Alignment}Face contour detection using progressive active shape model {Progressive AAM based Robust Face Alignment}

1) 도 1은 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법의 구성 및 동작 흐름도1) Figure 1 is a configuration and operation flow chart of the facial contour detection method using a progressive AAM provided by the present invention

2) 도 2는 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법에서의 과정중 하나인 얼굴 영역 검출 및 크기 정규화 2) Figure 2 is a face region detection and size normalization that is one of the processes in the facial contour detection method using a progressive AAM provided by the present invention

3) 도 3은 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법에서의 과정중 하나인 얼굴 자세 정규화 3) Figure 3 is a facial posture normalization that is one of the processes in the facial contour detection method using a progressive AAM provided by the present invention

4) 도 4는 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법에서의 사용한 얼굴 내부 특징점 위치 및 얼굴 전체 특징점들 위치4) Figure 4 shows the internal facial feature points and the entire face features used in the facial contour detection method using the progressive AAM provided by the present invention.

5) 도 5는 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법에서의 과정중 하나인 얼굴 내부 AAM 모델 구성에서 얻어진 형태 변화5 is a shape change obtained in the configuration of the internal face AAM model, which is one of the processes in the face contour detection method using the progressive AAM provided by the present invention

6) 도 6은 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법에서의 과정중 하나인 얼굴 내부 AAM 모델 구성에서 얻어진 텍스쳐 변화6 is a texture change obtained from the configuration of the internal AAM model that is one of the processes in the facial contour detection method using the progressive AAM provided by the present invention

7) 도 7은 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법에서의 과정중 하나인 얼굴 전체 AAM 모델 구성에서 얻어진 형태 변화7 is a shape change obtained from the configuration of the entire face AAM model, which is one of the processes in the face contour detection method using the progressive AAM provided by the present invention

8) 도 8은 본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법에서의 과정중 하나인 얼굴 전체 AAM 모델 구성에서 얻어진 텍스쳐 변화8 is a texture change obtained from the configuration of the entire face AAM model, which is one of the processes in the face contour detection method using the progressive AAM provided by the present invention.

본 발명은 얼굴 인식, 얼굴 기반 사용자 인터페이스, 운전자 관찰, 애니메이션, 그 밖의 얼굴 모델링을 필요로 하는 많은 응용에 있어서 필수적인 얼굴 윤곽 검출에 대한 기존 AAM 방법을 개선시킨 것으로 기존 AAM 기반 얼굴 윤곽 검출 방법보다 초기값, 자세, 조명, 얼굴 배경 등에 강인하며 검출률이 더 개선시켰다. 물론 검출 시간은 기존 AAM 기반 얼굴 윤곽 검출 방법에 비해 증가되었으나, 계산량의 증가가 크지 않아 실시간 검출이 충분히 가능하다. 본 발명의 얼굴 윤곽 검출 방법의 구성 및 동작 흐름도는 도면 1에 표시되어 있다.The present invention is an improvement over the existing AAM method for face contour detection, which is essential for many applications requiring face recognition, face-based user interface, driver observation, animation, and other face modeling. It is robust against values, postures, lighting, and face backgrounds, further improving the detection rate. Of course, the detection time is increased compared to the conventional AAM-based face contour detection method, but the real-time detection is sufficiently possible because the increase of the calculation amount is not large. The configuration and operation flowchart of the face contour detection method of the present invention are shown in FIG.

본 발명과 비슷한 발명의 국내 특허 등록은 없으며, 다만 출원중인 다음의 2건이 있는 것으로 조사된다. 출원중인 ‘실시간 상황인지를 위한 얼굴 특징 검출’(출원번호 10-2006-0026016)은 변형 가능한 템플릿 매칭 방법을 이용한 얼굴 특징점 검출 방법을 제공하고 있다. 본 발명은 기본적으로 AAM 에 기반한다는 점에서 변형 가능한 템플릿 매칭 방법과는 기본적으로 다르다. 변형 가능한 템플릿에 의한 얼굴 특징점 검출은 시간이 비교적 적게 걸리는 장점은 있으나 다양한 얼굴에 잘 적합되는 변형 가능한 템플릿 구축이 용이하지 않다는 단점이 있다. There is no domestic patent registration of the invention similar to the present invention, but it is investigated that there are the following two pending applications. 'Face feature detection for real-time situation recognition' (Application No. 10-2006-0026016), which is pending, provides a method for detecting a face feature point using a template matching method that can be modified. The present invention is fundamentally different from the template matching method which can be modified in that it is basically based on AAM. Facial feature point detection by the deformable template takes a relatively short time, but there is a disadvantage in that it is not easy to construct a deformable template suitable for various faces.

또 출원중인 ‘스테레오 결합 메커니즘을 사용하는 얼굴 특징 검출 방법, 매체 및 장치’ (출원번호 10-2004-0049380)은 얼굴 특징 검출을 위해 2장의 얼굴 영상을 이용한 스테레오 결합 메커니즘을 제공하고 있다. 본 발명은 단지 1장의 얼굴 영상에서 얼굴 특징점들을 효과적으로 추출하는 방법을 제공하고 있으므로 상기 발명과는 다르다. 기존 논문에 발표된 얼굴 윤곽 검출 또는 얼굴 특징점 검출에 대한 연구들로는 다음과 같다. In addition, the pending facial feature detection method, medium and apparatus using a stereo coupling mechanism (Application No. 10-2004-0049380) provides a stereo coupling mechanism using two face images for face feature detection. The present invention is different from the above invention because it provides a method for effectively extracting facial feature points from only one face image. The studies on face contour detection or facial feature point detection published in the previous papers are as follows.

변형 가능한 2D 물체의 검출에 가장 효과적인 방법의 하나는 AAM(Active Appearance Model)이다. AAM 은 Edwards 등 (G. Edwards, C. J. Taylor, and T. F. Cootes, “Interpreting Face Images using Active Appearance Models,” in Proc. IEEE Int. Conf. Automatic Face and Gesture Recognition, pp. 300-30, 1998)에 의해 처음 제안되었으며, Cootes 등 (T. F. Cootes, D. J. Edwards, and S. J. Taylor, “Active Appearance Models,” IEEE Trans. Pattern Anal. Mach. Intell., Vol. 23, No. 6, pp. 681?685, Jun. 2001) 에 의해 확장되었다. 이후 AAM 개선 및 확장에 대해 많은 연구가 이루어졌다. AAM을 이용한 얼굴 윤곽 검출 방법은 비교적 안정적인 것으로 연구되고 있지만, 초기값에 민감한 것으로 잘 알려져 있다. AAM의 속도 및 성능 문제를 개선한 많은 연구가 진행되었다.One of the most effective methods for detecting deformable 2D objects is the AAM (Active Appearance Model). AAM is described by Edwards et al. (G. Edwards, CJ Taylor, and TF Cootes, “Interpreting Face Images using Active Appearance Models,” in Proc. IEEE Int. Conf. Automatic Face and Gesture Recognition, pp. 300-30, 1998). First proposed, Cootes et al. (TF Cootes, DJ Edwards, and SJ Taylor, “Active Appearance Models,” IEEE Trans.Pattern Anal.Mach. Intell., Vol. 23, No. 6, pp. 681-685, Jun. 2001). Since then, much research has been done on AAM improvement and expansion. Facial contour detection using AAM has been studied to be relatively stable, but is well known to be sensitive to initial values. Much work has been done to improve the speed and performance issues of AAM.

Li 등 (S. Z. Li, Y. S. Cheng, H. J. Zhang, Q. S. Cheng “Multi-view face alignment using direct appearance models,” 5th Automatic Face and Gesture Recognition, pp. 324-329, 2002)은 DAM(Direct Appearance Model)을 도입하고 이를 다중 이미지 얼굴 윤곽 검출에로 확장 적용하였다. DAM은 AAM 과는 다르게, 형태와 텍스쳐를 결합하지 않고 최적 파라미터 벡터 탐색 동안에 텍스쳐를 이용하여 형태를 직접 예측한다. 이러한 DAM 방법은 AAM에 비해 탐색속도와 정확성에 있어서 개선을 이루는 것으로 보고되고 있다. Matthews와 Baker (I. Matthews and S. Baker, “Active Appearance Models Revisited,” International Journal of Computer Vision, Vol. 60, No. 2, pp. 135?164, Nov. 2004)는 AAM 정합 과정의 속도를 개선하기 위해 역 합성 방법(inverse compositional approach)을 제안하였으며, Batur와 Hayes (A.U Batur and M.H. Hayes, “Adaptive Active Appearance Models,” IEEE Transactions on Image Processing, Vol. 14, Issue 11, pp. 1707?1721, Nov. 2005)는 AAM의 정합 속도와 정확성을 개선하는 적응적 AAM을 제안하였다. 이상의 얼굴 윤곽 검출 관련 연구와 본 논문의 제안 방법과의 기본적인 차이는 점진적 AAM 기반 얼굴 윤곽 검출 방법에 있다. 본 논문의 제안 방법이 상기 기본 AAM 기반 얼굴 윤곽 검출 방법들과 다른 점은 기존 AAM 기반 얼굴 윤곽 검출은 초기값에 민감하기 때문에 초기값 설정이 잘 이루어져야 하는데, 기본 AAM에서는 초기값이 0(평균 형태)에서 시작하기 때문에 평균 얼굴 형태에 따라 자세와 얼굴 배경에 민감한 반면에, 본 논문의 점진적 AAM 기반 얼굴 검출 방법은 변화가 적은 얼굴 내부에 대해서만 먼저 AAM을 적용하여 얼굴 내부 윤곽 검출을 수행하고 여기서 얻어진 정보를 이용하여 얼굴 전체 AAM에 대한 초기값을 추정하여 얻기 때문에 보다 안정적인 초기값을 제공한다는 점이다. 본 발명에서와 같이 다단계 얼굴 윤곽 검출 방법을 제안한 연구가 Cristinacce 등 (D. Cristinancce, T. Cootes, and I. Scott, “A Multi-Stage Approach to Facial Feature Detection,” Proc. British Machine Vision Conference 2004, Vol. 1, pp. 277-286, 2004)에 의해 제안되어있는데, 여기서 PRFR(Pairwise Reinforcement of Feature Responses) 방법을 이용하여 얼굴 특징점들을 대략 검출한 후에 AAM 정합을 이용하여 정교화 하였다. 이 연구는 먼저 얼굴 특징점들을 대략적으로 검출하고 이후 이를 정교화 하는 방법으로 본 발명의 점진적 얼굴 검출과는 다르다.Li et al. (SZ Li, YS Cheng, HJ Zhang, QS Cheng “Multi-view face alignment using direct appearance models,” 5th Automatic Face and Gesture Recognition, pp. 324-329, 2002) introduced the DAM (Direct Appearance Model). And it is extended to multi-image face contour detection. Unlike AAM, DAM does not combine shape and texture to directly predict shape using texture during optimal parameter vector search. This DAM method is reported to improve the search speed and accuracy compared to the AAM. Matthews and Baker (I. Matthews and S. Baker, “Active Appearance Models Revisited,” International Journal of Computer Vision, Vol. 60, No. 2, pp. 135–164, Nov. 2004) speed up the AAM registration process. Inverse compositional approach has been proposed to improve, and Batur and Hayes (AU Batur and MH Hayes, “Adaptive Active Appearance Models,” IEEE Transactions on Image Processing, Vol. 14, Issue 11, pp. 1707–1721 , Nov. 2005) proposed an adaptive AAM that improves the matching speed and accuracy of AAM. The basic difference between the above-described research on face contour detection and the proposed method is a gradual AAM-based face contour detection method. The proposed method differs from the basic AAM-based face contour detection methods because the initial AAM-based face contour detection is sensitive to the initial value, so the initial value should be set well. In this paper, the gradual AAM-based face detection method performs the contour detection of the face by applying AAM only to the inside of the face with little change. Since the initial value for the entire face AAM is estimated by using the information, it provides a more stable initial value. A study suggesting a multi-step facial contour detection method as in the present invention is described by Cristinacce et al. (D. Cristinancce, T. Cootes, and I. Scott, “A Multi-Stage Approach to Facial Feature Detection,” Proc. British Machine Vision Conference 2004, 1, pp. 277-286, 2004), where the facial feature points are roughly detected using the Pairwise Reinforcement of Feature Responses (PRFR) method, and then refined using AAM matching. This study differs from the progressive face detection of the present invention by first roughly detecting facial features and then elaborating them.

얼굴 윤곽 검출은 얼굴에서 눈, 눈썹, 코, 입, 턱 윤곽 등 얼굴 특징점들을 찾아내는 작업으로 얼굴 인식, 얼굴 기반 사용자 인터페이스, 운전자 관찰, 애니메이션, 그 밖의 얼굴 모델링을 필요로 하는 많은 응용에 있어서 요구되는 기술이다. 얼굴 인식 시스템의 경우 얼굴 윤곽, 즉 얼굴의 특징점들이 입력 영상에서 검출되면, 이러한 특징점에서 특징 벡터 정보를 추출하여 등록된 특징 벡터 정보와 비교하여 얼굴 인식을 수행한다. 따라서 가급적이면 정확한 얼굴 윤곽 추출이 필요하다. 얼굴 모양은 고정된 형태가 아니고 사람마다 다른 변형 가능한 객체(deformable object)이다. 변형 가능한 객체는 고정된 형태의 객체보다 검출하기 어려운 것으로 잘 알려져 있으며, 따라서 얼굴 윤곽 검출에 대해 많은 연구가 수행되어 왔다. 변형 가능한 2D 물체의 검출에 가장 효과적인 방법의 하나는 AAM(Active Appearance Model)이다. AAM을 이용한 얼굴 윤곽 검출 방법은 비교적 안정적인 것으로 연구되고 있지만, 초기값에 민감한 것으로 잘 알려져 있다. 보통 AAM은 초기값을 모델의 평균 형태로 취한다(즉, AAM 파라미터 초기값을 0으로 취한다). Face contour detection is the task of finding facial feature points such as eye, eyebrow, nose, mouth, and chin contours on the face, which is required for many applications requiring face recognition, face-based user interface, driver observation, animation, and other face modeling. Technology. In the face recognition system, when face contours, that is, feature points of a face, are detected in an input image, feature vector information is extracted from these feature points and compared with registered feature vector information to perform face recognition. Therefore, accurate facial contour extraction is needed whenever possible. Face shapes are not fixed shapes, but are deformable objects that vary from person to person. Deformable objects are well known to be harder to detect than fixed-type objects, and thus, much research has been conducted on face contour detection. One of the most effective methods for detecting deformable 2D objects is the AAM (Active Appearance Model). Facial contour detection using AAM has been studied to be relatively stable, but is well known to be sensitive to initial values. Usually AAM takes the initial value as the average form of the model (i.e. takes the AAM parameter initial value as 0).

얼굴 자세와 조명이 다양한 경우에 얼굴의 턱 윤곽 부분의 변화는 얼굴 내부의 윤곽인 눈 부분, 코 부분, 입 부분 등의 변화보다 심하다. 또한 턱 부분들은 얼굴 내부 윤곽보다 얼굴 배경에 더 가까이 있기 때문에 얼굴 배경에 더 큰 영향을 받는 다. 따라서 배경이 복잡하고, AAM 모델의 평균 형태보다 제법 다른 얼굴 자세를 갖는 새로운 얼굴 영상에 대해, 턱 윤곽의 특징점들의 초기값들이 최종 전역 최소값(정확한 턱 윤곽 특징점 값)과 충분히 가까운 값에서 시작하지 않을 수도 있어 정확한 턱 윤곽의 특징점 위치들을 제대로 찾아내지 못할 수 있다.   When face posture and lighting are varied, the change in the contour of the jaw of the face is more severe than the change in the contours of the eye, nose, mouth and the like. Also, the jaw parts are more affected by the face background because they are closer to the face background than the face contour. Therefore, for a new face image with a complex background and a different facial pose than the average form of the AAM model, the initial values of the features of the jaw contours will not start at a value close enough to the final global minimum (the exact jaw contour feature point value). It may not be possible to find the exact location of the feature of the correct jaw contour.

본 발명은 얼굴 내부의 주요 부위만 포함하는 영역의 특징점들은 상대적으로 변화가 적고 또한 배경 화면의 영향을 적게 받는다는 점에 착안하여 먼저 얼굴 내부에 대해서만 AAM을 수행하고 이를 통해 얼굴 내부 특징점들을 추출하고 이후 이 정보를 이용하여 얼굴 전체에 대해 특징점들을 추출하는 점진적 AAM 기반 얼굴 윤곽 검출 방법을 제공한다. 본 발명의 이러한 점진적 AAM 기반 얼굴 윤곽 검출 방법은 안정적인 얼굴 특징점을 먼저 찾고 이 정보를 최대한 활용하여 덜 안정적인 턱 부분들의 특징점들도 검출함으로써 자세, 조명, 얼굴 배경 등에 대해 기존 기본 AAM 기반 얼굴 윤곽 검출 방법보다 얼굴 전체 특징점들을 더 잘 검출하는 장점을 제공한다. The present invention focuses on the fact that the feature points of the area including only the main part of the face are relatively less changed and less affected by the background screen, and then perform AAM on only the inside of the face, and then extract the feature points inside the face. A progressive AAM-based face contour detection method is provided for extracting feature points for an entire face using this information. The progressive AAM-based face contour detection method of the present invention finds a stable facial feature point first, and utilizes this information to detect feature points of less stable jaw parts by using the information as much as possible. It provides the advantage of better detecting the whole face feature points.

이상에서 기술한 내용을 기반으로 정리한 본 발명의 목적은 다음과 같다. The object of the present invention summarized based on the above description is as follows.

1) 자세, 조명, 얼굴 배경 등 강인한 AAM 기반 얼굴 윤곽 검출 알고리즘 제공1) Robust AAM-based face contour detection algorithm including posture, lighting, and face background

2) 기존 AAM 기반 얼굴 윤곽 검출 방법보다 자세, 조명, 얼굴 배경 등에 보다 강인한 얼굴 윤곽 검출 알고리즘 제공2) Provides more robust face contour detection algorithm than posture AAM based face contour detection method

3) 현재의 AAM 기반 얼굴 윤곽 검출 방법보다 계산량은 크게 증가하지 않으면서 검출률은 개선된 얼굴 윤곽 검출 방법 제공3) Provides a method for detecting face contours with improved detection rate without increasing the computational complexity compared to current AAM-based face contour detection methods.

본 발명은 얼굴 인식, 얼굴 기반 사용자 인터페이스, 운전자 관찰, 애니메이션, 그 밖의 얼굴 모델링을 필요로 하는 많은 응용에 있어서 필수적인 얼굴 윤곽 검출에 대한 기존 AAM 방법을 개선하여 이 보다 초기값, 자세, 조명, 얼굴 배경 등에 대해 강인하며 검출률이 개선된 얼굴 윤곽 검출 알고리즘을 제공하고자 하는 데 있다. 본 발명에서 기반을 둔 기술은 AAM(Active Apperance Model)을 이용한 방법이다.The present invention improves the existing AAM method for face contour detection, which is essential for many applications requiring face recognition, face-based user interface, driver observation, animation, and other face modeling. An object of the present invention is to provide a face contour detection algorithm that is robust against a background and has an improved detection rate. The technique based on the present invention is a method using an AAM (Active Apperance Model).

본 발명에서 제공하는 점진적 AAM을 이용하는 얼굴 윤곽 검출 방법의 구성 및 동작 흐름도는 도1에 표시되어 있다. 본 발명에서 제공하는 얼굴 윤곽 검출 방법은 ‘얼굴 모델 구성 및 관계 추출’ 과 ‘얼굴 윤곽 검출’ 등의 2단계로 구성된다.A configuration and operation flowchart of the face contour detection method using the progressive AAM provided by the present invention are shown in FIG. The facial contour detection method provided by the present invention is composed of two steps such as 'face model composition and relationship extraction' and 'face contour detection'.

‘얼굴 모델 구성 및 관계 추출’ 단계의 절차는 모델 입력 이미지에서 1) 얼굴 영역 검출 2) 검출된 얼굴 영역 정규화 3) 얼굴 내부 AAM 모델 구성 4) 얼굴 전체 AAM 모델 구성 5) 얼굴 내부 AAM 모델 파라미터 벡터와 얼굴 전체 AAM 모델 파라미터 벡터와의 관계 행렬 추출 등으로 구성되며(도도 1(a) 참조),The procedure of 'Face Model Construction and Relationship Extraction' is performed by 1) face region detection 2) normalization of detected face region 3) construction of face AAM model 4) construction of full face AAM model 5) construction of face AAM model parameter vector And extracting a relation matrix between the entire face AAM model parameter vector (see FIG. 1 (a)),

입력 이미지에서 얼굴 윤곽(얼굴의 특징점들)을 검출하는 ‘얼굴 윤곽 검출’ 단계의 절차는 모델 입력 이미지에서 1) 얼굴 영역 검출 2) 검출된 얼굴 영역 정규화 3) 얼굴 내부 AAM 모델과의 정합 4) 관계 행렬을 통해 얼굴 전체 AAM 모델 파라미터 벡터에 대한 초기값 추정 5) 추정된 초기값을 사용하고 얼굴 전체 AAM 정합을 통한 전체 얼굴 윤곽 검출 등으로 구성된다(도 1(b) 참조).   The procedure of the 'face contour detection' step of detecting face contours (feature points of a face) in an input image is performed by 1) detecting a face region in a model input image 2) normalizing detected face regions 3) matching with an internal AAM model 4). Initial value estimation for the entire face AAM model parameter vector through the relation matrix 5) Using the estimated initial value and total face contour detection through full face AAM matching, etc. (see FIG. 1 (b)).

가. 모델 구성 및 관계 추출 단계 end. Model Construction and Relationship Extraction Steps

1) 얼굴영역 검출 1) Face area detection

얼굴 특징점들을 찾기 위해 입력 영상에서 얼굴 영역을 먼저 검출하여야 한다. 얼굴 영역을 검출하는 데에는 Ada-Boosting알고리즘을 이용하였다.    In order to find facial feature points, a face region must first be detected in an input image. Ada-Boosting algorithm was used to detect facial area.

2) 검출된 얼굴 영역 정규화2) Detected face region normalization

정규화 절차에서는 얼굴 크기를 정규화하고 자세가 틀어진 얼굴에 대해서 똑바로 한다.   The normalization procedure normalizes the face size and straightens the face out of position.

●크기 정규화 Size normalization

- 입력 영상에서 Ada-Boosting 방법으로 검출된 얼굴 영상의 크기는 일정하지 않다. 특징 검출의 효율을 높이기 위해서는 검출된 얼굴 영상의 크기를 일정하게 만드는 정규화 과정이 필요하다. 본 발명에서는 얼굴 영상의 크기를 256(픽셀)*256(픽셀)크기로 정규화하였다. 도면 2는 입력 영상에서 컬러인 경우 흑백으로 바꾸고 흑백 영상에서 얼굴을 검출하고 256*256 크기로 정규화한 결과를 보여준다. ●자세 정규화The size of the face image detected by the Ada-Boosting method in the input image is not constant. In order to increase the efficiency of feature detection, a normalization process for making the size of the detected face image constant is required. In the present invention, the size of the face image is normalized to 256 (pixel) * 256 (pixel) size. Figure 2 shows the result of changing the color to black and white in the input image, the face detected in the black and white image and normalized to 256 * 256 size. Posture normalization

- 얼굴이 회전(rotation in plane)되어 있는 경우에 valley와 edge정보를 사용하여 틸트각도를 얻어내어 얼굴이 회전(rotation in plane)되어 있는 경우, 얼굴자세를 똑바로 하였다.-When the face is rotated in plane, the tilt angle is obtained by using the valley and edge information. When the face is rotated in plane, the face posture is straightened.

도 3은 얼굴 자세를 정규화한 결과를 보여준다.3 shows the result of normalizing the face posture.

3) 얼굴 내부 AAM 모델 구성3) Construct AAM model inside face

본 발명에서 사용한 얼굴 내부 특징점의 개수는 45개이며, 얼굴 내부 특징점들의 위치는 도 4에 나타나 있다. The number of internal facial feature points used in the present invention is 45, and the positions of internal facial feature points are shown in FIG. 4.

가) 기본 AAM(Active Appearance Model) 개요  A) Basic Active Appearance Model (AAM) Overview

여기서 AAM 모델 구성을 이해하기 위해 AAM에 대해 간단히 설명한다. 이 설명은 AAM에 관한 논문(T. F. Cootes, D. J. Edwards, and S. J. Taylor, “Active Appearance Models,” IEEE Trans. Pattern Anal. Mach. Intell., Vol. 23, No. 6, pp. 681?685, Jun. 200)에 기반한다. 이 논문에서 기술된 바와 같이 AAM은 2단계로 구성된다. 모델링 단계와 정합(fitting) 단계로 이루어진다. Here is a brief description of AAM to understand the AAM model configuration. This explanation is given in the paper on AAM (TF Cootes, DJ Edwards, and SJ Taylor, “Active Appearance Models,” IEEE Trans.Pattern Anal.Mach.Intel., Vol. 23, No. 6, pp. 681-685, Jun 200). As described in this paper, AAM consists of two stages. It consists of a modeling step and a fitting step.

① AAM 모델링 ① AAM Modeling

얼굴 윤곽의 특징점의 개수를 개, 모델링에 사용되는 얼굴 모델 이미지의 개수는 M개라고 하자. 이때, 각 얼굴 윤곽 AAM의 형태(shape) 는 개 특징점 좌표 세트로 정의된다. 즉, Assume the number of feature points of the face contour and the number of face model images used for modeling are M. In this case, the shape of each facial contour AAM is defined as a set of feature point coordinates. In other words,

Figure 112007006184415-PAT00001
(1)
Figure 112007006184415-PAT00001
(One)

(여기서

Figure 112007006184415-PAT00002
는 i 번째 얼굴 특징점의 좌표를,'t'는 벡터와 행렬의 전치(transpose)를 의미한다.)(here
Figure 112007006184415-PAT00002
Is the coordinate of the i th facial feature point, and 't' is the transpose of the vector and the matrix.)

이 때, 각 얼굴의 형태 X 벡터는 이미 프로크루스테스(Procrustes) 분석에 의해 정규화되었다고 가정한다. M 개의 모델 이미지 형태에 대해 PCA하여, 평균 형태

Figure 112007006184415-PAT00003
, n개의 형태 고유벡터(모드)
Figure 112007006184415-PAT00004
을 구할 수 있으며, 따라서 모델 얼굴 또는 새로운 입력 이미지의 얼굴의 형태 X는 다음과 같이 이들의 선형 결합 으로 나타낼 수 있다. At this time, it is assumed that the shape X vector of each face has already been normalized by procrustes analysis. PCA about the M model image shape, the average shape
Figure 112007006184415-PAT00003
, n shape eigenvectors (mode)
Figure 112007006184415-PAT00004
Therefore, the shape X of the model face or the face of the new input image can be represented by their linear combination as follows.

Figure 112007006184415-PAT00005
(2)
Figure 112007006184415-PAT00005
(2)

(여기서,

Figure 112007006184415-PAT00006
)(here,
Figure 112007006184415-PAT00006
)

그레이 레벨 텍스쳐의 통계적 모델 구축을 위해 각 모델의 특징점들이 평균 형태

Figure 112007006184415-PAT00007
에 정합되도록 들로니 삼각법 알고리즘(Delaunay triangulation algorithm) 을 이용하여 모델 이미지들을 워핑한다. 이후, 형태 정규화된 모델 이미지들로부터 그레이 레벨 정보를 샘플링 하여
Figure 112007006184415-PAT00008
을 얻는다. 다시 조명 변화의 영향을 줄이기 위해, 다음과 같이 정규화 한다. The feature points of each model are averaged to build a statistical model of gray level texture.
Figure 112007006184415-PAT00007
The model images are warped using a Delaunay triangulation algorithm to match. Then, the gray level information is sampled from the shape normalized model images.
Figure 112007006184415-PAT00008
Get To reduce the effects of lighting changes again, normalize as follows.

Figure 112007006184415-PAT00009
(3)
Figure 112007006184415-PAT00009
(3)

(여기서

Figure 112007006184415-PAT00010
는 스케일링 상수,
Figure 112007006184415-PAT00011
는 오프셋상수로
Figure 112007006184415-PAT00012
가 정규화된 평균에 정합되도록 결정된 상수)(here
Figure 112007006184415-PAT00010
Is the scaling constant,
Figure 112007006184415-PAT00011
Is an offset constant
Figure 112007006184415-PAT00012
Constant determined to match the normalized mean)

이제 형태 벡터에서와 같이 텍스쳐에 대해서도 PCA를 적용하여 각 모델 얼굴 또는 새로운 입력 이미지의 얼굴의 텍스쳐 벡터

Figure 112007006184415-PAT00013
을 다음과 같이 평균 정규화된 그레이 레벨 벡터
Figure 112007006184415-PAT00014
Figure 112007006184415-PAT00015
개의 고유 텍스쳐 모드 벡터
Figure 112007006184415-PAT00016
의 선형 모델로 표현할 수 있다. Now apply the PCA to the textures as in the shape vector so that each texture face is a texture vector of the face of the new input image.
Figure 112007006184415-PAT00013
Mean normalized gray level vector as
Figure 112007006184415-PAT00014
Wow
Figure 112007006184415-PAT00015
Unique texture mode vectors
Figure 112007006184415-PAT00016
It can be expressed as a linear model of.

Figure 112007006184415-PAT00017
(4)
Figure 112007006184415-PAT00017
(4)

(여기서,

Figure 112007006184415-PAT00018
)(here,
Figure 112007006184415-PAT00018
)

식 (2)와 (4)는 통합하여 다음과 같이 공통의 파라미터 벡터

Figure 112007006184415-PAT00019
로 기술할 수 있다.Equations (2) and (4) combine to form a common parameter vector as follows:
Figure 112007006184415-PAT00019
It can be described as

Figure 112007006184415-PAT00020
(5a)
Figure 112007006184415-PAT00020
(5a)

Figure 112007006184415-PAT00021
(5b)
Figure 112007006184415-PAT00021
(5b)

식 (5)와 같이 객체(우리의 경우는 얼굴)의 형태와 텍스쳐를 모델링한 것을 (결합) AAM이라 한다.Modeling the shape and texture of an object (face in our case), as shown in (5), is called (combined) AAM.

② AAM 정합(Fitting)② AAM Fitting

AAM 모델 (5)을 새로운 이미지에 정합하는 것, 즉 AAM 모델을 적용하여 새로운 이미지에서 얼굴 윤곽을 찾아내는 것은 최적화 문제이다. AAM에서는 (5)로 모델링된 얼굴 이미지의 텍스쳐와 새롭게 입력된 얼굴 이미지의 텍스쳐와의 에러의 제곱을 최소화하도록 하는 모델 (5)의 파라미터 벡터

Figure 112007006184415-PAT00022
를 찾고 이때의 파라미터 벡터
Figure 112007006184415-PAT00023
를 가지고 (5a)로 표현되는 얼굴 윤곽을 새로 입력된 이미지에서 찾고자 하는 얼굴 윤곽으로 판정한다. 에러 제곱을 최소화 하는 파라미터 벡터
Figure 112007006184415-PAT00024
를 어떻게 찾아 나아가느냐 하는 것과 최적화 절차 수행에 필요한 파라미터 벡터의 초기값 설정은 각 AAM 구현 알고리즘에 달려 있다. 보통 초기값 설정은 평균 형태 즉,
Figure 112007006184415-PAT00025
을 취한다. Matching the AAM model (5) to a new image, that is, applying the AAM model to find face contours in the new image is an optimization problem. In AAM, the parameter vector of model (5) minimizes the square of the error between the texture of the face image modeled as (5) and the texture of the newly input face image.
Figure 112007006184415-PAT00022
Find the parameter vector
Figure 112007006184415-PAT00023
The face outline represented by (5a) is determined as the face outline to be found in the newly input image. Parameter Vector Minimizing Error Squares
Figure 112007006184415-PAT00024
How to find and set the initial value of the parameter vector required to perform the optimization procedure is up to each AAM implementation algorithm. Usually the initial setting is in average form,
Figure 112007006184415-PAT00025
Take

나) 얼굴 내부 AAM 모델 구성B) Construct AAM model inside face

앞 3-가)에서 설명한 AAM에 기반하여 주어진 모델 얼굴 영상들에 대해서 각각 45개의 얼굴 내부 특징점들을 수동으로 검출하고 이 수동 검출된 얼굴 내부 특징점을 이용하여 얼굴 내부 AAM 모델을 훈련하여 얼굴 내부 AAM 모델을 구성한다. 얼굴 내부 모델링에 의한 평균 형태 및 첫 2개 모드 형태 변화들이 도5에, 평균 텍스쳐 및 첫 2개 모드 텍스쳐 변화들이 도 6에 나타나 있다.   Based on the AAM described in the above 3-A), 45 face feature points are manually detected for each of the given model face images, and the face face AAM model is trained using the manually detected face feature points. Configure The average shape and first two mode shape changes by intra-face modeling are shown in FIG. 5 and the average texture and first two mode texture changes are shown in FIG. 6.

4) 얼굴 전체 AAM 모델 구성4) Full Face AAM Model

얼굴 전체 특징점 개수는 얼굴 내부 특징점 45개, 턱부분 13개 모두 합하여 58개이다. 앞 3-가)에서 설명한 AAM에 기반하여 주어진 모델 얼굴 영상들에 대해서 각 각 58개의 얼굴 전체 특징점들을 수동으로 검출하고 이 수동 검출된 얼굴 전체 특징점을 이용하여 얼굴 전체 AAM 모델을 훈련하여 얼굴 전체 AAM 모델을 구성한다. 얼굴 전체 모델링에 의한 평균 형태 및 첫 2개 모드 형태 변화들이 도7에, 평균 텍스쳐 및 첫 2개 모드 텍스쳐 변화들이 도 8에 나타나 있다.  The total number of facial feature points is 58, including all 45 internal feature points and 13 chin parts. Based on the AAM described in the above 3-A), each of the 58 facial full feature points is manually detected for the given model face images, and the entire face AAM model is trained using the manually detected face total feature points to complete the full face AAM. Construct the model. Average shape and first two mode shape changes by full face modeling are shown in FIG. 7, and average texture and first two mode texture changes are shown in FIG. 8.

5) 얼굴 내부 AAM 모델 파라미터 벡터와 얼굴 전체 AAM 모델 파라미터 벡터와의 관계 행렬 추출5) Extraction of the relationship matrix between the face AAM model parameter vector and the face AAM model parameter vector

앞에서 기술한 점진적 AAM 기반 얼굴 윤곽 검출 방법에서 가장 중요한 과정은 얼굴 내부 AAM 모델 파라미터 벡터로부터 얼굴 전체 AAM 모델 파라미터 벡터에 대한 초기값을 어떻게 추정하는가 하는 과정이다.In the progressive AAM-based face contour detection method described above, the most important process is how to estimate the initial value of the entire face AAM model parameter vector from the face AAM model parameter vector.

본 발명에서는 2개의 모델 파라미터 벡터들이 상관관계가 있다는 것에 착안하여 그 상관관계를 최적화 문제로 접근하여 해결하였다. In the present invention, two model parameter vectors are correlated, and the correlation is solved by an optimization problem.

모델 얼굴 이미지의 얼굴 내부 AAM의 파라미터가 p개, 얼굴 전체 AAM에 대한 파라미터의 수가 q개 라 하자(이러한 파라미터 계수는 에너지 95%정도가 포함되도록 결정되었다).Assume that there are p parameters in the face AAM of the model face image and q parameters for the entire face AAM (these parameters were determined to include 95% energy).

이제 얼굴 내부 AAM을 다음과 같이 나타내자.Now let's express the inner AAM as follows:

Figure 112007006184415-PAT00026
(6)
Figure 112007006184415-PAT00026
(6)

이제, 각 모델 이미지(총 M 개)에 대해 식 (6)으로 모델링 될 때, 각 얼굴 내부 AAM 파라미터의 벡터를

Figure 112007006184415-PAT00027
라 하자. 또, 각 모델 이미지(총 M개)에 대해 얼굴 전체 AAM이 식 (5)로 모델링 될 때 각 얼굴 전체 AAM 파라미터 벡터를
Figure 112007006184415-PAT00028
이라 하자.
Figure 112007006184415-PAT00029
Figure 112007006184415-PAT00030
는 서로 관계가 있음을 알고 있다. 이제
Figure 112007006184415-PAT00031
Figure 112007006184415-PAT00032
에 대해 다음의 선형 관계Now, when modeled with Eq. (6) for each model image (total M totals), a vector of AAM parameters inside each face
Figure 112007006184415-PAT00027
Let's do it. In addition, for each model image (M total), when the full face AAM is modeled by Eq.
Figure 112007006184415-PAT00028
Let's say
Figure 112007006184415-PAT00029
Wow
Figure 112007006184415-PAT00030
Know that they are related to each other. now
Figure 112007006184415-PAT00031
Wow
Figure 112007006184415-PAT00032
The following linear relationship for

Figure 112007006184415-PAT00033
(7)
Figure 112007006184415-PAT00033
(7)

가 성립한다고 가정하자. 그런데, 추가적으로

Figure 112007006184415-PAT00034
가 거의
Figure 112007006184415-PAT00035
에 대해 변화가 별로 없다고 가정하자, 즉
Figure 112007006184415-PAT00036
. 식 (7)을 모두 만족시키는 최적해
Figure 112007006184415-PAT00037
Figure 112007006184415-PAT00038
Figure 112007006184415-PAT00039
을 행렬
Figure 112007006184415-PAT00040
로 표현하고,
Figure 112007006184415-PAT00041
Figure 112007006184415-PAT00042
을 행
Figure 112007006184415-PAT00043
렬 로 표현하기로 하면, 즉Assume that is true. However, in addition
Figure 112007006184415-PAT00034
Almost
Figure 112007006184415-PAT00035
Suppose there is not much change for, i.e.
Figure 112007006184415-PAT00036
. Optimum solution to satisfy all of equation (7)
Figure 112007006184415-PAT00037
Is
Figure 112007006184415-PAT00038
Figure 112007006184415-PAT00039
Matrix
Figure 112007006184415-PAT00040
Expressed as
Figure 112007006184415-PAT00041
Figure 112007006184415-PAT00042
Row
Figure 112007006184415-PAT00043
If we choose to represent it as a column,

Figure 112007006184415-PAT00044
(8)
Figure 112007006184415-PAT00044
(8)

이때, 다음의 식(9) 을 풀어 최적해

Figure 112007006184415-PAT00045
을 구할 수 있다.At this time, solve the following equation (9)
Figure 112007006184415-PAT00045
Can be obtained.

Figure 112007006184415-PAT00046
(9)
Figure 112007006184415-PAT00046
(9)

(즉,

Figure 112007006184415-PAT00047
Figure 112007006184415-PAT00048
을 최소화하는
Figure 112007006184415-PAT00049
이다).(In other words,
Figure 112007006184415-PAT00047
Is
Figure 112007006184415-PAT00048
To minimize
Figure 112007006184415-PAT00049
to be).

이후 입력 영상 이미지에서 얼굴 내부 AAM 모델 기반 얼굴 내부 특징점들을 검출한 후에 얻은 얼굴 내부 파라미터 벡터

Figure 112007006184415-PAT00050
에 대해 얼굴 전체 AAM 모델 기반 얼굴 윤곽 검출을 위한 초기 파라미터 벡터 값
Figure 112007006184415-PAT00051
Figure 112007006184415-PAT00052
로 추정한다.Intra-face parameter vector obtained after detecting intra-face AAM model-based intra feature points in the input image
Figure 112007006184415-PAT00050
Initial Parameter Vector Values for Face Contour Detection Based on Full Face AAM Model
Figure 112007006184415-PAT00051
Is
Figure 112007006184415-PAT00052
Estimate as

나. 얼굴 윤곽 검출 단계 I. Facial contour detection step

얼굴 윤곽 검출 단계의 절차 1), 2)는 얼굴 모델 구성 및 관계 추출 단계의 1), 2) 와 동일하므로 생략하고 3)부터 기술한다.Procedures 1) and 2) of the face contour detection step are the same as 1) and 2) of the face model configuration and relationship extraction step, and are omitted from 3).

3) 얼굴 내부 AAM 모델과의 매칭 4) 관계 행렬을 통해 얼굴 전체 AAM 모델 파라미터 벡터에 대한 초기값 추정 5) 추정된 초기값을 사용하고 얼굴 전체 AAM 매칭을 이용하여 전체 얼굴 윤곽 검출 등으로 구성된다3) Matching with the internal AAM model 4) Estimation of the initial value of the entire face AAM model parameter vector through the relation matrix 5) Using the estimated initial value and full face contour detection using full face AAM matching

3) 얼굴 내부 AAM 모델과의 정합3) Match with the face AAM model

입력 얼굴 영상에서 먼저 얼굴 내부 AAM 모델(식 (6))을 이용하여 얼굴 내부에 대해 얼굴 내부와 가장 정합이 잘 되는 얼굴 내부 AAM 모델 파라미터 벡터를 구한다. In the input face image, first, an intra-face AAM model parameter vector that best matches the inside of a face is obtained for the inside of the face using the intra-face AAM model (Equation 6).

4) 관계 행렬을 통해 얼굴 전체 AAM 모델 파라미터 벡터에 대한 초기값 추정4) Estimation of initial values for the full face AAM model parameter vector using the relation matrix.

앞 3)에서 구한 얼굴 내부 AAM 파라미터 벡터

Figure 112007006184415-PAT00053
와 가-5)에서 구한 관계 행렬
Figure 112007006184415-PAT00054
을 이용하여
Figure 112007006184415-PAT00055
로 얼굴 전체 AAM 모델 파라미터 벡터에 대한 초기값
Figure 112007006184415-PAT00056
을 추정한다.Face AAM parameter vector obtained in the previous 3)
Figure 112007006184415-PAT00053
Relation matrix obtained from and A-5)
Figure 112007006184415-PAT00054
Using
Figure 112007006184415-PAT00055
Initial value for full face AAM model parameter vector
Figure 112007006184415-PAT00056
Estimate

5) 추정된 초기값을 사용하고 얼굴 전체 AAM 정합을 통한 전체 얼굴 윤곽 검출5) Full face contour detection using estimated initial value and full face AAM matching

이제, 4)에서 구한 얼굴 전체 AAM 모델 정합을 위한 초기값

Figure 112007006184415-PAT00057
을 이용하여 AAM 정합 단계에서 얼굴 윤곽 (얼굴 전체 특징점들) 검출 수행Now, the initial value for the full face AAM model matching obtained in 4)
Figure 112007006184415-PAT00057
Face detection (Face Total Feature Points) in AAM Registration

본 발명에서 제공하는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법은 기존 AAM 기반 얼굴 윤곽 검출 방법보다 초기 조건, 자세, 조명, 복잡한 배경 등에 대해 더 강인하여 성공률이 더 개선되는 장점을 제공한다. 이러한 결과는 얼굴 인식, 얼굴 기반 사용자 인터페이스, 운전자 관찰, 애니메이션, 그 밖의 얼굴 모델링을 필요로 하는 많은 응용에 있어서 보다 좋은 개발이 가능하도록 한다. The facial contour detection method using the progressive AAM provided by the present invention is more robust to the initial condition, posture, lighting, complex background, and the like than the conventional AAM-based facial contour detection method, thereby providing an advantage that the success rate is further improved. These results enable better development in many applications that require face recognition, face-based user interfaces, driver observation, animation, and other face modeling.

Claims (6)

도면 1에 표시된 얼굴 윤곽 모델 구성 및 관계 추출 단계 및 얼굴 윤곽 검출 단계 흐름도Flowchart of facial contour model construction and relationship extraction and facial contour detection 제 1항에 있어서, 얼굴 내부 및 얼굴 전체 AAM 등 2단계 얼굴 AAM 모델을 구성하는 방법The method of claim 1, wherein a two-step facial AAM model is constructed, such as a face inside and a face AAM. 제 1항에 있어서, 얼굴 내부 AAM 모델 파라미터 벡터와 얼굴 전체 AAM 모델 파라미터 벡터와의 관계 행렬을 추출하는 방법 2. The method of claim 1, wherein the relationship matrix between the intra-face AAM model parameter vector and the entire face AAM model parameter vector is extracted. 제 1항에 있어서, 얼굴 내부 AAM 모델과의 정합을 통한 얼굴 내부 파라미터 벡터를 구하는 방법The method of claim 1, wherein an internal parameter vector is obtained by matching with an internal AAM model. 제 1항에 있어서, 관계 행렬을 이용하여 얼굴 전체 AAM 모델 정합을 위한 초기값 추정 방법 The method of claim 1, wherein the initial value estimation method is performed for matching the entire face AAM model using a relation matrix. 제 1항에 있어서, 얼굴 전체 AAM 정합을 통한 모델과의 정합하여 얼굴 전체 특징점들을 추출하는 방법 The method of claim 1, wherein the face full feature points are extracted by matching with the model through full face AAM matching.
KR1020070006512A 2007-01-22 2007-01-22 Progressive aam based robust face alignment KR20080068988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070006512A KR20080068988A (en) 2007-01-22 2007-01-22 Progressive aam based robust face alignment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070006512A KR20080068988A (en) 2007-01-22 2007-01-22 Progressive aam based robust face alignment

Publications (1)

Publication Number Publication Date
KR20080068988A true KR20080068988A (en) 2008-07-25

Family

ID=39822434

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070006512A KR20080068988A (en) 2007-01-22 2007-01-22 Progressive aam based robust face alignment

Country Status (1)

Country Link
KR (1) KR20080068988A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160024309A (en) * 2014-08-25 2016-03-04 한화테크윈 주식회사 System and method for estimating age using mesh and average face patch
KR20160095533A (en) * 2015-02-03 2016-08-11 한국기술교육대학교 산학협력단 Method for providing service of three dimensional face modeling
US10002308B2 (en) 2013-12-13 2018-06-19 Samsung Electronics Co., Ltd. Positioning method and apparatus using positioning models

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10002308B2 (en) 2013-12-13 2018-06-19 Samsung Electronics Co., Ltd. Positioning method and apparatus using positioning models
KR20160024309A (en) * 2014-08-25 2016-03-04 한화테크윈 주식회사 System and method for estimating age using mesh and average face patch
KR20160095533A (en) * 2015-02-03 2016-08-11 한국기술교육대학교 산학협력단 Method for providing service of three dimensional face modeling

Similar Documents

Publication Publication Date Title
WO2020063527A1 (en) Human hairstyle generation method based on multi-feature retrieval and deformation
WO2018205801A1 (en) Facial animation implementation method, computer device, and storage medium
CN101593022B (en) Method for quick-speed human-computer interaction based on finger tip tracking
Hu et al. Hand pointing estimation for human computer interaction based on two orthogonal-views
WO2016023264A1 (en) Fingerprint identification method and fingerprint identification device
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
WO2012129727A1 (en) Method of facial landmark detection
Aykut et al. AAM-based palm segmentation in unrestricted backgrounds and various postures for palmprint recognition
CN105335719A (en) Living body detection method and device
CN106599810B (en) A kind of head pose estimation method encoded certainly based on stack
CN107886558A (en) A kind of human face expression cartoon driving method based on RealSense
CN109190535A (en) A kind of face blee analysis method and system based on deep learning
CN109858433B (en) Method and device for identifying two-dimensional face picture based on three-dimensional face model
CN105975906B (en) A kind of PCA static gesture identification methods based on area features
Xue et al. Bayesian shape model for facial feature extraction and recognition
Sethi et al. Signpro-An application suite for deaf and dumb
CN108154176B (en) 3D human body posture estimation algorithm aiming at single depth image
KR20080068988A (en) Progressive aam based robust face alignment
Singh et al. Performance enhancement of 2D face recognition via mosaicing
Fooprateepsiri et al. A general framework for face reconstruction using single still image based on 2D-to-3D transformation kernel
Brahme et al. Lip detection and lip geometric feature extraction using constrained local model for spoken language identification using visual speech recognition
Caplier et al. Comparison of 2D and 3D analysis for automated cued speech gesture recognition
Güney et al. Cross-pose facial expression recognition
Peng et al. A robust and efficient algorithm for eye detection on gray intensity face
Xue et al. Facial feature extraction and image warping using PCA based statistic model

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid