KR20090050199A - Real-time facial expression recogintion based on optical flow and hidden markov models - Google Patents

Real-time facial expression recogintion based on optical flow and hidden markov models Download PDF

Info

Publication number
KR20090050199A
KR20090050199A KR1020070116503A KR20070116503A KR20090050199A KR 20090050199 A KR20090050199 A KR 20090050199A KR 1020070116503 A KR1020070116503 A KR 1020070116503A KR 20070116503 A KR20070116503 A KR 20070116503A KR 20090050199 A KR20090050199 A KR 20090050199A
Authority
KR
South Korea
Prior art keywords
facial expression
face
facial
hidden markov
optical flow
Prior art date
Application number
KR1020070116503A
Other languages
Korean (ko)
Inventor
박범
전준철
신기한
Original Assignee
주식회사 휴민텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 휴민텍 filed Critical 주식회사 휴민텍
Priority to KR1020070116503A priority Critical patent/KR20090050199A/en
Publication of KR20090050199A publication Critical patent/KR20090050199A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Abstract

본 발명은 사람 얼굴의 눈썹, 눈, 입과 같은 특징점들의 움직임 정보를 광류 알고리즘을 이용하여 추적하고 은닉 마르코프 모델을 이용하여 얼굴 표정은 인식하는 방법이다. 얼굴 표정 인식 시스템은 전처리 과정, 얼굴 검출, 얼굴 특징점 추적, 얼굴 표정 인식으로 구성된다. 전처리 과정에서는 실시간으로 입력된 영상에 대하여 조명의 영향을 최소화하기 위한 단계로 최대-최소 정규화 방법과 참조 화이트를 이용하여 영상을 개선한다. 개선된 영상에 대하여 얼굴 영역을 검출해야 하는데 본 시스템에서는 H-T 컬러모델을 이용하여 얼굴의 후보 영역을 검출하고, 검출된 후보 영역에 대하여 주성분분석과 템플릿 매칭을 이용하여 정확한 얼굴 영역을 검출한다. 얼굴 특징점 추적 단계에서는 얼굴의 기하학적 정보를 이용하여 눈썹, 눈, 입의 특징점들의 위치를 획득하고, 각각의 특징점들의 움직임을 광류 알고리즘을 이용하여 추적한다. 얼굴 표정 인식 단계에서는 본 시스템에서 제안한 표정 패턴 모델을 은닉 마르코프 모델에 적용하여 표정 인식을 수행한다.The present invention tracks motion information of feature points such as eyebrows, eyes, and mouth of a human face using an optical flow algorithm, and recognizes facial expressions using a hidden Markov model. The facial expression recognition system is composed of preprocessing, face detection, facial feature point tracking, and facial expression recognition. In the preprocessing process, the image is improved by using the maximum-minimum normalization method and the reference white as a step to minimize the influence of illumination on the image input in real time. The face region should be detected for the improved image. In this system, the candidate region of the face is detected using the H-T color model, and the exact face region is detected using the principal component analysis and the template matching. In the facial feature point tracking step, the positions of eyebrows, eyes, and mouth feature points are acquired using geometric information of the face, and the motion of each feature point is tracked using an optical flow algorithm. In the facial expression recognition step, facial expression recognition is performed by applying the facial expression model proposed in this system to the hidden Markov model.

얼굴, 표정, 인식, 광류, 은닉 마르코프 모델 Face, facial expression, recognition, optical flow, hidden markov model

Description

광류와 은닉 마르코프 모델을 이용한 실시간 얼굴 표정 인식{Real-Time Facial Expression Recogintion based on Optical Flow and Hidden Markov Models}Real-Time Facial Expression Recogintion based on Optical Flow and Hidden Markov Models}

얼굴 표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI 등 다양한 분야에서 연구가 활발히 진행되고 있다. 얼굴 표정은 사람의 감정뿐만 아니라 마음의 상태, 사회적 상호작용, 생리적 신호 등의 다양한 정보를 포함하고 있다. 얼굴 표정에 관련된 연구의 중요성이 증대되고 있는 이유는 컴퓨터의 성능 향상에 따른 처리 비용이 감소하는 영향과 얼굴 검출, 얼굴 추적, 얼굴 인식 등의 다양한 영역에서의 연구와 밀접한 관련이 있기 때문에 상호보완적으로 발전할 수 있기 때문이다. 얼굴 표정 인식은 가상현실, 영상의 이해, 심리학 연구, 의학 분야, 얼굴 영상 압축, 얼굴 애니메이션 합성 등 다양한 영역에서의 연구와 연관되어 발전할 수 있다.Facial expression recognition is being actively researched in various fields such as psychology research, facial animation synthesis, robotics, and HCI. Facial expressions contain not only human emotions but also a variety of information, including state of mind, social interactions, and physiological signals. The importance of research on facial expressions is increasing because it is closely related to research in various areas such as face detection, face tracking, and face recognition due to the reduction of processing cost due to the improvement of computer performance. Because it can develop into. Facial expression recognition can be developed in connection with research in various areas such as virtual reality, image comprehension, psychology research, medical field, facial image compression, and facial animation synthesis.

얼굴 표정 인식은 사람의 나이, 민족, 성, 문화 등의 다양한 요소들을 고려해야한다. 얼굴 표정 인식은 얼굴 검출, 얼굴 특징 추출, 얼굴 표정 분류의 세 단계로 구성된다.Facial expression recognition must take into account a variety of factors, including a person's age, ethnicity, gender, and culture. Facial expression recognition consists of three stages: face detection, facial feature extraction, and facial expression classification.

얼굴 특징 추출은 크게 변형 기반의 추출 방법과 움직임 기반의 추출 방법이 있다. 변형 기반의 추출 방법은 얼굴 영상에 대하여 전역적, 또는 국부적 영역에 대한 변형을 분석하여 추출하는 방법으로 정확한 추출을 하기 위하여 얼굴과 배경을 분리하는 전처리가 필요하다. 모델 기반의 얼굴 특징 변형을 추출하는 방법은 얼굴의 형태, 텍스쳐 정보를 이용하여 변형을 추출하는 방법이다. ASM은 정점으로 구성된 형태 모델을 이용하여 변하는 형태를 통계적으로 분석하여 표현하는 방법이며, AAM은 얼굴의 형태와 텍스쳐 정보를 이용하여 얼굴 영상을 해석하는 방법이다. 얼굴의 특징점에 대하여 Gabor Wavelet을 적용하여 추출된 Gabor Jet으로 이루어진 Graph를 이용하는 Labeled Graph 방법이 있다.Facial feature extraction can be classified into deformation-based extraction and motion-based extraction. Deformation-based extraction method is a method of extracting the analysis of the global or local region for the face image, and requires a preprocessing to separate the face and the background in order to accurately extract. The method of extracting the model-based facial feature deformation is a method of extracting the deformation by using face shape and texture information. ASM is a method of statistically analyzing the changing shape using a shape model composed of vertices, and AAM is a method of analyzing a face image using the shape and texture information of the face. There is a Labeled Graph method that uses a graph consisting of Gabor Jet extracted by applying Gabor Wavelet to the facial feature points.

얼굴 특징의 움직임을 추출하는 방법은 다음과 같다. Dense Optical Flow 방법은 전체적, 국부적 얼굴의 특징 부분에 대해 픽셀값의 변화 흐름을 추출하여 얼굴의 움직임을 분석한다. Feature Point Tracking은 얼굴의 주요 특징들의 움직임을 추출하는 방법으로 일반적으로 초기의 특징점 위치를 수작업을 통해 주어진다. Marker Tracking은 얼굴에 직접 마커를 부착하여 얼굴 표정에 의하여 발생하는 마커의 위치 변화를 추적하여 움직임을 획득하는 방법이다.The method of extracting the motion of facial features is as follows. The Dense Optical Flow method analyzes the movement of the face by extracting the flow of change in pixel values for the global and local facial features. Feature Point Tracking is a method of extracting the movements of the main features of the face. Marker Tracking is a method of acquiring a motion by tracking a position change of a marker caused by facial expression by attaching a marker directly on the face.

얼굴 표정 분류 과정은 크게 공간적 접근법과 시공간적 접근법으로 나눌 수 있다. 공간적 접근법은 영상의 분석을 통해 표정을 분류하는 방법으로 PCA, ICA, Gabor Wavelet과 같은 방법을 이용하여 표정을 분류한다. 시공간적 접근법은 시간의 변화에 따른 얼굴 특징의 변화 패턴을 분석하여 얼굴 표정을 분류하는 방법으로 HMM, Spatio-Temporal Motion-Energy Template과 같은 방법을 이용하여 얼굴 표정을 분류한다.The facial expression classification process can be largely divided into a spatial approach and a space-time approach. Spatial approach is to classify facial expressions through analysis of images and classify facial expressions using methods such as PCA, ICA, and Gabor Wavelet. The spatiotemporal approach classifies facial expressions by analyzing patterns of facial feature changes over time, and classifies facial expressions using methods such as HMM and Spatio-Temporal Motion-Energy Template.

얼굴 표정 인식은 얼굴 영역 검출과 특징점 추적, 그리고 얼굴 표정 인식 방법으로 구성된다. 입력된 영상에서 정확한 얼굴 영역을 검출하고, 얼굴 표정 인식을 위한 얼굴의 특징점들을 정확히 획득해야 하며, 다양한 얼굴 표정 변화를 인식하는 문제를 해결하고자 한다.Facial expression recognition consists of face region detection, feature point tracking, and facial expression recognition. To solve the problem of detecting an accurate face region from an input image, accurately acquiring facial feature points for facial expression recognition, and recognizing various facial expression changes.

본 발명은 실시간 기반의 얼굴 특징점의 변화를 추적하여 얼굴 표정을 인식하는 방법을 제공하는데 그 목적이 있다. 목적을 달성하기 위하여 광류 알고리즘과 은닉 마르코프 모델을 이용하여 얼굴 표정 인식을 수행한다. 실시간으로 입력된 영상에 대하여 최대-최소 정규화 방법과 참조 화이트를 적용하여 조명의 영향을 최소화하는 전처리 과정을 거친 후, H-T 컬러모델을 이용하여 얼굴 후보 영역을 검출한다. 검출된 후보 영역에 대하여 주성분분석과 템플릿 매칭을 이용하여 정확한 얼굴 영역을 획득한다. 검출된 얼굴 영역에 대하여 얼굴의 기하학적 정보를 이용하여 눈썹, 눈, 입의 특징들을 추출하고 각 특징점들의 움직임을 광류 알고리즘를 이용하여 추적한다. 매 프레임마다 추출된 특징점들의 움직임 정보를 은닉 마르코프 모델에 적용하여 얼굴 표정을 인식한다.It is an object of the present invention to provide a method for recognizing facial expressions by tracking changes in facial feature points based on real time. To achieve the objective, facial expression recognition is performed using optical flow algorithm and hidden Markov model. After applying the maximum-minimum normalization method and the reference white to the input image in real time, the pre-processing process is minimized to minimize the influence of illumination, and then the face candidate region is detected using the H-T color model. An accurate face region is obtained by using principal component analysis and template matching on the detected candidate region. Features of eyebrows, eyes, and mouths are extracted using the geometric information of the face with respect to the detected face region, and the movement of each feature point is tracked using an optical flow algorithm. The facial information is recognized by applying the motion information of the feature points extracted every frame to the hidden Markov model.

기존의 얼굴 표정 인식의 방법은 기본 얼굴 표정과 각 최종 얼굴 표정 사이의 변화만을 인식하였다. 본 발명에서는 기본 얼굴 표정과 각 최종 얼굴 표정 사이 의 변화 패턴에다 각 최종 표정 사이의 변화 패턴을 인식할 수 있는 표정 패턴 모델을 설계하여 기존의 표정 인식 방법과 비교하여 더욱 다양한 표정을 인식할 수 있는 효과가 있다.The existing facial expression recognition method recognizes only the change between the basic facial expression and each final facial expression. In the present invention, by designing a facial expression pattern model that can recognize the pattern of change between the final facial expression and the basic facial expression and each final facial expression, it is possible to recognize more various expressions compared to the conventional facial recognition method It works.

이하, 첨부된 도면을 참조하여 본 발명의 구성을 설명하면 다음과 같다.Hereinafter, the configuration of the present invention with reference to the accompanying drawings.

도 1은 얼굴 표정 인식 시스템의 구성도로써, 얼굴 검출 단계, 얼굴 특징점 추적 단계, 얼굴 표정 인식 단계로 구성된다.1 is a block diagram of a facial expression recognition system, and includes a face detection step, a facial feature point tracking step, and a facial expression recognition step.

1 단계는 실시간으로 입력된 영상에 대하여 전처리 과정을 통해 영상을 개선시키는 단계이다. 식 (1)의 최대-최소 정규화 방법과 식 (2)의 참조 화이트를 적용한다.The first step is to improve the image through a preprocessing process for the image input in real time. The maximum-minimum normalization method of equation (1) and the reference white of equation (2) are applied.

Figure 112007081926120-PAT00001
(1)
Figure 112007081926120-PAT00001
(One)

Figure 112007081926120-PAT00002
(2)
Figure 112007081926120-PAT00002
(2)

개선된 영상에 대하여 H-T 컬러모델을 이용하여 얼굴 후보 영역을 검출한다. 도 2는 얼굴 후보 영역을 검출하는 과정을 도식화한 것으로 RGB 컬러모델의 입력 영상을 HSI 컬러모델의 H값과 TSL 컬러모델의 T값으로 변환하여 획득하고 이를 이용하여 얼굴 후보 영역을 획득한다.The face candidate region is detected using the H-T color model for the improved image. 2 is a diagram illustrating a process of detecting a face candidate area. The input image of the RGB color model is obtained by converting the input image of the RGB color model into the H value of the HSI color model and the T value of the TSL color model.

얼굴 후보 영역에 대하여 도 3에서 도식화한 것과 같이 주성분분석을 이용하여 정확한 얼굴 영역을 획득한다. 주성분분석은 고유값을 내림차순 정렬하여 뒷부 분에 있는 주성분들을 제거하여 고차원의 데이터를 저차원의 데이터로 축소하는 방법이다. 얼굴 영상의 훈련 데이터들로부터 평균 얼굴 영상을 구하고 훈련 데이터와 평균 영상 사이의 차 벡터로 구성된 공분산 행렬의 고유벡터를 고유공간에 투영시킨 영상이 고유얼굴이며, 이 고유값에 해당하는 고유벡터일수록 얼굴과의 유사성이 높다. 입력된 얼굴 후보 영역과 얼굴 훈련 데이터들로부터 획득한 얼굴 템플릿 영상에 대하여 각각 주성분분석을 적용한 후 두 특징 벡터 사이의 식 (3)의 유클리디언 거리를 계산하여 정확한 얼굴 영역을 획득한다.As shown in FIG. 3, the face candidate region is used to obtain an accurate face region using principal component analysis. Principal component analysis is a method of reducing dimensional data into low dimensional data by removing dominant components by rearranging eigenvalues in descending order. The image obtained by obtaining the average face image from the training data of the face image and projecting the eigenvector of the covariance matrix composed of the difference vectors between the training data and the average image in the eigenspace is the eigenface. High similarity with After applying principal component analysis to the face template image obtained from the input face candidate region and the face training data, the Euclidean distance of Equation (3) between two feature vectors is calculated to obtain an accurate face region.

Figure 112007081926120-PAT00003
(3)
Figure 112007081926120-PAT00003
(3)

얼굴의 기하학적 정보를 이용하여 얼굴의 눈썹, 눈, 입의 특징들을 추출하고 각 특징점들의 움직임을 추적하는 것을 도식화한다. 얼굴을 3 등분하여 상위 2/3 영역에는 눈썹과 눈이 존재하고 하위 1/3 영역에는 입이 존재한다. 특징점들이 존재하는 영역을 구분한 뒤 템플릿 매칭을 이용하여 얼굴의 눈썹, 눈, 입의 특징 위치를 획득한다. 얼굴의 특징점의 움직임을 추적하기 위해서 본 발명에서는 광류 알고리즘을 이용한다(도 4). 광류 알고리즘은 연속된 두 영상에서의 화소의 이동 변위를 계산하고 나타내는 방법으로 본 발명에서는 Lucas-Kanade가 제안한 LK 알고리즘을 이용한다. LK 알고리즘은 영상의 특징 영역 내에서의 움직임 속도는 동일하다는 가정 하에 영상의 밝기값 차이를 이용하여 움직임 정보인 모션 필드를 측정한다. 다른 광류 알고리즘에 비해 정확하고 잡음에 강인한 장점을 가지고 있다.Using the geometric information of the face, we extract the features of the eyebrows, eyes and mouth of the face and trace the movement of each feature point. The face is divided into three parts, with the eyebrows and eyes in the upper two thirds and the mouth in the lower thirds. After identifying the areas where the feature points exist, the template matching is used to obtain the feature positions of the eyebrows, eyes and mouth of the face. In order to track the movement of the feature points of the face, the present invention uses an optical flow algorithm (FIG. 4). The optical flow algorithm calculates and displays the displacement of pixels in two consecutive images. In the present invention, the LK algorithm proposed by Lucas-Kanade is used. The LK algorithm measures a motion field as motion information by using a difference in brightness values of an image under the assumption that the motion speeds in the feature region of the image are the same. It has the advantage of being accurate and robust against other optical flow algorithms.

얼굴의 특징점들의 움직임 정보를 은닉 마르코프 모델에 적용하여 얼굴 표정 인식을 수행한다. 본 발명에서의 얼굴 표정 인식 환경은 비이산적이고 시간의 연속성을 고려해야 하며 다음 상태의 예측이 불가능하다는 특징을 가지고 있다. 은닉 마르코프 모델은 상태 간의 전이 확률을 가지는 유한 상태 기계로, 각 상태는 직접 관측이 불가능하며 각 상태들로부터 일정 확률로 관측되는 관측 심볼을 통하여 상태를 추정하는 방법이다. 은닉 마르코프 모델은 상태 전이 확률 행렬 A, 관측 심볼 확률 행렬 B, 초기 상태 분포 π로 구성된다(식 4).Facial expression recognition is performed by applying motion information of facial feature points to a hidden Markov model. The facial expression recognition environment in the present invention is non-discrete and takes into account the continuity of time, and has a feature that it is impossible to predict the next state. The hidden Markov model is a finite state machine that has a probability of transition between states. It is a method of estimating states through observation symbols that cannot be directly observed and observed from each state with a certain probability. The hidden Markov model consists of the state transition probability matrix A, the observed symbol probability matrix B, and the initial state distribution π (Equation 4).

Figure 112007081926120-PAT00004
(4)
Figure 112007081926120-PAT00004
(4)

은닉 마르코프 모델을 적용하기 위해서는 관측열과 모델이 주어졌을 때 관측열이 주어진 모델에서 관측될 확률을 평가하는 확률 평가 문제, 관측열과 모델이 주어졌을 때 관측열을 가장 잘 표현하는 최적의 상태열을 탐색하는 최적 상태열 탐색 문제, 그리고 주어진 학습 데이터를 이용하여 모델의 파라메타를 추정하는 파라메타 추정 문제를 해결해야 한다. 확률 평가 문제는 전향 알고리즘과 후향 알고리즘을 조합한 전향-후향 알고리즘을 이용하여 해결할 수 있으며, 최적 상태열 탐색 문제는 비터비 알고리즘을 이용하여 해결할 수 있다. 그리고 파라메타 추정 문제는 바움-웰치의 재추정 알고리즘을 이용하여 문제를 해결할 수 있다(도 5).To apply the hidden Markov model, we find a probability estimation problem that evaluates the probability that an observation string will be observed in a given model, given an observation string and a model, and finds an optimal state string that best represents the observation column and a given observation model. We need to solve the optimal state sequence search problem and the parameter estimation problem of estimating the parameters of the model using the given training data. The probabilistic evaluation problem can be solved using the forward-backward algorithm combining the forward and backward algorithms, and the optimal state sequence search problem can be solved by using the Viterbi algorithm. And the parameter estimation problem can be solved using the Baum-Welch re-estimation algorithm (Fig. 5).

기존의 은닉 마르코프 모델을 이용한 얼굴 표정 인식은 기본 얼굴 표정과 각 최종 얼굴 표정 사이에서의 변화만을 인식하였으나, 도 6과 같이 본 발명에서는 각 최종 표정 사이에서의 변화 패턴을 인식할 수 있는 모델을 제안하여 다양한 얼굴 표정 변화에 대해서 인식할 수 있는 효과가 있다.Although facial expression recognition using the conventional hidden Markov model recognizes only a change between the basic facial expression and each final facial expression, the present invention proposes a model capable of recognizing a change pattern between each final facial expression as shown in FIG. 6. There is an effect that can be recognized for a variety of facial expression changes.

도 1은 본 발명에 따른 얼굴 표정 인식 시스템 구성도1 is a block diagram of a facial expression recognition system according to the present invention

도 2는 본 발명에 적용된 얼굴 후보 영역 검출 과정2 is a face candidate region detection process applied to the present invention

도 3은 본 발명에 적용된 주성분분석을 이용한 얼굴 영역 검출 과정3 is a facial region detection process using the principal component analysis applied to the present invention

도 4는 본 발명에 적용된 광류 알고리즘을 이용한 특징점 추적 과정4 is a feature tracking process using the optical flow algorithm applied to the present invention

도 5는 본 발명에 적용된 은닉 마르코프 모델의 세 가지 문제의 해결 방법5 is a method for solving three problems of the hidden Markov model applied to the present invention.

도 6은 본 발명에 적용된 얼굴 표정 변화 패턴 모델6 is a facial expression change pattern model applied to the present invention

Claims (3)

입력 영상에 대해서 영상을 개선시키는 전처리 단계, 얼굴 영역을 검출하는 얼굴 검출 단계, 얼굴의 기하학적 정보를 이용하여 눈썹, 눈, 입의 특징점을 추출하여 각 특징점들의 움직임을 추적하는 단계, 얼굴 표정을 인식하는 단계, 기존의 얼굴 표정 패턴은 기본 표정과 각 최대 표정 사이의 인식만이 가능하였으나 본 발명에서는 각 최대 표정 사이의 변화 패턴을 인식할 수 있도록 모델을 설계하고 이를 이용한 얼굴 표정 인식하는 방법.A preprocessing step of improving an image with respect to an input image, a face detection step of detecting a face region, a feature tracking of eyebrows, eyes, and mouth by using geometrical information of the face to track the movement of each feature point, and facial expression recognition In the step, the existing facial expression pattern was only possible to recognize between the basic facial expression and each maximum facial expression, but in the present invention, a model is designed to recognize the change pattern between each maximum facial expression and facial expression recognition using the same. 제 1항에 있어서,The method of claim 1, 얼굴의 기하학적 정보를 이용하여 얼굴의 눈썹, 눈, 입의 특징들을 추출하고 각 특징점들의 움직임을 추적하는 방법.A method of extracting features of eyebrows, eyes, and mouth of a face using geometric information of a face and tracking the movement of each feature point. 제 1항에 있어서,The method of claim 1, 기본 얼굴 표정과 각 최대 얼굴 표정 사이의 변화 패턴에 추가하여 각 최대 표정 사이의 변화 패턴을 인식할 수 있도록 모델을 설계하고 이를 이용하여 얼굴 표정을 인식하는 방법.A method of recognizing facial expressions by designing a model to recognize a change pattern between each maximum facial expression in addition to the change pattern between the basic facial expression and each maximum facial expression.
KR1020070116503A 2007-11-15 2007-11-15 Real-time facial expression recogintion based on optical flow and hidden markov models KR20090050199A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070116503A KR20090050199A (en) 2007-11-15 2007-11-15 Real-time facial expression recogintion based on optical flow and hidden markov models

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070116503A KR20090050199A (en) 2007-11-15 2007-11-15 Real-time facial expression recogintion based on optical flow and hidden markov models

Publications (1)

Publication Number Publication Date
KR20090050199A true KR20090050199A (en) 2009-05-20

Family

ID=40858697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070116503A KR20090050199A (en) 2007-11-15 2007-11-15 Real-time facial expression recogintion based on optical flow and hidden markov models

Country Status (1)

Country Link
KR (1) KR20090050199A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8861805B2 (en) 2011-11-01 2014-10-14 Samsung Electronics Co., Ltd. Face recognition apparatus and method for controlling the same
WO2014205239A1 (en) * 2013-06-20 2014-12-24 Elwha Llc Systems and methods for enhancement of facial expressions
KR101510798B1 (en) * 2008-12-10 2015-04-10 광주과학기술원 Portable Facial Expression Training System and Methods thereof
TWI548566B (en) * 2014-05-23 2016-09-11 國立臺北科技大學 Real-time optical flow estimation of whole image using multi-thread processing
US10365722B2 (en) 2013-07-19 2019-07-30 Microchip Technology Germany Gmbh Human interface device and method
CN110991307A (en) * 2019-11-27 2020-04-10 北京锐安科技有限公司 Face recognition method, device, equipment and storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101510798B1 (en) * 2008-12-10 2015-04-10 광주과학기술원 Portable Facial Expression Training System and Methods thereof
US8861805B2 (en) 2011-11-01 2014-10-14 Samsung Electronics Co., Ltd. Face recognition apparatus and method for controlling the same
WO2014205239A1 (en) * 2013-06-20 2014-12-24 Elwha Llc Systems and methods for enhancement of facial expressions
US9251405B2 (en) 2013-06-20 2016-02-02 Elwha Llc Systems and methods for enhancement of facial expressions
US9792490B2 (en) 2013-06-20 2017-10-17 Elwha Llc Systems and methods for enhancement of facial expressions
US10365722B2 (en) 2013-07-19 2019-07-30 Microchip Technology Germany Gmbh Human interface device and method
EP3033658B1 (en) * 2013-07-19 2020-01-01 Microchip Technology Incorporated Method for hidden-markov-model based gesture recognition
TWI548566B (en) * 2014-05-23 2016-09-11 國立臺北科技大學 Real-time optical flow estimation of whole image using multi-thread processing
CN110991307A (en) * 2019-11-27 2020-04-10 北京锐安科技有限公司 Face recognition method, device, equipment and storage medium
CN110991307B (en) * 2019-11-27 2023-09-26 北京锐安科技有限公司 Face recognition method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
CN107358206B (en) Micro-expression detection method based on region-of-interest optical flow features
Cohn et al. Subtly different facial expression recognition and expression intensity estimation
Li et al. Facial expression analysis
Sánchez et al. Differential optical flow applied to automatic facial expression recognition
JP5675229B2 (en) Image processing apparatus and image processing method
Shreve et al. Automatic expression spotting in videos
Murtaza et al. Analysis of face recognition under varying facial expression: a survey.
KR101893554B1 (en) Method and apparatus of recognizing facial expression base on multi-modal
Lo Presti et al. Using Hankel matrices for dynamics-based facial emotion recognition and pain detection
KR20090050199A (en) Real-time facial expression recogintion based on optical flow and hidden markov models
Wang et al. A new facial expression recognition method based on geometric alignment and lbp features
Gürel et al. Design of a face recognition system
Nagaral et al. Hybrid approach for facial expression recognition using HJDLBP and LBP histogram in video sequences
Caplier et al. Comparison of 2D and 3D analysis for automated cued speech gesture recognition
Yamamoto et al. Algorithm optimizations for low-complexity eye tracking
Riaz et al. A model based approach for expressions invariant face recognition
CN111597864A (en) Micro-expression recognition method based on cumulative light stream weighting characteristics
Lien et al. A multi-method approach for discriminating between similar facial expressions, including expression intensity estimation
Nguyen et al. Finger extraction from scene with grayscale morphology and BLOB analysis
Powar et al. Facial expression analysis using 2D and 3D features
JP4929460B2 (en) Motion recognition method
Miners et al. Dynamic facial expression recognition using fuzzy hidden Markov models
Pratheepan et al. Individual identification using gait sequences under different covariate factors
Moore et al. Facial expression recognition using spatiotemporal boosted discriminatory classifiers
Lo Presti et al. Ensemble of Hankel matrices for face emotion recognition

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid