KR101204378B1 - A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof - Google Patents

A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof Download PDF

Info

Publication number
KR101204378B1
KR101204378B1 KR1020100097551A KR20100097551A KR101204378B1 KR 101204378 B1 KR101204378 B1 KR 101204378B1 KR 1020100097551 A KR1020100097551 A KR 1020100097551A KR 20100097551 A KR20100097551 A KR 20100097551A KR 101204378 B1 KR101204378 B1 KR 101204378B1
Authority
KR
South Korea
Prior art keywords
laugh
expression
image
mobile terminal
laughter
Prior art date
Application number
KR1020100097551A
Other languages
Korean (ko)
Other versions
KR20120035807A (en
Inventor
송원창
이옥걸
김영운
강선경
권대규
정성태
Original Assignee
원광대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원광대학교산학협력단 filed Critical 원광대학교산학협력단
Priority to KR1020100097551A priority Critical patent/KR101204378B1/en
Publication of KR20120035807A publication Critical patent/KR20120035807A/en
Application granted granted Critical
Publication of KR101204378B1 publication Critical patent/KR101204378B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 모바일 단말기의 카메라 영상에서 얼굴을 검출한 다음에 입술 영역을 검출한 후에는, 입력되는 영상 프레임에서 입술 영역만을 추적하고; 입술 및 조명을 정규화 처리하고; 특징벡터를 추출한 후에 표정학습 DB를 이용하여 웃음표정을 인식하는 것을 특징으로 하는 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법에 관한 것이다.
본 발명은 모바일 단말기의 카메라 영상에서 얼굴을 검출한 다음에 입술 영역을 검출한 후에는, 입력되는 영상 프레임에서 입술 영역만을 추적하고; 입술 및 조명을 정규화 처리하고; 특징벡터를 추출한 후에 표정학습 DB를 이용하여 웃음표정을 인식하고; 인식된 웃음표정에 대응되는 웃음량을 측정하여 표시하는 것을 특징으로 하는 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법에 관한 것이다.
According to the present invention, after detecting a face in a camera image of a mobile terminal and then detecting a lip region, only the lip region is tracked in an input image frame; Normalize lips and lightening; The present invention relates to a smile expression recognition system and method for laughter treatment in a mobile terminal, characterized by recognizing a smile expression using a facial expression learning DB after extracting a feature vector.
According to the present invention, after detecting a face in a camera image of a mobile terminal and then detecting a lip region, only the lip region is tracked in an input image frame; Normalize lips and lightening; Recognize the expression of laughter using the facial expression learning DB after extracting the feature vector; The present invention relates to a smile expression recognition system and method for treating laughter in a mobile terminal, the method comprising measuring and displaying a smile amount corresponding to a recognized smile expression.

Description

모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법{A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof}A recognition system of facial expression for laughter therapy on mobile terminal, and a method

본 발명은 모바일 단말기의 카메라 영상에서 얼굴을 검출한 다음에 입술 영역을 검출한 후에는, 입력되는 영상 프레임에서 입술 영역만을 추적하고; 입술 및 조명을 정규화 처리하고; 특징벡터를 추출한 후에 표정학습 DB를 이용하여 웃음표정을 인식하는 것을 특징으로 하는 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법에 관한 것이다.According to the present invention, after detecting a face in a camera image of a mobile terminal and then detecting a lip region, only the lip region is tracked in an input image frame; Normalize lips and lightening; The present invention relates to a smile expression recognition system and method for laughter treatment in a mobile terminal, characterized by recognizing a smile expression using a facial expression learning DB after extracting a feature vector.

본 발명은 모바일 단말기의 카메라 영상에서 얼굴을 검출한 다음에 입술 영역을 검출한 후에는, 입력되는 영상 프레임에서 입술 영역만을 추적하고; 입술 및 조명을 정규화 처리하고; 특징벡터를 추출한 후에 표정학습 DB를 이용하여 웃음표정을 인식하고; 인식된 웃음표정에 대응되는 웃음량을 측정하여 표시하는 것을 특징으로 하는 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법에 관한 것이다. According to the present invention, after detecting a face in a camera image of a mobile terminal and then detecting a lip region, only the lip region is tracked in an input image frame; Normalize lips and lightening; Recognize the expression of laughter using the facial expression learning DB after extracting the feature vector; The present invention relates to a smile expression recognition system and method for treating laughter in a mobile terminal, the method comprising measuring and displaying a smile amount corresponding to a recognized smile expression.

최근 인공지능과 패턴인식 기술이 발전함에 따라서 얼굴 표정인식은 HCI(Human Computer Interface)에서 중요한 기술 중 하나이며, 이에 관련된 많은 연구가 진행되고 있다.Recently, with the development of artificial intelligence and pattern recognition technology, facial expression recognition is one of the important technologies in the Human Computer Interface (HCI), and many researches on this are being conducted.

기존의 얼굴표정 인식 연구를 검토해보면, 얼굴 표정 변화에 따른 광학적 흐름 추정을 통한 얼굴 근육 움직임 정보를 이용하여 표정을 인식하는 광학적 흐름 분석(Optic Flow Analysis)방법, 얼굴의 국부적인 특징점(눈, 코 또는 입 등)의 위치를 찾아서 특징 부분의 변화와 비교하여 인식하는 국부적인 표현 방법, 그리고 PCA(Principal Component Analysis), LDA(Linear Discriminant Analysis) 또는 ICA(Independent Component Analysis) 등을 통해서 얼굴 전체에 대한 분석으로 얼굴 영상에 대해 통계적으로 학습시키고 인식하는 홀리스틱 분석(Holistic Analysis)방법 등을 들 수 있다.Considering the existing studies on facial expression recognition, the optical flow analysis method that recognizes facial expressions using facial muscle movement information through optical flow estimation according to facial expression changes, and local feature points (eyes, nose) Local expression method that recognizes the position of the mouth and compares it with the change of the feature part, and the whole face through Principal Component Analysis (PCA), Linear Discriminant Analysis (LDA) or Independent Component Analysis (ICA). Analysis includes holistic analysis method that statistically learns and recognizes face images.

그런데 종래기술들은 이들 방법들을 적용시킬 때, 일반적인 PC 급의 고성능 설비 하에서 하나의 방법만을 주로 사용하여 표정을 인식하는 연구를 수행하였다. However, when the conventional techniques are applied to these methods, a study was performed to recognize facial expressions using only one method under a general PC-class high performance facility.

또한 주변 조명이 균일한 안정적 환경에서 특히 실험자가 고정된 자세를 취한 상태에서 얼굴표정을 짓고 이를 인식하는 연구를 수행하였다.In addition, in the stable environment with uniform ambient lighting, the researcher made facial expressions and recognized them, especially when the experimenter took a fixed posture.

따라서 PC보다 CPU 등 모든 면에서 성능이 떨어지는 모바일 단말기를 이용하게 되면 하나의 표정인식 방법만으로는 그 성능이 효과적으로 발휘될 수 없게 되며, 더욱이 조명 및 자세가 안정적이지 않은 상태에서는 조명 및 검출된 특징점 등의 보정 처리가 필요하게 된다. Therefore, if you use a mobile terminal with a lower performance than the PC in all aspects, the performance cannot be effectively exhibited by using only one facial expression recognition method. Correction processing is required.

한편 사람의 얼굴 표정은 기본적으로 놀람, 두려움, 슬픔, 화남, 역겨움 및 웃음 등 6개의 표정으로 나눌 수 있는데(Ekman, P.(Ed). "Emotion in the human face (2nd ed.)"), 특히 웃음 표정은 사람들 간의 교류에서 중요한 역할을 담당할 뿐만 아니라, 인간의 정신적, 육체적 및 심리적으로 건강을 향상시킬 수 있는바, 웃음 치료는 사회적 및 의료적으로 중요한 가치를 가진다고 할 수 있다.On the other hand, human facial expressions can be basically divided into six expressions: surprise, fear, sadness, anger, disgust and laughter (Ekman, P. (Ed). "Emotion in the human face (2nd ed.)"), In particular, the expression of laughter not only plays an important role in the interaction between people, but also improves the mental, physical and psychological health of the human being, and thus laughter treatment has a social and medical value.

그런데 웃음 표정을 훈련하거나 웃음을 통해 불안정한 정서를 효과적으로 치료하기 위해서는 스스로가 원할 때마다 시간 및 공간에 관계없이 자기의 웃음표정을 기기를 통해 인식 및 측정할 수 있어야 하는바, 현재와 같은 모바일 시대에서는 카메라가 장착된 모바일 단말기를 이용하는 것이 최선의 대안이 될 수 있다.However, in order to train laugh expressions or effectively treat unstable emotions through laughter, you must be able to recognize and measure your laughter expression on your device whenever you want, regardless of time and space. Using a mobile terminal equipped with a camera may be the best alternative.

그러나 상기에 서술한 바와 같이, PC급 성능 및 안정적 환경에서 개발된 종래기술들을 모바일 단말기에 곧바로 채용하기는 어려운 실정이다.However, as described above, it is difficult to immediately adopt the conventional technologies developed in the PC-class performance and stable environment to the mobile terminal.

또한 종래 기술들의 경우 웃음표정뿐만 아니라 얼굴표정 전체를 다루고 있어서 웃음 훈련 및 웃음 치료를 위해 웃음 표정을 인식 및 측정하는 데에는 적용하기 어려운 실정이다.
In addition, the conventional technologies deal with not only the expression of laughter but also the entire facial expression, so it is difficult to apply to recognize and measure the expression of laughter for laughter training and laughter treatment.

따라서 모바일 단말기에서 실시간으로 표정 인식이 가능하되, 웃음표정을 인식하는 것에 특화된 웃음표정 인식 시스템 및 방법이 절실하다 하겠다.Therefore, the facial expression recognition in real time in the mobile terminal, but the laughter facial recognition system and method specialized in recognizing the facial expressions are urgently needed.

또한 웃음 표정을 인식하는 것에 그치지 않고 웃음량을 측정하여 웃음 인식 결과를 제시함으로써 스스로 웃음 치료를 수행할 수 있는 웃음표정 인식 시스템 및 방법이 절실하다 하겠다. In addition, not only the recognition of the expression of laughter but also the laughter expression recognition system and method that can perform the laughter therapy by itself by measuring the amount of laughter and presenting the result of laughter recognition is urgently needed.

이하에서, 종래에 개발된 표정인식 시스템 또는 방법에 대하여 검토해본다.Hereinafter, a description will be given of a conventionally developed facial expression recognition system or method.

먼저, 대한민국 등록특허공보 10-0874088호는 영상변이 센싱을 활용한 얼굴인식 시스템에 관한 것으로, 촬영영상에서 영상변이를 판별하고 이에 대응되는 애플리케이션을 적용시키는 것을 특징으로 하고 있다. First, the Republic of Korea Patent Publication No. 10-0874088 relates to a face recognition system using the image variance sensing, characterized in that to determine the image variance in the photographed image and apply the application corresponding thereto.

이는 다양한 영상변이에 대응하고자 한다는 점에서 긍정적이나, 웃음표정에 특화되어 있지 않고 표정 전반을 다루고 있으며, 또한 영상변이 자체를 보정 처리하지 않고 영상변이에 가장 적합한 애플리케이션을 수행하기 위해서 특징점을 분석한다는 점에서 본 발명의 문제의식과는 상이하다 하겠다.
This is positive in that it tries to cope with various image variations, but it does not specialize in the expression of laughter and covers the whole expression, and also analyzes the feature points to perform the application that is most suitable for the image variation without correcting the image variation itself. It will be different from the problem consciousness of the present invention.

두 번째로, 대한민국 공개특허공보 10-2009-0050199호는 특징점들의 움직임 정보를 광류 알고리즘을 이용하여 추적하고 은닉 마르코프 모델을 이용하여 얼굴표정을 인식하는 것을 특징으로 하고 있다.Secondly, Korean Patent Laid-Open Publication No. 10-2009-0050199 tracks motion information of feature points using an optical flow algorithm and recognizes facial expressions using a hidden Markov model.

또한 전처리 과정에서 조명의 영향을 최소화하기 위해 최대최소 정규화 방법 및 참조화이트를 이용하는 것을 특징으로 하고 있다. In addition, in order to minimize the influence of lighting during the preprocessing, it is characterized by using the minimum minimum normalization method and the reference white.

이는 조명의 영향을 최소화하기 위한 방법을 도입하였다는 점에서 긍정적이나, 모바일 단말기에서 웃음표정을 인식하는 것에 특화되어 있지 않으며 또한 사용자의 불안정한 자세 때문에 반드시 필요한 특징점의 보정이 간과되고 있는바, 본 발명의 문제의식과는 상이하다 하겠다.
This is positive in that it introduces a method for minimizing the influence of lighting, but it is not specialized in recognizing the expression of laughter in the mobile terminal and the correction of the necessary feature point is overlooked because of the unstable posture of the user. It is different from the problem consciousness.

세 번째로, 대한민국 등록특허공보 10-0874167호는 얼굴표정 교정 시스템 및 방법에 관한 것으로, 미간 사이의 특징점들이 중앙으로 모인 경우, 눈썹의 안쪽에 부여된 특징점들이 하측으로 내려간 경우 또는 입술의 양쪽 끝에 부여된 특징점들이 내려간 경우에 특징점이 변화하였다고 판단하는 것에 특징이 있다. Thirdly, Republic of Korea Patent Publication No. 10-0874167 relates to a facial expression correction system and method, when the feature points between the middle of the brow gathers in the center, when the feature points given to the inside of the eyebrows are lowered or at both ends of the lips It is characteristic to judge that the feature point has changed when the assigned feature points are lowered.

이는 특징점을 이용하여 표정을 인식하였다는 점에서 긍정적이지만, 인식되는 표정이 찌푸림 또는 우울한 표정에 관한 것인바, 모바일 단말기에서 웃음표정을 인식하는 것에 특화되어 있지 않으며 또한 조명 및 검출된 특징점을 보정 처리하는 것도 제시하고 있지 않는 등 본 발명의 문제의식과는 상이하다 하겠다.
This is positive in that facial expressions are recognized using feature points, but the recognized facial expressions are related to frowning or depressive expressions, and are not specialized for recognizing laugh expressions in mobile terminals, and also correcting illumination and detected feature points. It is different from the problem consciousness of the present invention, such as not presenting.

네 번째로, 대한민국 공개특허공보 10-2010-0066866호는 휴대용 얼굴 표정 연습장치 및 방법에 관한 것으로, 얼굴 부분에서 관심영역을 검출하고 여기에 표정가이드 모델을 증강함으로서 표정을 연습하게 하는 것에 특징이 있다.Fourth, the Republic of Korea Patent Publication No. 10-2010-0066866 relates to a portable facial expression practice apparatus and method, characterized in that to practice the expression by detecting the region of interest in the face portion and by reinforcing the expression guide model therein. have.

이는 휴대용 장치를 이용하였다는 점에서 긍정적이나, 검출된 얼굴패턴과 증강되는 표정가이드 모델간의 유사도를 판단하여 표정을 연습시키는 것인바, 웃음표정을 인식하는 것에 특화되어 있지 않으며 또한 조명 및 검출된 특징점을 보정 처리하는 것도 제시하고 있지 않는 등 본 발명의 문제의식과는 상이하다 하겠다. This is positive in terms of using a portable device, but it is to practice the facial expression by judging the similarity between the detected facial pattern and the enhanced facial expression guide model. It also differs from the problem consciousness of the present invention, such as not presenting a correction process.

본 발명의 목적은 모바일 단말기의 카메라 영상에서 얼굴을 검출한 다음에 입술 영역을 검출한 후에는, 입력되는 영상 프레임에서 입술 영역만을 추적하고; 입술 및 조명을 정규화 처리하고; 특징벡터를 추출한 후에 표정학습 DB를 이용하여 웃음표정을 인식하는 것을 특징으로 하는 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법을 제공함에 있다.An object of the present invention is to detect only the lip area in the input image frame after detecting the face after detecting the face in the camera image of the mobile terminal; Normalize lips and lightening; The present invention provides a smile expression recognition system and method for the treatment of laughter in a mobile terminal, characterized by recognizing a smile expression using a facial expression learning DB after extracting a feature vector.

본 발명의 목적은 모바일 단말기의 카메라 영상에서 얼굴을 검출한 다음에 입술 영역을 검출한 후에는, 입력되는 영상 프레임에서 입술 영역만을 추적하고; 입술 및 조명을 정규화 처리하고; 특징벡터를 추출한 후에 표정학습 DB를 이용하여 웃음표정을 인식하고; 인식된 웃음표정에 대응되는 웃음량을 측정하여 표시하는 것을 특징으로 하는 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법을 제공함에 있다. An object of the present invention is to detect only the lip area in the input image frame after detecting the face after detecting the face in the camera image of the mobile terminal; Normalize lips and lightening; Recognize the expression of laughter using the facial expression learning DB after extracting the feature vector; The present invention provides a smile expression recognition system and method for treating laughter in a mobile terminal, the method comprising measuring and displaying a smile amount corresponding to the recognized smile expression.

본 발명인 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법은, 영상에서 얼굴 및 입술을 검출한 후에는 프레임에서 입술 영역만을 추적하여 웃음표정을 인식하게 되므로 낮은 하드웨어 성능에서도 실시간이면서 빠른 속도로 웃음표정을 인식할 수 있는 현저한 효과가 있다. In the present invention, the laughter facial recognition system and method for the laughter treatment in the mobile terminal recognizes the laughter by tracking only the lip region in the frame after detecting the face and the lips in the image. There is a remarkable effect of recognizing facial expressions.

본 발명인 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법은, 입술을 정규화하여 모바일 단말기와 얼굴과의 거리로 인한 영상 편차를 극복하고, 또한 조명을 좌우대칭 평균화 및 히스토그램 매칭 방식으로 정규화하여 특히 실외에서의 불안정한 조명환경에 따른 영상 편차를 극복하여, 웃음표정을 정확하게 인식할 수 있는 현저한 효과가 있다.In the present invention, a smile expression recognition system and method for treating laughter in the mobile terminal can overcome the image deviation caused by the distance between the mobile terminal and the face by normalizing the lips, and also normalize the lighting by symmetric averaging and histogram matching. Overcoming the deviation of the image due to the unstable lighting environment in the outdoor, there is a remarkable effect that can accurately recognize the laugh expression.

본 발명인 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법은, 웃음표정 인식 후에는 웃음량을 그래픽 처리하여 표시함으로써 모바일 단말기를 이용하여 언제 어디서나 웃음량을 확인하면서 스스로 웃음 치료를 수행할 수 있는 현저한 효과가 있다. In the present invention, the laughter facial recognition system and method for the laughter treatment can recognize the laughter whenever and wherever by using the mobile terminal by performing a graphic processing of the laughter facial recognition after the laughter facial recognition. There is a significant effect.

도 1은 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템의 주요 구성도이다.
도 2는 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템에서 입술 후보 영역을 검출하는 과정의 일예이다.
도 3은 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템에서 입술 영역을 검출하는 과정의 일예이다.
도 4는 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템에서 입술을 추적하는 과정의 일예이다.
도 5는 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템에서 조명 정규화 과정의 일예이다.
도 6은 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템에서 웃음표정을 인식하는 방법의 일예이다.
도 7은 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템에서 표정학습 DB에 사용된 영상의 일예이다.
도 8은 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템에서 웃음량을 표시하는 그래픽 처리의 일예이다.
도 9는 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 방법의 순서도이다.
1 is a main configuration of a laugh expression recognition system for laugh laugh treatment in a mobile terminal according to an embodiment of the present invention.
2 is an example of a process of detecting a lip candidate region in a laugh expression recognition system for treating laughter in a mobile terminal according to an embodiment of the present invention.
3 is an example of a process of detecting a lip region in a smile expression recognition system for treating laughter in a mobile terminal according to an embodiment of the present invention.
4 is an example of a process of tracking the lips in a laugh expression recognition system for treating laughter in a mobile terminal according to an embodiment of the present invention.
5 is an example of a lighting normalization process in a laugh expression recognition system for treating laughter in a mobile terminal according to an embodiment of the present invention.
6 is an example of a method of recognizing a laugh expression in a laugh expression recognition system for treating laughter in a mobile terminal according to an embodiment of the present invention.
7 is an example of an image used in a facial expression learning DB in a laugh expression recognition system for treating laughter in a mobile terminal according to one embodiment of the present invention.
8 is an example of graphic processing for displaying the amount of laughter in a laugh expression recognition system for laughter treatment in a mobile terminal according to one embodiment of the present invention.
9 is a flowchart illustrating a laughter facial recognition method for laughter treatment in a mobile terminal according to an exemplary embodiment of the present invention.

이하, 도면을 참조하여 설명하기에 앞서, 본 발명의 요지를 드러내기 위해서 필요하지 않은 사항 즉 통상의 지식을 가진 당업자가 자명하게 부가할 수 있는 공지 구성에 대해서는 도시하지 않거나, 구체적으로 기술하지 않았음을 밝혀둔다.
Before describing the present invention with reference to the accompanying drawings, it should be noted that the present invention is not described or specifically described with respect to a known configuration that can be easily added by a person skilled in the art, Let the sound be revealed.

도 1은 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템의 주요 구성도이다. 1 is a main configuration of a laugh expression recognition system for laugh laugh treatment in a mobile terminal according to an embodiment of the present invention.

본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템(100)은 영상획득부(110), 검출 및 추적부(120), 정규화처리부(130), 웃음표정 인식부(140), 표정학습 DB(150) 및 그래픽처리부(160)를 포함한다. The laugh expression recognition system 100 for treating laughter in a mobile terminal according to an embodiment of the present invention includes an image acquisition unit 110, a detection and tracking unit 120, a normalization processing unit 130, and a laugh expression recognition unit 140. ), Facial expression learning DB 150 and graphics processing unit 160.

먼저, 영상획득부(110)는 얼굴이 포함된 영상을 입력받아 검출 및 추적부(120)로 전달하는 수단으로서, 모바일 단말기에 내장되어 있는 카메라에서 획득되는 영상을 실시간으로 검출 및 추적부(120)로 전달하는 기능을 수행한다.First, the image acquisition unit 110 is a means for receiving an image containing a face and transmitting it to the detection and tracking unit 120, the detection and tracking unit 120 in real time to detect the image obtained from the camera embedded in the mobile terminal ) Function.

바람직하게, 영상획득부(110)는 데이터 케이블을 통해 모바일 단말기에 저장된 영상이나 인터넷 등 기타 네트워크 수단을 통해 전송되는 영상을 전달 처리하는 기능도 수행할 수 있도록 설계된다.
Preferably, the image acquisition unit 110 is designed to perform a function of transferring the image stored in the mobile terminal via the data cable or the image transmitted through other network means such as the Internet.

검출 및 추적부(120)는 얼굴 및 입술 영역을 검출하고, 입술 영역이 검출된 후에는 입술 영역만을 추적하는 구성요소로서, 얼굴검출모듈, 입술검출모듈 및 입술추적모듈을 포함한다. The detection and tracking unit 120 detects a face and a lip area, and detects only a lip area after the lip area is detected, and includes a face detection module, a lip detection module, and a lip tracking module.

얼굴검출모듈은 영상획득부(110)에서 전달되는 영상에서 얼굴을 검출하는 모듈이다. The face detection module is a module that detects a face in an image transmitted from the image acquisition unit 110.

일예로 얼굴검출모듈은 Haar-like 특징을 이용한 검출방식과 AdaBoost 검출방식을 함께 사용하거나 또는 AdaBoost 방식만을 사용하도록 설계된다. For example, the face detection module is designed to use the detection method using the Haar-like feature and the AdaBoost detection method together or to use only the AdaBoost method.

바람직하게, Haar-like 특징 검출방식과 AdaBoost 검출방식을 함께 사용하게 되는 경우에는, Haar-like 얼굴 특징값을 계산한 후 AdaBoost 방식을 적용하는 방식을 채용하도록 설계된다.Preferably, when the Haar-like feature detection method and the AdaBoost detection method are used together, the method of applying the AdaBoost method after calculating the Haar-like facial feature value is designed.

바람직하게, Haar-like 얼굴 특징값을 계산한 후 AdaBoost 방식을 적용하는 경우에는, AdaBoost 방식을 적용한 분류기(Classifier)를 결합하여 강한 분류기를 생성하고 이들 강한 분류기를 캐스케이드 구조로 결합하여 적용될 수 있도록 설계된다.Preferably, when the AdaBoost method is applied after calculating the Haar-like facial feature value, a classifier using the AdaBoost method is combined to generate a strong classifier and designed to combine and apply these strong classifiers in a cascade structure. do.

바람직하게, 얼굴검출모듈은 상기에서 서술한 방식 이외에도 본 발명의 목적에 맞게 다른 방식을 채용하도록 설계될 수 있음은 물론이다.
Preferably, the face detection module may be designed to employ other methods in addition to the above-described method according to the purpose of the present invention.

입술검출모듈은 얼굴검출모듈에서 검출된 얼굴 영역을 이용하여 입술 영역을 검출하는 모듈이다.The lip detection module is a module that detects the lip area by using the face area detected by the face detection module.

입술 영역을 검출하는 이유는, 입력되는 영상 프레임마다 얼굴을 검출하여 웃음표정을 인식하는 것 보다는 한번 얼굴을 검출한 후에는 입술 영역만을 이용하여 웃음표정을 인식하기 위함이다.The reason for detecting the lip region is to recognize the laughter expression using only the lip region after detecting the face once, rather than detecting the face for each input image frame.

즉 사람이 웃음표정을 지을 때 주로 입술 모양이 변화되므로 입술 영역만으로도 웃음표정을 효과적으로 인식할 수 있으며, 이는 인식 시스템에 부과되는 계산 부하를 현격하게 줄여서 속도를 개선시킬 수 있는 효과를 낳게 된다. That is, since the shape of the lips changes mainly when a person expresses a smile, the lip area alone can effectively recognize the smile, which can significantly reduce the computational load imposed on the recognition system and improve the speed.

도 2 및 도 3을 이용하여 입술검출모듈이 입술 영역을 검출하는 일예를 서술한다.An example in which the lip detection module detects a lip region will be described with reference to FIGS. 2 and 3.

도 2는 얼굴의 기하학적 분포 특징을 이용하여 입술 후보 영역을 검출하는 과정의 일예이다.2 is an example of a process of detecting a lip candidate region using a geometrical distribution feature of a face.

입술 영역은 얼굴의 하단에 있으므로, 검출된 얼굴 영역을 수직 방향으로 8등분 하였을 때, 도 2(a)와 같이 5/8부터 7/8사이 내에 입술 영역이 있을 것으로 설정한다. Since the lip region is at the bottom of the face, when the detected face region is divided into eight equal parts in the vertical direction, the lip region is set to be within 5/8 to 7/8 as shown in FIG.

수평방향으로도 역시 8등분하여, 도 2(b)와 같이 2/8부터 6/8사이 내에 입술 영역이 있을 것으로 설정한다.Also divided into eight equally in the horizontal direction, it is set to have a lip region within 2/8 to 6/8 as shown in Fig. 2 (b).

따라서 입술 후보 영역은 수직 및 수평 방향으로 설정된 범위 내의 영역으로 결정되며, 도 2(c)와 같이 직사각형 모양으로 입술 영역을 포함하게 된다. Therefore, the lip candidate area is determined as an area within a range set in the vertical and horizontal directions, and includes the lip area in a rectangular shape as shown in FIG.

바람직하게, 입술 후보 영역을 설정하기 위해 수직 및 수평 방향으로 등분되는 개수는 10등분 또는 16등분과 같이 다양하게 설정될 수 있음은 물론이다.Preferably, the number divided into the vertical and horizontal directions to set the lip candidate region may be variously set, such as 10 equals or 16 equals.

바람직하게, 입술 후보 영역의 수직 및 수평 방향 범위도 다양하게 설정될 수 있음은 물론이다.Preferably, the vertical and horizontal ranges of the lip candidate region may also be variously set.

도 3은 그레이 픽셀의 분포 특징을 이용하여 입술 후보 영역에서 입술 영역을 검출하는 과정의 일예이다.3 is an example of a process of detecting a lip region from a lip candidate region by using a distribution feature of gray pixels.

먼저, 입술의 중간에 있는 수평 방향 줄이 주변에 비해 더 어두운 특징을 가지고 있으므로 명암도를 이용하여 입술 중심을 검출하게 된다. First, since the horizontal line in the middle of the lips has a darker feature than the surroundings, the center of the lips is detected using the contrast.

도 3(a)와 같이, 입술 후보 영역에서 수평 방향으로 한 줄씩 픽셀값의 합을 계산하여 가장 낮은 줄이 입술 중심 줄이 되며, 입술 중심 줄에서 수평 중심 위치가 입술 중심이 된다.As shown in FIG. 3 (a), the sum of pixel values is calculated in the horizontal direction in the lip candidate area, and the lowest row becomes the lip center line, and the horizontal center position is the lip center in the lip center line.

즉 수평 중심 위치 및 이에 대응되는 수직 위치를

Figure 112010064669994-pat00001
,
Figure 112010064669994-pat00002
라고 정의하면, 이 좌표가 입술 중심이 된다.That is, the horizontal center position and the corresponding vertical position
Figure 112010064669994-pat00001
,
Figure 112010064669994-pat00002
, This coordinate is the center of the lip.

입술 중심을 검출한 후에는 중심으로부터 가장 유효한 범위를 갖는 입술 영역을 검출하게 되는데, 일예로 실험적으로 입술 중심과 얼굴 영역간의 관계에서 밝혀진 바에 따르도록 설계된다. After detecting the lip center, the lip area having the most effective range is detected from the center. For example, the lip area is experimentally designed according to the relationship between the lip center and the face area.

일예를 구체적으로 보면, H를 검출된 얼굴 영역의 세로 길이이고 W가 검출된 얼굴 영역의 가로 길이라면,

Figure 112010064669994-pat00003
Figure 112010064669994-pat00004
Figure 112010064669994-pat00005
H/8,
Figure 112010064669994-pat00006
Figure 112010064669994-pat00007
Figure 112010064669994-pat00008
H/8,
Figure 112010064669994-pat00009
Figure 112010064669994-pat00010
Figure 112010064669994-pat00011
W/4,
Figure 112010064669994-pat00012
Figure 112010064669994-pat00013
Figure 112010064669994-pat00014
W/4 로 설정하여 입술 영역을 검출한다.Specifically, if H is the vertical length of the detected face area and W is the horizontal length of the detected face area,
Figure 112010064669994-pat00003
Figure 112010064669994-pat00004
Figure 112010064669994-pat00005
H / 8,
Figure 112010064669994-pat00006
Figure 112010064669994-pat00007
Figure 112010064669994-pat00008
H / 8,
Figure 112010064669994-pat00009
Figure 112010064669994-pat00010
Figure 112010064669994-pat00011
W / 4,
Figure 112010064669994-pat00012
Figure 112010064669994-pat00013
Figure 112010064669994-pat00014
Set to W / 4 to detect the lip area.

바람직하게, 본 발명의 목적에 맞게 얼굴 영역의 세로 및 가로 길이를 등분하는 수치는 다양하게 설정될 수 있음은 물론이다. Preferably, the numerical value of dividing the vertical and horizontal lengths of the face area may be variously set according to the purpose of the present invention.

바람직하게, 입술검출모듈은 상기에서 서술한 방식 이외에도 본 발명의 목적에 맞게 다른 방식을 채용하도록 설계될 수 있음은 물론이다.
Preferably, the lip detection module may be designed to employ other methods in addition to the above-described method according to the object of the present invention.

입술 영역이 검출된 후 부터는, 영상획득부(110)에서 전달되는 영상 프레임에서 더 이상 얼굴 및 입술을 검출하지 않고 입술추적모듈에서 입술 영역을 추적하게 된다.After the lip area is detected, the lip tracking module tracks the lip area without detecting the face and the lip in the image frame transmitted from the image acquisition unit 110.

이는 특히 모바일 단말기의 카메라를 이용하여 영상을 촬영하는 경우에 효과적인 것으로서, 한 손으로 단말기를 잡고 촬영함에 따라 프레임마다 영상의 움직임이 심할 수밖에 없는 상황인바 입술 영역의 추적이 더욱 요구된다 하겠다. This is particularly effective in capturing images using a camera of a mobile terminal. As the user grabs and captures the terminal with one hand, the motion of the image is inevitably severe for each frame.

입술추적모듈이 입술 영역을 추적하는 방식의 일예를 도 4를 이용하여 서술한다.An example of how the lip tracking module tracks the lip region will be described with reference to FIG. 4.

기본적으로는, 현재 영상 프레임의 후보 영역과 이전 프레임에서 검출된 입술 영역 사이의 픽셀값의 절대 차이의 합(SAD: Sum of Absolute Difference)을 구하여 이 값이 가장 작은 위치를 현재 프레임의 입술 영역으로 결정하게 된다.Basically, the sum of absolute difference (SAD) of pixel values between the candidate region of the current image frame and the lip region detected in the previous frame is obtained, and the position of the smallest value is used as the lip region of the current frame. Will be decided.

만약 탐색 영역을 이전 위치를 중심으로 15 x 15 영역으로 한다면, 다음과 같이 식으로 표현할 수 있다. If the search area is a 15 x 15 area around the previous position, it can be expressed as follows.

Figure 112010064669994-pat00015
Figure 112010064669994-pat00016
Figure 112010064669994-pat00017

Figure 112010064669994-pat00015
Figure 112010064669994-pat00016
Figure 112010064669994-pat00017

여기에서,

Figure 112010064669994-pat00018
는 후보 위치로서
Figure 112010064669994-pat00019
이고,
Figure 112010064669994-pat00020
는 이전 프레임에서 입술 영역의 픽셀값이고,
Figure 112010064669994-pat00021
는 현재 프레임에서의 픽셀값이며,
Figure 112010064669994-pat00022
는 이전 프레임에서 입술 영역의 시작 위치를 나타내고,
Figure 112010064669994-pat00023
Figure 112010064669994-pat00024
은 추적하는 입술 영역의 세로길이와 가로길이를 나타낸다.From here,
Figure 112010064669994-pat00018
Is the candidate position
Figure 112010064669994-pat00019
ego,
Figure 112010064669994-pat00020
Is the pixel value of the lip region in the previous frame,
Figure 112010064669994-pat00021
Is the pixel value in the current frame,
Figure 112010064669994-pat00022
Indicates the starting position of the lips area in the previous frame,
Figure 112010064669994-pat00023
and
Figure 112010064669994-pat00024
Indicates the length and width of the tracked lip area.

그러나 상기와 같이 모든 후보 위치에서 계산하게 되면, 15 x 15 x M x N 번의 뺄셈 연산을 필요로 하게 되어 많은 연산을 해야 한다.However, if the calculation is performed at all candidate positions as described above, 15 x 15 x M x N subtraction operations are required and many operations must be performed.

따라서 본 발명에서는 3단계 탐색 방식을 적용함으로써, 각 단계에 9개의 후보 위치에서 SAD를 계산하여 총 27 x M x N 번의 연산을 하게 되어 모든 후보 위치에서 SAD를 계산하는 방법보다 8배 정도 연산량을 줄일 수 있게 된다.Therefore, in the present invention, by applying a three-stage search method, a total of 27 x M x N operations are performed by calculating SADs at nine candidate positions in each step, which results in eight times the amount of computation than the method of calculating SADs at all candidate positions. Can be reduced.

실험적으로 검토해보면, 3단계 탐색 방식을 이용하여 연산량을 줄여도 입술영역을 추적하는 정확도에는 문제가 없는 것으로 분석된다.Experimental review shows that there is no problem in the accuracy of tracking the lip area even if the computational amount is reduced by using the three-stage search method.

도 4에서 보듯이, 3단계 탐색 방식의 첫 번째 단계에서는 1번으로 표시되어 있는 9개의 위치에서 SAD 계산을 수행하고 제일 작은 후보 위치를 선택한다. As shown in FIG. 4, in the first step of the three-stage search method, SAD calculation is performed at nine positions indicated as 1 and the smallest candidate position is selected.

두 번째 단계에서는 첫 번째 단계에서 SAD 값이 제일 작았던 후보 위치를 중심으로 9개 후보 위치에 대하여 SAD를 계산하게 되며, 좌측 하단의 후보 위치가 첫 번째 단계에서 SAD 값이 제일 작았고 그 점을 중심으로 2번으로 표시되어 있는 후보 위치를 설정하고 SAD 값을 계산하는 것이 나타나 있다. In the second step, the SAD is calculated for 9 candidate positions centered on the candidate position where the SAD value was the smallest in the first stage, and the candidate position in the lower left is the smallest SAD value in the first stage. It is shown that the candidate position indicated by No. 2 is set and the SAD value is calculated.

세 번째 단계에서는 두 번째 단계에서 SAD 값이 제일 작았던 후보 위치를 중심으로 9개 후보 위치에 대하여 SAD를 계산하게 되며, 중앙 하단의 후보 위치가 두 번째 단계에서 SAD 값이 제일 작았고 그 점을 중심으로 3번으로 표시되어 있는 후보 위치를 설정하고 SAD 값을 계산하는 것이 나타나 있다. In the third step, the SAD is calculated for 9 candidate positions centered on the candidate position where the SAD value was the smallest in the second stage, and the candidate position at the bottom center has the smallest SAD value in the second stage. Fig. 3 shows the setting of the candidate position indicated by 3 and calculating the SAD value.

도 4에 도시되어 있듯이, 각 단계별로 후보 위치를 정하는 거리가 4, 2, 1로 줄어드는 것을 알 수 있다.As shown in FIG. 4, it can be seen that the distances for determining candidate positions for each step are reduced to 4, 2, and 1. FIG.

바람직하게, 입술추적모듈은 상기에서 서술한 방식 이외에도 본 발명의 목적에 맞게 다른 방식을 채용하도록 설계될 수 있음은 물론이다.
Preferably, the lip tracking module may be designed to adopt a different method in accordance with the object of the present invention in addition to the method described above.

영상획득부(110)에서 전달되는 영상프레임에서 입술 영역을 추적한 후에는 정규화처리부(130)에서 입술 및 조명을 정규화처리하게 된다.After tracking the lip region in the image frame transmitted from the image acquisition unit 110, the normalization processing unit 130 normalizes the lips and the lighting.

정규화처리부(130)는 입술정규화모듈 및 조명정규화모듈을 포함한다.The normalization processing unit 130 includes a lip normalization module and an illumination normalization module.

먼저, 입술정규화모듈은 입술 영역을 정규화하는 모듈로서 입술 영역의 크기를 정규화 처리한다.First, the lip normalization module is a module for normalizing the lip region and normalizes the size of the lip region.

이는 특히 모바일 단말기의 카메라를 이용하여 영상을 촬영하는 경우에 효과적인 것으로서, 한 손으로 단말기를 잡고 촬영함에 따라 프레임마다 단말기와 얼굴 사이의 거리가 달라질 수밖에 없는 점을 보정하기 위함이다.This is particularly effective in capturing images using a camera of a mobile terminal. This is to compensate for the fact that the distance between the terminal and the face must be changed for each frame as the hand is held by the terminal.

구체적으로 보면, 단말기와 얼굴 사이의 거리가 멀어지게 되면 추적되는 입술 영역의 크기가 작아질 수밖에 없으며, 반대의 경우는 커질 수밖에 없는 것을 보정하기 위함이다. In detail, when the distance between the terminal and the face increases, the size of the tracked lip region is inevitably reduced, and in the opposite case, the size is corrected.

일예로 입술 영역의 크기를 64 X 32 크기로 일정하게 정규화 처리하며, 바람직하게, 표정학습 DB(150)에 저장되어 있는 입술 영역의 크기와 동일하게 정규화 처리되도록 설계된다.
For example, the size of the lip region is regularly normalized to a size of 64 × 32, and is preferably designed to be normalized to be equal to the size of the lip region stored in the facial expression learning DB 150.

입술 영역의 크기를 정규화 처리한 후에는, 조명의 영향을 배제하기 위하여 조명정규화모듈이 조명을 정규화한다.After normalizing the size of the lip area, the lighting normalization module normalizes the lighting to exclude the effects of the lighting.

도 5를 이용하여 조명정규화모듈이 조명 정규화 처리하는 방식의 일예를 서술한다. 5 illustrates an example of a method in which the lighting normalization module normalizes the lighting.

도 5 (a)와 같은 원래 영상에, 종래의 조명 정규화 처리 방식인 표준화, 백색화 및 히스토그램 매칭 방식으로 정규화 처리한 것을 각각 (b), (c), (d)로 표시하였다. In the original image as shown in FIG. 5 (a), normalized processing using normalized lighting normalization processing methods such as normalization, whitening, and histogram matching is indicated by (b), (c), and (d), respectively.

표준화, 백색화 및 히스토그램 매칭 방식은 영상을 전역적으로 보정하기 때문에 영상이 전체적으로 어둡거나 또는 밝은 영상에 대해서 좋은 조명 정규화 효과를 나타낸다.Normalization, whitening, and histogram matching methods globally correct the image, resulting in good lighting normalization for dark or light images.

그러나 이러한 방식들은 조명이 좌측 또는 우측에서 비춰질 때 영상이 영역별로 차이가 생겨서 조명 정규화 효과가 크지 않다는 것으로 분석되는데, 특히 실외에서 모바일 단말기를 한 손으로 잡고 촬영할 때 태양빛이 측면에서 비춰지면 상기의 방식으로는 조명 정규화 효과를 볼 수 없다 하겠다. However, these methods are analyzed that the lighting normalization effect is not large because the image is different by area when the light is emitted from the left or the right. Especially, when the sunlight is emitted from the side when the mobile terminal is held with one hand outdoors, We can't see the lighting normalization effect.

따라서 본 발명에서는 종래의 조명 정규화 방식을 보완하기 위해서 사람의 입술 영상이 좌우 대칭이라는 점을 이용한 좌우대칭 평균화 방식과 히스토그램 매칭 방식을 결합하여 정규화 처리를 수행한다.Therefore, in the present invention, in order to complement the conventional lighting normalization method, the normalization process is performed by combining the left-right symmetric averaging method and the histogram matching method using the fact that the human lip image is symmetrical.

구체적으로 보면, 검출된 입술 영역에 대하여 먼저 좌우대칭 평균화를 실행해서 국부적인 조명 왜곡을 개선하고, 다음에 좌우 명암이 고르게 분포된 입술 영상에 대하여 히스토그램 매칭을 실행하여 전체적으로 조명을 개선한다.Specifically, first, right and left symmetry averaging is performed on the detected lip regions, and local illumination distortion is improved, and next, histogram matching is performed on lip images with evenly distributed left and right contrast to improve lighting as a whole.

이는 부분적 조명 정규화를 수행한 후에 전체 조명 정규화를 수행하는 방식으로서, 전체적으로 어둡거나 밝은 영상뿐만 아니라 부분적으로 왜곡되는 조명 현상을 개선할 수 있게 된다.This is a method of performing full illumination normalization after performing partial illumination normalization, and it is possible to improve not only dark or bright images but also partially distorted lighting phenomenon.

도 5 (f)에서 보듯이, 조명 변화가 심한 영상에서도 종래 방식에 비하여 조명 정규화 효과가 안정적임을 알 수 있다.
As shown in (f) of FIG. 5, it can be seen that the lighting normalization effect is more stable than the conventional method even in an image in which the lighting change is severe.

입술 및 조명을 정규화한 후에는, 웃음표정 인식부(140)에서 웃음표정을 인식하고 웃음량을 측정하게 된다.After normalizing the lips and the lighting, the laugh expression recognition unit 140 recognizes the laugh expression and measures the amount of laughter.

웃음표정 인식부(140)는 특징벡터추출모듈, 웃음표정인식모듈 및 웃음량측정모듈을 포함하며, 설계조건에 따라서는 웃음량측정모듈을 제외할 수도 있다.The laugh expression recognition unit 140 may include a feature vector extraction module, a laugh expression recognition module, and a laugh amount measurement module, and may exclude the laugh amount measurement module according to design conditions.

특징벡터추출모듈은 입술 영역으로부터 특징벡터를 추출하여, 웃음표정인식모듈로 특징벡터를 전달한다.The feature vector extraction module extracts the feature vector from the lip region and delivers the feature vector to the laugh expression recognition module.

일예로 특징벡터추출모듈은 주성분분석(PCA) 방식을 이용하여 특징벡터를 추출하게끔 구성된다.For example, the feature vector extraction module is configured to extract the feature vector using a principal component analysis (PCA) method.

바람직하게, 설계조건에 따라서는 주성분분석 방식 이외의 방식이 채용될 수 있음은 물론이다.
Preferably, depending on design conditions, a method other than the principal component analysis method may be employed.

웃음표정인식모듈은 특징벡터추출모듈로부터 전달된 특징벡터와 표정학습 DB(150)를 이용하여 웃음표정을 인식한다.The laugh expression recognition module recognizes the laugh expression using the feature vector and the facial expression learning DB 150 delivered from the feature vector extraction module.

도 6은 웃음표정을 인식하는 방법의 일예이고, 도 7은 표정학습 DB에 사용된 영상의 일예이다.FIG. 6 is an example of a method of recognizing a smile expression, and FIG. 7 is an example of an image used in a facial expression learning DB.

웃음표정인식모듈은 주성분분석으로 추출한 특징벡터를 표정학습 DB(150)와의 대비를 통해 분류하여 웃음표정을 인식하는 모듈로서, 도 6에는 3계층 역전파 인공신경망을 이용하여 웃음표정을 인식하는 것이 도시되어 있다.The laugh expression recognition module is a module that recognizes the laugh expression by classifying the feature vectors extracted by the principal component analysis through the expression learning DB 150. In FIG. 6, the laugh expression recognition using the three-layer backpropagation artificial neural network is performed. Is shown.

바람직하게, 설계조건에 따라서 웃음표정인식모듈은 다른 분류 방식을 채용할 수 있음은 물론이다.Preferably, according to the design conditions, the laugh expression recognition module may adopt a different classification scheme, of course.

표정학습 DB(150)에는 다수의 얼굴 영상을 검출 및 추적부(120), 정규화처리부(130) 및 웃음표정 인식부(140)를 통해 무표정에서 활짝 웃는 표정까지 검출 및 분류해놓은 데이터베이스이다. The expression learning DB 150 is a database that detects and classifies a plurality of face images from the expressionless expression to the smiley expression through the detection and tracking unit 120, the normalization processing unit 130, and the laugh expression recognition unit 140.

바람직하게, 표정학습 DB(150)는 본 발명 시스템에서 사용되어지는 방식과 동일한 방식으로 구축된다.Preferably, facial expression learning DB 150 is constructed in the same manner as used in the system of the present invention.

도 7에는 표정학습 DB(150)를 학습하기 위해 적용된 다수의 무표정 및 웃음표정이 도시되어 있다.
FIG. 7 illustrates a number of expressionless and laughter expressions applied for learning the facial expression learning DB 150.

설계조건에 따라서, 웃음량측정모듈이 웃음표정 인식부(140)에 포함되어 진다.According to the design conditions, the laugh amount measuring module is included in the laugh expression recognition unit 140.

웃음량측정모듈은 웃음표정인식모듈에서 인식된 웃음표정의 웃음량을 측정하는 모듈로서, 웃음표정의 웃음량을 표정학습 DB(150)에 이미 학습되어 있는 무표정에서부터 활짝 웃는 표정까지의 정도와 대비하여 웃음량을 측정할 수 있도록 구성된다.The laughter measuring module is a module for measuring the laughter of the laughter facial expression recognized by the laughter facial recognition module, and compares the laughter of the laughter facial expression with the degree from the expressionless expression already learned in the facial expression learning DB 150 to the smiley facial expression. It is configured to measure the amount of laughter.

또는, 검출된 얼굴 및 입술의 크기를 이용하여 기하학적으로 무표정에서 최고로 활짝 웃을 수 있는 정도를 특징벡터로 환원하여 웃음량을 0에서 100%로 규정한 후, 인식된 웃음표정의 특징벡터와 대비하도록 설계될 수도 있다. Alternatively, by using the size of the detected face and lips, the degree of laughter can be geometrically broadened to the feature vector, and the amount of laughter is defined as 0 to 100%, and then contrasted with the perceived smile vector. It may be designed.

도 8은 웃음량을 표시하는 그래픽 처리의 일예로서, (a)의 경우와 같이 무표정일 때는 웃음량 막대에 표시가 안 되어 있으나, (b)의 경우와 같이 웃음 표정일 경우에는 웃음량 막대에 실시간으로 표시가 된다.
FIG. 8 is an example of graphic processing for displaying a laugh amount, which is not displayed on the laugh amount bar in the case of no expression as in the case of (a), but on the laugh amount bar in the case of the smile expression as in the case of (b). It is displayed in real time.

그래픽처리부(160)는 검출 및 추적부(120), 정규화처리부(130) 및 웃음표정 인식부(140)과 연동되어 검출 과정 및 결과를 그래픽 처리하여 표시해주는 구성요소이다.The graphic processor 160 is an element that is connected to the detection and tracking unit 120, the normalization processing unit 130, and the laugh expression recognition unit 140 to display a graphic process of the detection process and the result.

설계조건에 따라서, 그래픽처리부(160)에는 사용자가 휴대폰 단말기를 이용하여 본 발명을 전반적으로 이용할 수 있는 인터페이스를 제공하도록 구성한다.
According to the design conditions, the graphic processor 160 is configured to provide an interface through which the user can generally use the present invention by using a mobile phone terminal.

도 9는 본 발명의 일실시예에 따른 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 방법의 순서도이다.9 is a flowchart illustrating a laughter facial recognition method for laughter treatment in a mobile terminal according to an exemplary embodiment of the present invention.

도 1 내지 도 8을 이용하여 서술한 웃음표정 인식 시스템을 방법으로 기재한 것인바 상기 서술된 사항에 준함을 밝혀둔다.It is to be noted that the description of the smile expression recognition system described with reference to FIGS. 1 to 8 is performed by the method described above.

한편, 상기에서 도 1 내지 도 9를 이용하여 서술한 것은, 본 발명의 주요 사항만을 서술한 것으로, 그 기술적 범위 내에서 다양한 설계가 가능한 만큼, 본 발명이 도 1 내지 도 9의 구성 및 방법에 한정되는 것이 아님은 자명하다. Meanwhile, the above descriptions using only FIGS. 1 to 9 describe only the main matters of the present invention, and as long as various designs are possible within the technical scope of the present invention, the present invention may be applied to the configurations and methods of FIGS. 1 to 9. It is obvious that it is not limited.

110 : 영상획득부 120 : 검출 및 추적부
130 : 정규화처리부 140 : 웃음표정 인식부
150 : 표정학습 DB 160 : 그래픽처리부
110: image acquisition unit 120: detection and tracking unit
130: normalization processing unit 140: laugh expression recognition unit
150: expression learning DB 160: graphics processing unit

Claims (8)

모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템으로서,
단말기 카메라에서 실시간으로 입력되는 영상 또는 단말기에 저장되어 있는 영상을 검출 및 추적부로 전달하는 영상획득부;
얼굴을 검출한 다음에 입술 영역을 검출한 후에는 입력되는 영상 프레임에서 입술 영역만을 추적하되,
(a) 이전 영상 프레임의 입술 영역을 중심으로 입력되는 영상 프레임에서 기 설정한 범위의 탐색 영역을 결정하고,
(b) 탐색영역 내에서 기 설정한 간격을 갖는 후보위치에서 이전 영상 프레임의 입술 영역 픽셀값과의 절대 차이의 합이 가장 작은 위치를 연산함으로써 입술 영역만을 추적하는 검출 및 추적부;
추적되는 입술 영역의 크기를 정규화하고, 영상의 조명을 정규화하는 정규화처리부;
정규화된 영상에서 입술 영역의 특징벡터를 추출하고, 표정학습 DB를 이용하여 웃음표정을 인식하는 웃음표정 인식부; 및
상기 검출 및 추적부, 정규화처리부 및 웃음표정 인식부를 이용하여 다수의 얼굴 표정을 학습해 놓은 표정학습 DB를 포함하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템.
As a laugh expression recognition system for treating laughter in a mobile terminal,
An image acquisition unit transferring an image input in real time from a terminal camera or an image stored in the terminal to a detection and tracking unit;
After detecting the face and detecting the lip area, only the lip area is tracked in the input image frame.
(a) Determining a search range of a preset range from an image frame input based on the lip region of the previous image frame,
(b) a detection and tracking unit for tracking only the lip region by calculating a position where the sum of absolute differences with the lip region pixel values of the previous image frame is the smallest at a candidate position having a predetermined interval within the search region;
A normalization processor for normalizing the size of the tracked lip region and normalizing illumination of an image;
A laugh expression recognition unit extracting a feature vector of a lip region from a normalized image and recognizing a laugh expression using a facial expression learning DB; And
And a facial expression learning DB for learning a plurality of facial expressions using the detection and tracking unit, the normalization processor, and the facial expression recognition unit.
제 1 항에 있어서,
상기 검출 및 추적부에서 얼굴을 검출하는 방식은 Haar-like 특징 방식과 AdaBoost 방식을 함께 사용하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템.
The method of claim 1,
The method of detecting a face by the detection and tracking unit is characterized in that using a Haar-like feature method and AdaBoost method, laugh expression recognition system for laugh treatment in a mobile terminal.
제 1 항 또는 제 2 항에 있어서,
상기 정규화 처리부에서 영상의 조명을 정규화하기 위해서 좌우대칭 평균화 방식 및 히스토그램 매칭 방식을 함께 사용하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템.
The method according to claim 1 or 2,
The normalization processing unit uses a symmetric averaging method and a histogram matching method to normalize the illumination of the image, characterized in that laugh expression recognition system for the treatment of laughter in a mobile terminal.
제 1항 또는 제 2 항에 있어서,
상기 웃음표정 인식부는 웃음량측정모듈을 추가로 포함하되,
웃음량측정모듈은 인식된 웃음표정의 웃음량을 측정하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템.
The method according to claim 1 or 2,
The laugh expression recognition unit further includes a laugh amount measurement module,
Laugh amount measuring module is characterized in that for measuring the laugh amount of the laugh expression, the laugh expression recognition system for the laugh treatment in the mobile terminal.
단말기 카메라에서 실시간으로 입력되는 영상 또는 단말기에 저장되어 있는 영상을 검출 및 추적부로 전달하는 영상획득단계;
얼굴을 검출한 다음에 입술 영역을 검출하는 단계;
입력되는 영상 프레임에서 입술 영역만을 추적하되
(a) 이전 영상 프레임의 입술 영역을 중심으로 입력되는 영상 프레임에서 기 설정한 범위의 탐색 영역을 결정하고,
(b) 탐색영역 내에서 기 설정한 간격을 갖는 후보위치에서 이전 영상 프레임의 입술 영역 픽셀값과의 절대 차이의 합이 가장 작은 위치를 연산함으로써 입술 영역만을 추적하는 단계;
입술 영역의 크기를 정규화하고, 영상의 조명을 정규화하는 정규화처리단계;
정규화된 영상에서 입술 영역의 특징벡터를 추출하는 단계; 및
추출된 특징벡터와 표정학습 DB를 이용하여 웃음표정을 인식하는 단계;를 포함하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 방법.
An image acquisition step of transmitting an image input in real time from a terminal camera or an image stored in the terminal to a detection and tracking unit;
Detecting a lip area after detecting the face;
Track only the lips area in the incoming video frame
(a) Determining a search range of a preset range from an image frame input based on the lip region of the previous image frame,
(b) tracking only the lip region by calculating a position where the sum of absolute differences with the lip region pixel values of the previous image frame is the smallest at a candidate position having a predetermined interval within the search region;
A normalization processing step of normalizing the size of the lip region and normalizing illumination of the image;
Extracting feature vectors of the lip region from the normalized image; And
Recognizing a laugh expression using the extracted feature vector and the facial expression learning DB; laugh expression recognition method for the laugh treatment in a mobile terminal.
제 5 항에 있어서,
상기 얼굴을 검출한 다음에 입술 영역을 검출하는 단계에서, 얼굴을 검출하는 방식은 Haar-like 특징 방식과 AdaBoost 방식을 함께 사용하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 방법.
The method of claim 5, wherein
In the step of detecting the face after detecting the face, the method of detecting the face is characterized by using a Haar-like feature method and the AdaBoost method, laugh expression recognition method for laughing treatment in a mobile terminal.
제 5 항 또는 제 6 항에 있어서,
상기 입술 영역의 크기를 정규화하고, 영상의 조명을 정규화하는 정규화처리단계에서,
영상의 조명을 정규화하기 위해서 좌우대칭 평균화 방식 및 히스토그램 매칭 방식을 함께 사용하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 방법.
The method according to claim 5 or 6,
In the normalization process of normalizing the size of the lip region and normalizing the illumination of the image,
In order to normalize the illumination of the image, the left and right symmetric averaging method and histogram matching method, characterized in that the laugh expression recognition method for the laugh treatment in the mobile terminal.
제 5항 또는 제 6 항에 있어서,
상기 웃음표정을 인식하는 단계 뒤에,
인식된 웃음표정의 웃음량을 측정하는 단계를 추가로 포함하는 것을 특징으로 하는, 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 방법.
The method according to claim 5 or 6,
After the step of recognizing the laugh expression,
And measuring the laughter amount of the recognized laughter expression.
KR1020100097551A 2010-10-06 2010-10-06 A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof KR101204378B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100097551A KR101204378B1 (en) 2010-10-06 2010-10-06 A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100097551A KR101204378B1 (en) 2010-10-06 2010-10-06 A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof

Publications (2)

Publication Number Publication Date
KR20120035807A KR20120035807A (en) 2012-04-16
KR101204378B1 true KR101204378B1 (en) 2012-11-23

Family

ID=46137652

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100097551A KR101204378B1 (en) 2010-10-06 2010-10-06 A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof

Country Status (1)

Country Link
KR (1) KR101204378B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160116311A (en) * 2016-09-23 2016-10-07 경북대학교 산학협력단 Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101685419B1 (en) * 2011-05-04 2016-12-12 한화테크윈 주식회사 Apparatus and method for processing digital image
CN105956570B (en) * 2016-05-11 2019-08-20 电子科技大学 Smiling face's recognition methods based on lip feature and deep learning
KR102011948B1 (en) * 2017-10-23 2019-08-19 주식회사 네오펙트 System, method and program of treating a burn patient by laughter
CN111859025A (en) * 2020-07-03 2020-10-30 广州华多网络科技有限公司 Expression instruction generation method, device, equipment and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이호근,정성태.빠른 얼굴 검출을 이용한 실시간 얼굴 인식 시스템. 2005.12. 정보과학회논문지 : 소프트웨어 및 응용 제32권 제12호(제1247면 내지 제1259면)*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160116311A (en) * 2016-09-23 2016-10-07 경북대학교 산학협력단 Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method
KR101697476B1 (en) 2016-09-23 2017-01-19 경북대학교 산학협력단 Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method

Also Published As

Publication number Publication date
KR20120035807A (en) 2012-04-16

Similar Documents

Publication Publication Date Title
WO2019174439A1 (en) Image recognition method and apparatus, and terminal and storage medium
US10108852B2 (en) Facial analysis to detect asymmetric expressions
Murtaza et al. Analysis of face recognition under varying facial expression: a survey.
Chiranjeevi et al. Neutral face classification using personalized appearance models for fast and robust emotion detection
US20120243751A1 (en) Baseline face analysis
Durga et al. A ResNet deep learning based facial recognition design for future multimedia applications
Khatri et al. Facial expression recognition: A survey
KR101204378B1 (en) A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof
Zhao et al. Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection
Taini et al. Facial expression recognition from near-infrared video sequences
Alvarez et al. A method for facial emotion recognition based on interest points
CN111860196A (en) Hand operation action scoring device and method and computer readable storage medium
Jacintha et al. A review on facial emotion recognition techniques
KR20090050199A (en) Real-time facial expression recogintion based on optical flow and hidden markov models
Tu et al. Face and gesture based human computer interaction
Lee Detection and recognition of facial emotion using bezier curves
KR20220017506A (en) Detecting quantized transition changes for activity recognition
Campomanes-Álvarez et al. Automatic facial expression recognition for the interaction of individuals with multiple disabilities
Lv et al. A spontaneous facial expression recognition method using head motion and AAM features
Yamamoto et al. Algorithm optimizations for low-complexity eye tracking
US20220139113A1 (en) Method and device for detecting object in image
Bakchy et al. Facial expression recognition based on support vector machine using Gabor wavelet filter
Lee et al. Robust emotion recognition algorithm for ambiguous facial expression using optimized AAM and k-NN
Kandemir et al. Facial expression classification with haar features, geometric features and cubic b㉠zier curves
Gowda et al. Facial Expression Analysis and Estimation Based on Facial Salient Points and Action Unit (AUs)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151118

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171012

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180920

Year of fee payment: 7