KR20100001409A - Method for recognizing face expression and control method of robot for appreciating image contents using the same - Google Patents

Method for recognizing face expression and control method of robot for appreciating image contents using the same Download PDF

Info

Publication number
KR20100001409A
KR20100001409A KR1020080061307A KR20080061307A KR20100001409A KR 20100001409 A KR20100001409 A KR 20100001409A KR 1020080061307 A KR1020080061307 A KR 1020080061307A KR 20080061307 A KR20080061307 A KR 20080061307A KR 20100001409 A KR20100001409 A KR 20100001409A
Authority
KR
South Korea
Prior art keywords
face
image
facial
average
facial expression
Prior art date
Application number
KR1020080061307A
Other languages
Korean (ko)
Other versions
KR100977528B1 (en
Inventor
강행봉
Original Assignee
가톨릭대학교 산학협력단
(주)키즈엔터테인먼트
재단법인경기디지털콘텐츠진흥원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단, (주)키즈엔터테인먼트, 재단법인경기디지털콘텐츠진흥원 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020080061307A priority Critical patent/KR100977528B1/en
Publication of KR20100001409A publication Critical patent/KR20100001409A/en
Application granted granted Critical
Publication of KR100977528B1 publication Critical patent/KR100977528B1/en

Links

Images

Classifications

    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Abstract

PURPOSE: A method for recognizing the facial expression of a user and a control method of the robot for visual contents impression using the same are provided to operate the image contents according to the recognized face pose by recognizing face pose and expression of a user. CONSTITUTION: A face range is extracted from an inputted image. A pose of the extracted face range is presumed(S101). In case the pose examines the front, a face shape and a texture are extracted(S103). The face shape and the texture are generated in an average form(S104). The average face form and the texture are processed in retinex(S105). A first face parameter about each facial expression learns based on the average face form and the texture of the retinex about each facial expression(S106).

Description

얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법{METHOD FOR RECOGNIZING FACE EXPRESSION AND CONTROL METHOD OF ROBOT FOR APPRECIATING IMAGE CONTENTS USING THE SAME}Recognition method of facial expression and control method of robot for viewing video contents using the same {METHOD FOR RECOGNIZING FACE EXPRESSION AND CONTROL METHOD OF ROBOT FOR APPRECIATING IMAGE CONTENTS USING THE SAME}

본 발명은 얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법에 관한 것으로서, 보다 상세하게는 만화와 같은 영상 콘텐츠를 감상하는 사용자의 얼굴 포즈와 얼굴 표정을 인식하고, 인식된 얼굴 포즈에 따라 만화 등의 영상 콘텐츠를 사용자 취향에 맞게 조작하고, 영상 콘텐츠의 감상 과정에서 사용자의 감정의 변화를 인식된 얼굴 표정으로 파악하여 이를 영상 콘텐츠에 반영하면서 영상 콘텐츠를 감상할 수 있는 얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법에 관한 것이다.The present invention relates to a facial expression recognition method and a control method of a robot for image content appreciation using the same. More particularly, the present invention provides a method for recognizing a facial pose and a facial expression of a user who views image content such as a cartoon, As a result, a facial expression recognition method for manipulating video content such as cartoons according to user's preferences, and grasping a change in user's emotion as a recognized facial expression in the process of viewing the video content and reflecting it in the video content while viewing the video content And it relates to a control method of a robot for viewing video content using the same.

센서의 발달로 인해 개발된 기존의 콘텐츠 로봇에 적용된 Human-Robot Interaction(HRI) 기술은 사용자가 터치하는 것을 인식하거나 센서가 부착된 장갑을 사용하여 콘텐츠 내용을 제어하는 기술이다.Human-Robot Interaction (HRI) technology applied to the existing content robot developed due to the development of the sensor is a technology that recognizes the touch of the user or controls the content of the content by using a sensored glove.

사용자가 터치하는 것을 인식하는 기술은 최근 상용화되고 있는 터치스크린를 이용한 것이다. 이는 종래의 마우스 또는 키보드 등의 입력장치가 별도로 구비되지 않더라도, 사용자가 모니터 화면을 터치하면 사용자의 터치를 감지하여 콘텐츠를 제어하도록 구성된다. 예를 들어, 영상 콘텐츠가 만화인 경우, 사용자가 모니터 화면을 터치하는 것에 의해 만화의 페이지를 넘기는 등의 제어를 수행할 수 있다.The technology of recognizing a user's touch is using a touch screen that is commercially available recently. It is configured to detect the user's touch and control the content even if the user touches the monitor screen even if a conventional input device such as a mouse or keyboard is not provided separately. For example, when the video content is a cartoon, the user can perform a control such as turning a page of the cartoon by touching the monitor screen.

또한, 센서가 부착된 장갑을 사용하는 기술은 센서가 부착된 장갑을 사용자가 착용하고, 사용자가 손을 흔들면 장갑의 이동을 센서가 감지하는 기술이다. 따라서, 만화 콘텐츠의 경우, 센서의 감지에 따라 만화의 페이지를 넘기는 등의 제어를 수행할 수 있다. 이 기술은 영화 분야에서도 사람의 행동을 컴퓨터 그래픽으로 재현하기 위해 사용되기도 한다.In addition, a technology using a sensor attached glove is a technology that the user wears the sensor attached glove, the sensor detects the movement of the glove when the user shakes the hand. Accordingly, in the case of cartoon content, control such as turning over a page of a cartoon according to the detection of a sensor may be performed. This technology is also used in film to reproduce human behavior in computer graphics.

그런데, 종래의 Human-Robot Interaction(HRI) 기술은 사용자가 터치스크린을 반드시 터치해야 하는 번거로움과, 고가의 장갑을 구입해야하는 문제점이 있었다.However, the conventional Human-Robot Interaction (HRI) technology has a problem in that the user must touch the touch screen and purchase expensive gloves.

또한, 종래의 Human-Robot Interaction(HRI) 기술을 사용하더라도 만화 등의 콘텐츠는 단순히 페이지만 넘기면서 감상할 수 있었으므로, 사용자의 취향에 맞게 만화의 일정 컷을 확대하거나 캐릭터의 배치를 변경하면서 만화를 감상할 수 있는 기술이 요구되었었다.In addition, even using the conventional Human-Robot Interaction (HRI) technology, content such as cartoons can be enjoyed simply by turning pages, so that the cartoon can be expanded while a certain cut of the cartoon is changed or the character arrangement is changed according to the user's taste. It was required to be able to appreciate the technology.

또한, 만화와 같은 영상 콘텐츠를 감상하면서 느끼는 사용자의 감정의 변화, 예를 들어 즐거움, 슬픔, 분노, 공포 등과 같은 감정의 변화가 영상 콘텐츠에 반영이 될 수 있다면, 보다 사실감 있는 영상 콘텐츠의 감상이 가능해질 것이다.In addition, if the user's emotion changes, such as joy, sadness, anger, fear, etc., can be reflected in the video content, the viewing of more realistic video content It will be possible.

따라서, 본 발명은 만화와 같은 영상 콘텐츠를 감상하는 사용자의 얼굴 포즈와 얼굴 표정을 인식하고, 인식된 얼굴 포즈에 따라 만화 등의 영상 콘텐츠를 사용자 취향에 맞게 조작하고, 영상 콘텐츠의 감상 과정에서 사용자의 감정의 변화를 인식된 얼굴 표정으로 파악하여 이를 영상 콘텐츠에 반영하면서 영상 콘텐츠를 감상할 수 있는 얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention recognizes a face pose and facial expression of a user who views video content such as a cartoon, manipulates the video content such as a cartoon according to the user's taste according to the recognized face pose, and the user in the viewing process of the video content. The object of the present invention is to provide a facial expression recognition method for recognizing a change of emotion as a recognized facial expression and reflecting it in image content, and to recognize the image content and a control method of a robot for image content using the same.

상기 목적은 본 발명에 따라, (a) 입력되는 영상으로부터 얼굴 영역을 추출하여 상기 추출된 얼굴 영역의 포즈를 추정하는 단계와; (b) 상기 추출된 얼굴 영역의 포즈가 정면을 응시하는 것으로 추정되는 경우, 상기 추출된 얼굴 영역의 얼굴 형태 및 얼굴 텍스처(Texture)를 추출하는 단계와; (c) 상기 추출된 얼굴 형태 및 얼굴 텍스처(Texture)를 기 설정된 평균 형태로 와핑(Warpping)하여 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 생성하는 단계와; (d) 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)를 레티넥스(Retinex) 처리하는 단계와; (e) 복수의 얼굴 표정에 대해 상기 (a) 단계 내지 상기 (d) 단계를 각각 수행하고, 상기 각 얼굴 표정에 대한 상기 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 상기 레티넥스(Retinex) 처리된 평균 얼굴 텍스처(Texture)에 기초하여 상기 각 얼굴 표정에 대한 제1 얼굴 파라미터를 학습하는 단계와; (f) 입력되는 영상에 대해 상기 (a) 단계 내지 상기 (d) 단계를 수행하여 생성되는 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 기초하여 제2 얼굴 파라미터를 생성하는 단계와; (g) 상기 제1 얼굴 파라미터 중 상기 제2 얼굴 파라미터와 가장 큰 유사도를 갖는 어느 하나로 상기 제2 얼굴 파라미터에 대한 얼굴 표정을 추정하는 단계를 포함하는 것을 특징으로 하는 얼굴 표정 인식 방법에 의해서 달성된다.According to the present invention, (a) extracting a face region from the input image to estimate the pose of the extracted face region; (b) extracting a face shape and a face texture of the extracted face area when the pose of the extracted face area is estimated to stare at the front; (c) warping the extracted face shape and face texture to a predetermined average shape to generate an average face shape and an average face texture; (d) Retinex processing the average face shape and the average face texture; (e) performing steps (a) to (d) on a plurality of facial expressions, respectively, and performing the Retinex-treated average face shape and the Retinex treatment on each of the facial expressions; Learning first facial parameters for each facial expression based on the averaged facial textures; (f) Generating a second face parameter based on a Retinex-treated average face shape and average face texture generated by performing steps (a) to (d) on the input image. Making a step; (g) estimating a facial expression for the second facial parameter as one of the first facial parameters having the greatest similarity with the second facial parameter. .

여기서, 상기 제1 얼굴 파라미터의 학습 및 상기 제2 얼굴 파라미터의 생성은 레티넥스(Retinex) 처리된 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)에 대해 AAM(Active Appearance Model)을 적용하여 학습 및 생성되는 것을 특징으로 한다.Here, the learning of the first face parameter and the generation of the second face parameter may be performed by applying an AAM (Active Appearance Model) to the Retinex-treated average face shape and the average face texture. It is characterized in that the generated.

그리고, 상기 AAM(Active Appearance Model)을 적용시 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)에 대해 PCA(Principal Component Analysis) 기법이 적용될 수 있다.When the AAM is applied, a Principal Component Analysis (PCA) technique may be applied to the average face shape and the average face texture.

또한, 상기 (g) 단계는 (g1) 상기 제1 얼굴 파라미터에 대한 제1 가우시안 분포를 산출하는 단계와; (g2) 상기 제2 얼굴 파라미터에 대한 제2 가우시안 분포를 산출하는 단계와; (g3) 상기 제1 가우시안 분포와 상기 제2 가우시안 분포 간의 거리차를 상기 유사도로 산출하는 단계를 포함할 수 있다.(G) step (g1) calculating a first Gaussian distribution for the first facial parameter; (g2) calculating a second Gaussian distribution for the second facial parameter; (g3) calculating a distance difference between the first Gaussian distribution and the second Gaussian distribution as the similarity.

그리고, 상기 (a) 단계는, (a1) 입력되는 영상에서 색을 통해 사람의 피부에 해당하는 픽셀을 판별하는 단계와; (a2) 상기 영상이 가지는 소정 크기의 서브윈도우에서 상기 픽셀의 비율이 임계치에 부합되는지 판별하는 단계와; (a3) 상기 서브윈도우 내에 군집된 상기 픽셀이 임계치에 부합되면 에이다부스트(Adaboost) 알고리즘을 통해 상기 서브윈도우 내에 영상이 얼굴 영상인지 판별하는 단계와; (a4) 판별 결과가 상기 서브윈도우 내에 영상이 얼굴 영상일 경우, 상기 서브윈도우를 제1 얼굴영역 서브윈도우로 책정하는 단계와; (a5) 상기 (a1) 단계 내지 상기 (a4) 단계를 반복 수행하여 책정된 각기 다양한 얼굴 포즈를 가지는 복수의 상기 제1 얼굴영역 서브윈도우를 상기 얼굴 포즈에 따라 분류 및 저장하여 매니폴드(manifold) 공간을 형성하는 단계와; (a6) 상기 (a1) 단계 내지 상기 (a3) 단계를 수행하여 얼굴 영상일 경우, 해당 서브윈도우를 제2 얼굴영역 서브윈도우로 책정하는 단계와; (a7) 상기 제1 얼굴영역 서브윈도우의 픽셀 데이터와 상기 매니폴드 공간에 저장된 상기 제1 얼굴영역 서브윈도우의 픽셀 데이터를 비교하여 상기 제2 얼굴영역 서브 윈도우의 픽셀 데이터와 가장 근접한 어느 하나로 상기 얼굴 영역의 포즈를 추정하는 단계를 포함할 수 있다.The step (a) may include: (a1) determining a pixel corresponding to the human skin through color in the input image; (a2) determining whether a ratio of the pixels meets a threshold value in a sub-window of a predetermined size of the image; (a3) determining whether an image is a face image in the subwindow through an Adaboost algorithm when the pixels clustered in the subwindow meet a threshold; (a4) if the determination result is a face image in the sub-window, setting the sub-window as the first face region sub-window; (a5) The manifold may be classified and stored according to the face poses by classifying and storing the plurality of first face area sub-windows having various face poses which are determined by repeating steps (a1) to (a4). Forming a space; (a6) performing a step (a1) to (a3) to set a corresponding subwindow as a second face region subwindow when it is a face image; (a7) comparing the pixel data of the first face region subwindow with the pixel data of the first face region subwindow stored in the manifold space and comparing the pixel data of the first face region subwindow to the pixel data of the second face region subwindow as one closest to the pixel data of the second face region subwindow. Estimating a pose of the region.

한편, 상기 목적은 본 발명의 다른 실시 형태에 따라, 영상 콘텐츠를 디스플레이부에 표시하는 단계와; 상기 디스플레이부의 전방에 위치하는 사람을 촬영하는 단계와; 상기 촬영된 영상에 대해 상기의 얼굴 표정 인식 방법을 적용하여 촬영된 사람의 얼굴 표정을 추정하는 단계와; 상기 추정된 얼굴 표정에 따라 상기 영상 콘텐츠에 포함된 객체 및 배경 중 적어도 어느 하나의 색상이 변경되는 단계를 포함하는 것을 특징으로 하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법에 의해서도 달성될 수 있다.On the other hand, the above object is, according to another embodiment of the present invention, displaying the image content on the display unit; Photographing a person located in front of the display unit; Estimating a facial expression of a photographed person by applying the facial expression recognition method to the photographed image; It may also be achieved by a control method of a robot for image content viewing, comprising changing a color of at least one of an object and a background included in the image content according to the estimated facial expression.

여기서, 상기 추정된 얼굴 표정에 따라 상기 객체의 모양이 변경되는 단계를 더 포함할 수 있다.The method may further include changing the shape of the object according to the estimated facial expression.

그리고, 상기 영상 콘텐츠는 만화 콘텐츠를 포함할 수 있다.The video content may include cartoon content.

이와 같이, 본 발명에 따르면 만화와 같은 영상 콘텐츠를 감상하는 사용자의 얼굴 포즈와 얼굴 표정을 인식하고, 인식된 얼굴 포즈에 따라 만화 등의 영상 콘텐츠를 사용자 취향에 맞게 조작하고, 영상 콘텐츠의 감상 과정에서 사용자의 감정의 변화를 인식된 얼굴 표정으로 파악하여 이를 영상 콘텐츠에 반영하면서 영상 콘텐츠를 감상할 수 있는 효과가 제공된다.As described above, according to the present invention, a face pose and a facial expression of a user who enjoys a video content such as a cartoon are recognized, a video content such as a cartoon is manipulated according to a user's taste according to the recognized face pose, and a viewing process of the video content. In the present invention, it is possible to grasp the change in the user's emotion with the recognized facial expression and to reflect the same on the image content, thereby enjoying the image content.

이하에서는 첨부된 도면을 참조하여 본 발명을 상세히 설명한다. 여기서, 본 발명을 설명하기에 앞서 본 발명에서 사용되는 영상 콘텐츠는 페이지를 넘기면서 감상할 수 있는 만화인 것을 일 예로 하여 설명하는데, 본 발명에 따른 영상 콘텐츠가 만화로 한정되지 않으며 게임 등의 타 콘텐츠에 적용될 수 있음은 물론이다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention. Here, before describing the present invention, the video content used in the present invention is described as an example of a cartoon that can be enjoyed while turning a page, but the video content according to the present invention is not limited to a cartoon and other games, etc. Of course, it can be applied to the content.

도 1은 본 발명에 따른 얼굴 인식 방법 및 영상 콘텐츠 감상용 로봇(300, 도 8 참조)의 컨트롤 방법에서 얼굴 표정을 학습하는 과정을 설명하기 위한 도면이고, 도 2는 본 발명에 따른 얼굴 인식 방법 및 영상 콘텐츠 감상용 로봇(300)의 컨트롤 방법에서 학습된 얼굴 표정을 이용하여 실제 사용자의 얼굴 표정을 추출하여 이를 영상 콘텐츠 감상용 로봇(300)의 컨트롤에 적용하는 방법을 설명하기 위한 도면이다.1 is a view for explaining a process of learning a facial expression in the face recognition method and a control method of the image content viewing robot 300 (see FIG. 8) according to the present invention, Figure 2 is a face recognition method and This is a view for explaining a method of extracting a facial expression of an actual user using the facial expressions learned in the control method of the image content viewing robot 300 and applying the same to the control of the image content viewing robot 300.

도 1을 참조하여 얼굴 표정을 학습하는 과정을 설명하면, 사용자의 얼굴 표정을 포함하는 영상이 촬영된다(S100). 그런 다음, 촬영을 통해 입력되는 영상으로부터 얼굴 영역을 추출하고, 추출된 얼굴 영역으로부터 얼굴 영역의 포즈를 추정한다(S101).Referring to FIG. 1, a process of learning a facial expression is described. An image including a facial expression of a user is photographed (S100). Then, the face region is extracted from the image input through the imaging, and the pose of the face region is estimated from the extracted face region (S101).

이하에서는, S101 단계에서의 얼굴 영역의 추출 및 포즈의 추정을 도 3 내지 7을 참조하여 상세히 설명한다.Hereinafter, the extraction of the face region and the estimation of the pose in step S101 will be described in detail with reference to FIGS. 3 to 7.

먼저, 도 3을 참조하여 설명하면, 카메라(320, 도 8 참조) 등의 촬영장치를 통해 사용자의 영상을 촬영한다(S11). 그리고, 촬영된 영상으로부터 사용자의 피 부영역을 추출하기 위해 영상 내에 피부색 픽셀을 판별한다(S12). 영상의 각 픽셀의 색은 RGB 체계로 표현되어 있으나 이를 도 5a 내지 도 5c에 도시된 바와 같이 YCrCb 체계로 변환한다. 여기서, YCrCb 체계는 컴포넌트 디지털 비디오의 휘도(Y)와 색차 신호(B-Y, R-Y), R·G·B 신호를 디지털화하는 데 사용되는 색 해상도로써, Y는 Distribution of Luminance Component이고, Cr와 Cb는 적색과 청색의 Distribution of Crominance Component이다. RGB 체계를 YCrCb 체계로 변환하는 것은 당업자에게 공지된 기술이므로, 이에 대한 상세한 설명은 생략한다.First, referring to FIG. 3, an image of a user is photographed through a photographing apparatus such as a camera 320 (see FIG. 8) (S11). Then, in order to extract the skin region of the user from the captured image, the skin color pixel is determined in the image (S12). The color of each pixel of the image is expressed in RGB system, but it is converted into YCrCb system as shown in FIGS. 5A to 5C. Here, the YCrCb scheme is a color resolution used to digitize luminance (Y), color difference signals (BY, RY), and R · G · B signals of component digital video, where Y is Distribution of Luminance Component, and Cr and Cb are Red and Blue Distribution of Crominance Component. Since converting the RGB system to the YCrCb system is a technique known to those skilled in the art, a detailed description thereof will be omitted.

아래의 [표 1]은 픽셀의 색을 피부색으로 인지하는 경우의 YCrCb 임계치를 나타낸 표이다.Table 1 below is a table showing the YCrCb threshold in the case of recognizing the color of the pixel as the skin color.

[표 1]TABLE 1

YY 0 ~2250 to 225 CbCb 77 ~ 12777-127 CrCr 135 ~ 165135 to 165

도 5a 내지 도 5c에 기초하여, YCrCb 체계로 변환되었을 시 피부색이 해당하는 픽셀의 YCrCb 임계치는 [표 1]과 같이 나타날 수 있다. 즉, 영상의 픽셀의 색이 가지는 YCrCb값이 [표 1]의 임계치와 부합된다면 해당 픽셀은 사용자의 피부를 나타내는 픽셀이라고 간주한다.5A to 5C, the YCrCb threshold value of the pixel corresponding to the skin color when converted to the YCrCb system may be displayed as shown in [Table 1]. That is, if the YCrCb value of the color of the pixel of the image matches the threshold of [Table 1], the pixel is regarded as a pixel representing the skin of the user.

또한, 촬영장치로 촬영된 영상은 다수의 서브윈도우로 분할된다. 따라서, 서브윈도우 내에 [표 1]에 임계치와 부합되는 픽셀이 군집되어 있으면(S13) 얼굴 영상의 후보로 간주한다.In addition, the image photographed by the photographing apparatus is divided into a plurality of sub-windows. Therefore, if the pixels matching the thresholds are grouped in [Table 1] in the subwindow (S13), it is regarded as a candidate of the face image.

여기서, 얼굴 영상의 후보로 간주된 서브윈도우 내의 영상이 얼굴 영상인지 판별하는 것이 요구된다. 이는 얼굴 영상의 후보로 간주된 서브윈도우 내의 영상이 사용자의 손의 영상일 수도 있기 때문이다. 이에 본 발명에서는 에이다부스트(Adaboost) 알고리즘을 통해 서브윈도우 내에 영상이 얼굴 영상인지 판별한다(S14). 여기서, 에이다부스트 알고리즘은 공지된 기술이므로, 이에 대한 상세한 설명은 생략한다. 그리고, 에이다부스트 알고리즘를 수행하여 서브윈도우 내에 영상이 얼굴 영상이 아닐 경우, 서브윈도우 내에 영상은 사용자의 손 영상으로 간주할 수 있다.Here, it is required to determine whether the image in the subwindow considered as a candidate of the face image is a face image. This is because an image in the subwindow considered as a candidate of the face image may be an image of the user's hand. Accordingly, in the present invention, it is determined whether the image is a face image in the sub-window through the Adaboost algorithm (S14). Here, since the Ada Boost algorithm is a known technique, a detailed description thereof will be omitted. When the image in the sub-window is not a face image by performing the Adaboost algorithm, the image in the sub-window may be regarded as the user's hand image.

한편, 서브윈도우 내에 영상이 얼굴 영상으로 판별되면, 상기 서브윈도우를 제1 얼굴영역 서브윈도우로 책정하고(S15), 책정된 제1 얼굴영역 서브윈도우는 도 6에 도시된 바와 같이 매니폴드(manifold) 공간 형성을 위해 저장된다.On the other hand, if the image is identified as a face image in the sub-window, the sub-window is determined as the first face region subwindow (S15), the first face region subwindowed manifold (manifold) as shown in FIG. ) Is stored for space formation.

제1 얼굴영역 서브윈도우의 얼굴 영상은 다양한 포즈를 가질 수 있다. 여기서, 얼굴 영상의 포즈가 달라지면 이에 따른 각 픽셀의 데이터 값도 달라질 수 있다. 따라서, 도 3의 S11 내지 S15 단계를 반복 수행하여 다양한 얼굴 영상의 포즈를 가지는 복수의 제1 얼굴영역 서브윈도우들을 저장하여 매니폴드 공간을 형성(S17)할 수 있다.The face image of the first face region subwindow may have various poses. Here, when the pose of the face image is changed, the data value of each pixel may also be changed accordingly. Accordingly, the manifold space may be formed by storing the plurality of first face region subwindows having poses of various face images by repeating steps S11 to S15 of FIG. 3.

도 6에 도시된 바와 같이, 본 발명에서의 매니폴드 공간은 전향, 상향, 하향, 좌향 및 우향으로 구성된 7개의 영역으로 구분되는 것을 일 예로 하였다. 각 영역은 제1 얼굴영역 서브윈도우의 픽셀데이터 중 응시하는 얼굴 방향이 상호 유사한 제1 얼굴영역 서브윈도우의 픽셀데이터들이 주성분 분석(PCA Plane)을 통해 형 성된 선형공간 내에 군집된 다수의 분류영역을 의미한다.As illustrated in FIG. 6, the manifold space in the present invention is divided into seven regions consisting of forward, upward, downward, leftward, and rightward directions. Each region includes a plurality of classification regions in which pixel data of a first face region subwindow having similar gaze faces among pixel data of the first face region subwindow is clustered in a linear space formed through principal component analysis (PCA Plane). it means.

도 6에 도시된 7개의 영역 중 P0, P4 영역은 얼굴의 좌/우향 영상에 관한 영역이고, P2영역은 얼굴의 전향 영상에 관한 영역이고, P6 영역은 얼굴의 상향 영상에 관한 영역이고, P5 영역은 얼굴의 하향 영상에 관한 영역이고, P1 과 P3 영역은 얼굴의 전향과 좌/우향 사이의 영상에 관한 영역이다.Among the seven areas shown in FIG. 6, areas P0 and P4 are areas related to the left / right image of the face, area P2 is an area related to the forward image of the face, area P6 is an area about the upward image of the face, and P5 The area is an area related to the downward image of the face, and the P1 and P3 areas are areas related to the image between the face forward and left / right.

P0 내지 P6 영역 중 각각의 영역은 픽셀 데이터가 상호 근사한 5개씩의 제1 얼굴영역 서브윈도우들이 저장되고, 저장된 5개씩의 제1 얼굴영역 서브윈도우들의 픽셀 데이터를 평균내어 각 P0 내지 P6 영역 각각의 평균 픽셀 데이터 값을 결정한다. 그리고, 다수의 사용자는 상기 S11 내지 S17단계를 각 수행하여, 각 사용자에 해당하는 매니폴드 공간을 형성할 수 있다.Each of the P0 to P6 regions stores five first facial region subwindows in which the pixel data are close to each other, and averages pixel data of the five stored first facial region subwindows to average the pixel data of each of the P0 to P6 regions. Determine the average pixel data value. In addition, a plurality of users may perform steps S11 to S17 to form a manifold space corresponding to each user.

매니폴드 공간이 형성되면(S17), S11 내지 S14 단계를 재수행하여 실질적으로 인식하고자하는 현재 사용자의 제2 얼굴영역 서브윈도우를 책정한다(S19). 그런 다음, 매니폴드 공간을 형성하고 있는 P0 내지 P6 영역 각각의 제1 얼굴영역 서브윈도우의 픽셀 데이터와 제2 얼굴영역 서브윈도우의 픽셀 데이터를 상호 비교하게 된다(S20).When the manifold space is formed (S17), steps S11 to S14 are performed again to determine a second face region subwindow of the current user to be substantially recognized (S19). Thereafter, the pixel data of the first face region subwindow and the pixel data of the second face region subwindow of each of the areas P0 to P6 forming the manifold space are compared with each other (S20).

여기서, S20 단계는 2번의 추론 과정을 거치게 된다.Here, the step S20 is to go through two inference process.

[수학식 1][Equation 1]

Figure 112008046287469-PAT00001
Figure 112008046287469-PAT00001

(K* : 제2 얼굴영역 서브윈도우의 사용자, I : 제2 얼굴영역 서브윈도우, Mk : k번째 사용자의 매니폴드 공간)(K * : user of the second face region subwindow, I: second face region subwindow, M k : manifold space of the k th user)

[수학식 1]을 통해 책정된 제2 얼굴영역 서브윈도우의 사용자를 추정한다. 즉, 책정된 제2 얼굴영역 서브윈도우의 사용자가 미리 저장된 어느 매니폴드 공간과 가장 근접한 것인지 추론하는 것이다. 여기서, d2(I,Mk)는 제2 얼굴영역 서브윈도우(I)와 k번째 사용자의 매니폴드 공간(Mk)과의 거리(벡터의 거리)의 제곱을 의미한다. The user of the second face region subwindow determined through Equation 1 is estimated. That is, it is inferred which manifold space is closest to the user of the predetermined second face region subwindow. Here, d 2 (I, M k ) means the square of the distance (distance of the vector) between the second face region subwindow I and the manifold space Mk of the k-th user.

[수학식 2][Equation 2]

Figure 112008046287469-PAT00002
Figure 112008046287469-PAT00002

(I : 제2 얼굴영역 서브윈도우, Mk : k번째 사람의 매니폴드 공간, Pki : k번째 매니폴드 공간의 i번째 영역)(I: second face area subwindow, Mk: k-th manifold space, Pki: i-th area of k-th manifold space)

제2 얼굴영역 서브윈도우의 사용자의 해당 매니폴드 공간을 추론하면, i 개 의 영역을 가지는 매니폴드 공간(Mk)에서 제2 얼굴영역 서브윈도우가 어느 영역과 가장 근사한지 베이즈 정리(Bayes' theorem)를 이용하여 전개한 [수학식 2]를 통해 추론한다.Inferring the corresponding manifold space of the user of the second face region subwindow, Bayes' theorem indicates which region is closest to the second face region subwindow in the manifold space Mk having i regions. Infer using [Equation 2] developed using

즉, p(Pki|I)는 입력 이미지인 제2 얼굴영역 서브윈도우(I)와 k번째 매니폴드 공간의 i번째 영역(Pki)의 거리에 대응하는 확률을 제공하므로, 상기 수학식 1과 상기 수학식 2를 통해 거리가 가장 짧은 k 번째 매니폴드 공간을 일치하는 매니폴드 공간으로 추론하고, 추론된 k 번째 매니폴드 공간에 포함된 Pki 영역 중 확률 값이 가장 큰 i 값에 대응하는 Pki 영역을 입력 이미지인 제2 얼굴영역 서브윈도우와 가장 근사한 영역으로 추론한다.That is, p (P ki | I) provides a probability corresponding to the distance between the second face region subwindow I, which is an input image, and the i th region P ki of the k-th manifold space, And inferring the k-th manifold space having the shortest distance into the manifold space through Equation 2, and the probability value corresponding to the i value having the largest probability among the P ki regions included in the inferred k-th manifold space The P ki region is inferred as the region closest to the second face region subwindow as the input image.

가령, 도 6에 도시된 바와 같이, 제2 얼굴영역 서브윈도우의 픽셀 데이터가 매니폴드 공간 내에 I 부분의 픽셀 데이터와 일치한다고 가정하면, I 부분은 P1 영역과 가장 근접한 위치임을 알 수 있다. 따라서, 제2 얼굴영역 서브윈도우의 픽셀 데이터는 P1 영역에 해당하는 제1 얼굴영역 서브윈도우의 픽셀 데이터로 근사화된다. For example, as shown in FIG. 6, if the pixel data of the second face region subwindow coincides with the pixel data of the I portion in the manifold space, it can be seen that the I portion is the position closest to the P1 region. Accordingly, pixel data of the second face region subwindow is approximated to pixel data of the first face region subwindow corresponding to the P1 region.

따라서, P1 영역에 해당하는 제1 얼굴영역 서브윈도우를 추출한다(S21). 가령, 제2 얼굴영역 서브윈도우의 픽셀 데이터는 P1 영역에 포함된 제1 얼굴영역 서브윈도우의 픽셀데이터와 동일한 경우에도 당연히 해당 제1 얼굴영역 서브윈도우의 픽셀데이터를 추출할 수 있다.Therefore, the first face region subwindow corresponding to the P1 region is extracted (S21). For example, even if the pixel data of the second face region subwindow is the same as the pixel data of the first face region subwindow included in the P1 region, the pixel data of the first face region subwindow may be extracted.

또한, 서브윈도우가 가로 19개 및 세로 19개 총 361개의 픽셀을 가진다고 가 정하면, 제1 얼굴영역 서브윈도우 및 제2 얼굴영역 서브윈도우 간 361개의 픽셀 데이터를 비교하게 되나, 비교 시간을 단축하기 위해 얼굴 영상을 구별할 수 있는 가장 큰 특징을 가지는 픽셀 데이터 만을 상호 비교할 수 있다. 여기서, 얼굴 영상을 구별할 수 있는 가장 큰 특징을 가지는 픽셀 데이터는 서브윈도우의 가운데에 군집되는 대략 19개의 픽셀데이터일 수 있다.In addition, assuming that the sub window has a total of 361 pixels of 19 in width and 19 in length, 361 pixels of data are compared between the first face area sub window and the second face area sub window, but to shorten the comparison time. Only the pixel data having the greatest feature that can distinguish the face image can be compared with each other. Here, the pixel data having the largest feature that can distinguish the face image may be approximately 19 pixel data clustered in the center of the sub-window.

그리고, 추출된 P1 영역에 해당하는 제1 얼굴영역 서브윈도우의 얼굴 포즈로부터 제2 얼굴영역 서브윈도우의 얼굴 포즈가 좌측을 향하고 있는 포즈라는 것을 인식할 수 있다(S22).In operation S22, it may be recognized that the face pose of the second face region subwindow is the left pose from the face pose of the first face region subwindow corresponding to the extracted P1 region.

한편, 영상으로 입력되는 사용자의 얼굴은 주어진 환경(얼굴 주변의 배경차이, 조명의 변화, 다른 물체에 의해 얼굴이 부분적으로 가려지는 등)에 의해 얼굴의 부분적 가려짐(Occlusion) 현상이 발생할 수 있다. Meanwhile, the occlusion of the face may occur due to a given environment (a background difference around the face, a change in illumination, a part of the face is covered by another object, etc.). .

가령, 제2 얼굴영역 서브윈도우 내의 영상에 가려짐 현상이 발생한다면, 제1 얼굴영역 서브윈도우의 픽셀 데이터와 제2 얼굴영역 서브윈도우의 픽셀 데이터를 상호 비교할시 오동작할 우려가 있다. For example, if an obstruction occurs in an image in the second face region subwindow, the pixel data of the first face region subwindow and the pixel data of the second face region subwindow may malfunction.

이러한 문제를 해소하기 위해, 얼굴 영역의 인식 및 포즈의 추정에 있어, 도 4에 도시된 바와 같이, S11 내지 S16 단계 후 동일한 제1 얼굴영역 서브윈도우(10) 간 픽셀의 변화가 존재할 경우(S16-1), 색이 피부색 이외인 픽셀의 제1 마스크(Mask) 데이터(20) 및 색이 피부색인 픽셀의 제2 마스크 데이터(10)를 저장할 수 있다(S16-2).In order to solve this problem, in the recognition of the facial region and the estimation of the pose, as shown in FIG. 4, when there is a change in pixels between the same first facial region subwindow 10 after the steps S11 to S16 (S16). -1), the first mask data 20 of the pixel whose color is other than the skin color and the second mask data 10 of the pixel whose color is the skin color can be stored (S16-2).

일예로, 도 7에 도시된 바와 같이, 동일한 사용자에 의한 제1 얼굴영역 서브 윈도우(10)에 선글라스와 같은 픽셀의 변화가 존재할 수 있다. For example, as illustrated in FIG. 7, there may be a change of a pixel such as sunglasses in the first face region sub window 10 by the same user.

선글라스와 같은 픽셀의 변화는 선글라스착용 하였을 시의 제1 얼굴영역 서브윈도우(10a)와 선글라스를 착용하지 않았을 시의 제1 얼굴영역 서브윈도우(10b)에서 픽셀의 변화를 인지하여 피부색 이외의 검은색인 선글라스의 픽셀 데이터인 제1 마스크데이터(20)와 선글라스를 착용 하지 않았을 시의 눈 주위의 색인 피부색의 픽셀 데이터의 제2 마스크데이터(30)를 저장한다.The change of pixels such as sunglasses is performed by recognizing the change of pixels in the first face region subwindow 10a when the sunglasses are worn and the first face region subwindow 10b when the sunglasses are not worn. The first mask data 20, which is the pixel data of the sunglasses, and the second mask data 30 of the pixel data of the index skin color around the eyes when the sunglasses are not worn.

그리고, 상기 S17 단계 내지 S19 단계를 수행하여 책정된 제2 얼굴영역 서브윈도우(40)에 제1 마스크 데이터(20)에 해당하는 픽셀이 존재하면(S19-1). 그리고, 여기서 제1 마스크 데이터(20)에 해당하는 픽셀을 제2 마스크데이터(30) 해당하는 픽셀로 교체하여 가려짐 현상이 제거된 제2 얼굴영역 서브윈도우(50)를 추출할 수 있다(S19-2). 이후, 상기와 같은 S20 내지 S22 단계를 수행하여 가려짐 현상이 제거된 제2 얼굴영역 서브윈도우의 얼굴 포즈를 인식함으로써, 제1 얼굴영역 서브윈도우의 픽셀 데이터와 제2 얼굴영역 서브윈도우의 픽셀 데이터를 상호 비교할시 오동작하는 것을 방지할 수 있다.If the pixel corresponding to the first mask data 20 exists in the second face region subwindow 40 determined by performing steps S17 to S19 (S19-1). In operation S19, the second face region subwindow 50 from which the masking phenomenon is removed may be extracted by replacing a pixel corresponding to the first mask data 20 with a pixel corresponding to the second mask data 30 (S19). -2). Thereafter, by performing the above steps S20 to S22, the face pose of the second face region subwindow from which the obstruction is removed is recognized, thereby pixel data of the first face region subwindow and pixel data of the second face region subwindow. It is possible to prevent malfunction when comparing with each other.

도 7에 도시된 바와 같이, 가려짐 현상은 선글라스를 일 예로 하였으나, 안대, 마스크, 반창고, 모자 등 다양한 종류로 마련될 수 있으므로, 이에 대한 제1 마스크 데이터 및 제2 마스크 데이터 또한 다양한 종류가 저장되어 가려짐 현상에 대응할 수 있음은 물론이다.As shown in FIG. 7, the occlusion phenomenon is one example of sunglasses, but may be provided in various types such as eyeglasses, masks, band-aids, hats, and the like. Of course, it can cope with the mask phenomenon.

한편, 도 3 및 도 4의 S14 단계에 의해 에이다부스트 알고리즘으로 서브윈도우의 영상이 얼굴 영상이 아닌 것으로 판별되는 경우, 해당 서브윈도우의 영상은 S13단계에 의해 [표 1]의 임계치와 부합되는 피부색의 픽셀이 군집되어있으므로 사용자의 손 영상으로 간주할 수 있다.On the other hand, when it is determined that the image of the sub-window is not a face image by the Ada Boost algorithm by the step S14 of Figures 3 and 4, the image of the sub-window corresponding to the threshold of [Table 1] by the step S13 Since the pixels are clustered, it can be regarded as the user's hand image.

여기서, S14 단계에서 사용자의 손 영상으로 판별되는 경우에는 사용자의 손 영상이 가리키는 방향, 펴진 손가락의 개수 등을 추정하여 이에 따른 영상 콘텐츠 감상용 로봇(300)의 제어에 적용될 수 있는데, 이와 같은 과정은 본 발명의 발명자에 의해 발명되어 기 출원된 한국특허출원 제2007-0075776호 "만화컨텐츠 감상용 로봇의 컨트롤 방법 및 이를 이용한 만화컨텐츠 감상용 로봇"을 통해 제안된 바 있다.In this case, when it is determined as the user's hand image in step S14, the direction indicated by the user's hand image, the number of extended fingers, etc. may be estimated and applied to the control of the robot 300 for viewing image content accordingly. Korean Patent Application No. 2007-0075776, filed by the inventor of the present invention and previously filed, has been proposed through a control method of a comic book appreciation robot and a comic appreciation robot using the same.

상기와 같은 방법을 통해, 본 발명에 따른 얼굴 인식 방법 및 영상 콘텐츠 감상용 로봇(300)의 컨트롤 방법은 입력되는 영상으로부터 얼굴 영역을 추출하고, 추출된 얼굴 영역으로부터 얼굴 영역의 포즈를 추정하게 된다.Through the above-described method, the face recognition method and the control method of the image content viewing robot 300 according to the present invention extract the face region from the input image and estimate the pose of the face region from the extracted face region.

다시, 도 1을 참조하여 설명하면, S101 단계에서 얼굴 영역의 포즈가 추정되면, 추정된 얼굴 영역의 포즈가 정면을 응시하는지 여부를 판별한다(S102). 이 때, 얼굴 영역의 포즈가 정면을 응시하는 것으로 판별되는 경우, 추출된 얼굴 영역으로부터 얼굴 형태(Shape, 이하 동일) 및 얼굴 텍스처(Texture)를 추출한다(S103).Referring back to FIG. 1, if the pose of the face region is estimated in step S101, it is determined whether the pose of the estimated face region gazes at the front face (S102). At this time, when it is determined that the pose of the face region gazes at the front, a face shape (hereinafter referred to as “shape”) and a face texture are extracted from the extracted face region (S103).

여기서, 얼굴 형태는 얼굴 영상의 외곽선, 눈, 눈썹, 입술 등의 얼굴 영상의 외곽선 정보를 포함한다. 즉, 얼굴 형태는 얼굴 영상에서 색상이 변하는 에지(Edge) 영역에 대한 정보를 포함한다. 그리고, 얼굴 텍스처(Texture)는 얼굴 형태의 내부에 포함되는 색 정보, 즉 픽셀값에 대한 정보로 얼굴 형태 내부의 얼굴 이미지에 대한 정보를 포함한다.Here, the face shape includes outline information of the face image such as an outline of the face image, eyes, eyebrows, and lips. In other words, the face shape includes information about an edge region in which the color of the face image changes. The face texture includes color information included in the face shape, that is, information about a pixel value, and includes information on the face image inside the face shape.

그런 다음, 추출된 얼굴 형태 및 얼굴 텍스처(Texture)를 기 설정된 평균 형태로 와핑(Warpping)하여 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 생성한다(S103). 여기서, 와핑(Warpping) 과정은 사람의 얼굴이 표정에 따라 그 너비나 길이가 달라질 수 있어, 얼굴 영상으로부터 표정의 추출을 위한 비교시 그 정확성을 보장하기 위한 것이다. 이와 같은 얼굴의 너비나 길이의 차이는 사용자가 카메라(320)로부터 이격된 거리에 따라 달라질 수도 있으므로, 와핑(Warpping) 과정을 통해 이를 보정하게 된다.Thereafter, the extracted face shape and the face texture are warped to a predetermined average shape to generate an average face shape and an average face texture (S103). Here, the warping process is to guarantee the accuracy of the human face in comparison with the extraction of the expression from the face image, since the width or length of the human face may vary. Since the difference in the width or length of the face may vary depending on the distance away from the camera 320, the face is corrected through a warping process.

그리고, 와핑(Warpping) 과정을 통해 생성된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 레티넥스(Retinex) 처리한다(S105). 레티넥스(Retinex) 처리를 통해 영상의 촬영시 조명 조건의 차이로 인해 얼굴 영상에 대한 얼굴 텍스처(Texture)의 변화, 즉 픽셀값들이 바뀌는 것을 보정하게 된다.Then, the average face shape and the average face texture generated through the warping process are retinexed (S105). Retinex processing compensates for changes in facial texture, ie, pixel values, for the face image due to differences in lighting conditions when the image is taken.

그런 다음, 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 기초하여 현재 얼굴 영상의 표정에 대한 제1 얼굴 파라미터를 생성한다(S106). 여기서, 본 발명에서는 제1 얼굴 파라미터는 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 대해 AAM(Active Appearance Model)을 적용하여 생성된다.Then, the first facial parameter is generated for the facial expression of the current facial image based on the Retinex-treated average face shape and average face texture (S106). Here, in the present invention, the first face parameter is generated by applying an AAM (Active Appearance Model) to the Retinex-treated average face shape and average face texture.

또한, AAM(Active Appearance Model)의 적용시에는 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 대해 PCA(Principal Component Analysis) 기법이 적용될 수 있다. 즉, 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 결합한 정보는 실 제 길이가 긴 벡터 형태가 되어 AAM(Active Appearance Model)의 적용을 통한 제1 얼굴 파라미터의 학습시 계산이 복잡해질 수 있다. 이와 같은 이유로, 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 결합한 벡터 형태의 정보를 축소하기 위해 PCA(Principal Component Analysis) 기법이 적용된다.In addition, when the AAM (Active Appearance Model) is applied, the Principal Component Analysis (PCA) technique may be applied to the average face shape and the average face texture. That is, the information combining the average face shape and the average face texture becomes a vector having a long length, and the calculation may be complicated when learning the first face parameter by applying an AAM (Active Appearance Model). For this reason, a Principal Component Analysis (PCA) technique is applied to reduce information in a vector form combining an average face shape and an average face texture.

한편, 얼굴 표정의 영상을 촬영할 때 해당 얼굴 표정에 대한 영상은 동영상 형태로 입력되며, 도 1의 S101 단계 내지 S106 단계는 영상의 프레임 단위로 수행되어, S107 단계에서 해당 얼굴 표정에 대한 영상 프레임이 종료되는지 여부를 확인하여 S101 단계 내지 S106 단계를 반복 수행하는 과정을 통해 제1 얼굴 파라미터를 학습한다(S108).On the other hand, when capturing the image of the facial expression image for the corresponding facial expression is input in the form of a video, step S101 to S106 of Figure 1 is performed in the frame unit of the image, the image frame for the facial expression in step S107 The first facial parameter is learned through the process of repeating steps S101 to S106 by checking whether it is finished (S108).

그리고, 하나의 얼굴 표정에 대한 제1 얼굴 파라미터의 학습이 완료되면(S108), 다른 얼굴 표정의 학습 여부를 체크하고(S109), 다른 얼굴 표정의 학습하는 경우 상술한 과정을 통해 해당 얼굴 표정에 대한 제1 얼굴 파라미터를 학습하는 방법을 통해, 각 얼굴 표정, 예를 들어, 즐거움, 슬픔, 분노, 공포에 대한 얼굴 표정들에 대한 각각의 제1 얼굴 파라미터를 학습한다.When the learning of the first facial parameter for one facial expression is completed (S108), it is checked whether the other facial expressions are learned (S109), and when the other facial expressions are learned, the corresponding facial expression is processed through the above-described process. Through the method of learning the first facial parameter for each of the first facial parameter for each facial expression, for example, facial expressions for pleasure, sadness, anger, fear.

상기와 같은 과정을 통해, 한 명의 사용자의 얼굴 표정들 각각에 대한 제1 얼굴 파라미터의 학습이 완료되며, 다른 사용자의 얼굴 표정에 대해서도 상기와 같은 과정을 통해 제1 얼굴 파라미터를 학습할 수 있다. 이와 같이 학습된 제1 얼굴 파라미터는 영상 콘텐츠 감상용 로봇(300)에 등록되어 저장된다.Through the above process, the learning of the first facial parameter for each of the facial expressions of one user is completed, and the first facial parameter may be learned through the same process for the facial expression of another user. The learned first face parameter is registered and stored in the robot 300 for viewing image content.

이하에서는, 제1 얼굴 파라미터가 영상 콘텐츠 감상용 로봇(300)에 등록 및 저장된 상태에서 실제 사용자가 영상 콘텐츠 감상용 로봇(300)을 통해 영상 콘텐츠 를 감상하는 과정을, 도 2를 참조하여 설명한다.Hereinafter, a process in which an actual user views the image content through the image content viewing robot 300 while the first face parameter is registered and stored in the image content viewing robot 300 will be described with reference to FIG. 2.

먼저, 사용자가 도 8에 도시된 바와 같이 영상 콘텐츠 감상용 로봇(300)의 모니터 등의 디스플레이부(310) 앞에 서서 영상 콘텐츠를 감상하는 경우, 영상 콘텐츠 감상용 로봇(300)에 마련된 카메라(320)를 통해 사용자의 얼굴 영상이 촬영된다(S200).First, when the user stands in front of a display unit 310 such as a monitor of the robot 300 for viewing image content as shown in FIG. 8, and views the image content, the camera 320 provided in the image content robot 300 is viewed. An image of the face of the user is photographed (S200).

그리고, 카메라(320)를 통한 촬영에 의해 입력되는 영상으로부터 얼굴 영역을 추출하고, 추출된 얼굴 영역의 포즈를 추정한다(S201). 여기서, 영상으로부터 얼굴 영역의 추출 및 포즈의 추정 과정은 도 1의 S101 단계(도 3 및 도 4 참조)에서와 동일한 바, 그 상세한 설명은 생략한다.Then, the face region is extracted from the image input by the camera 320 and the pose of the extracted face region is estimated (S201). Here, the extraction process and the estimation of the pose of the face region from the image are the same as in step S101 of FIG. 1 (see FIGS. 3 and 4), and thus a detailed description thereof will be omitted.

그런 다음, 추출된 얼굴 영상이 정면을 응시하고 있는지를 판별하고(S202), 얼굴 영상이 정면을 응시하고 있지 않은 것으로 판단되는 경우에는 각 포즈에 다른 기 설정된 컨트롤을 수행한다(S210). 여기서, 각 포즈에 따른 컨트롤을 예를 들어 설명하면, 얼굴 영상의 포즈가 디스플레이부(310)의 좌측 아래를 응시하는 것으로 추정되는 경우, 영상 콘텐츠 내의 객체, 예를 들어 영상 콘텐츠가 만화인 경우 만화 내의 캐릭터가 디스플레이부(310) 화면 상에서 좌측 아래로 이동할 수 있다.Then, it is determined whether the extracted face image is staring at the front face (S202). If it is determined that the face image is not staring at the front face, different preset controls are performed for each pose (S210). Here, if the control according to each pose is described as an example, when the pose of the face image is estimated to stare at the lower left side of the display 310, the object in the image content, for example, the cartoon when the image content is a cartoon The character within may move to the lower left on the screen of the display 310.

한편, S202 단계에서 얼굴 영상이 정면을 응시하는 것으로 판단되는 경우, 얼굴 영상으로부터 얼굴 형태 및 얼굴 텍스처(Texture)를 추출한다(S203). 여기서, 도 2에 도시된 얼굴 형태 및 얼굴 텍스처(Texture)의 추출은 전술한 도 1의 S103 단계와 동일한 바, 그 상세한 설명은 생략한다.On the other hand, if it is determined in step S202 that the face image gazes at the front, a face shape and a face texture are extracted from the face image (S203). Here, the extraction of the face shape and the face texture shown in FIG. 2 is the same as the above-described step S103 of FIG. 1, and a detailed description thereof will be omitted.

그런 다음, 얼굴 형태 및 얼굴 텍스처(Texture)를 와핑(Warpping)하여 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 생성하고(S204), 생성된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 레티넥스(Retinex) 처리한다(S205). 여기서, S204 단계 및 S205 단계에서의 와핑(Warpping) 및 레티넥스(Retinex) 처리 방법은 전술한 도 1의 S104 단계 및 S105 단계에서의 와핑(Warpping) 및 레티넥스(Retinex) 처리 방법에 대응하는 바, 그 상세한 설명은 생략한다.Then, by warping the face shape and the face texture, the average face shape and the average face texture are generated (S204), and the generated average face shape and the average face texture are retinex ( Retinex) to process (S205). Here, the warping and retinex processing methods in steps S204 and S205 correspond to the warping and retinex processing methods in steps S104 and S105 of FIG. 1 described above. The detailed description thereof will be omitted.

그리고, S205 단계를 통해 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 기초하여 현재 영상 콘텐츠 감상용 로봇(300) 앞에 서 있는 사람으로부터 추출된 얼굴 영상의 표정에 대한 제2 얼굴 파라미터를 생성한다(S206).In operation S205, the second face of the facial expression extracted from the person standing in front of the robot 300 for viewing the current image content based on the average face shape and the average face texture processed by Retinex. A parameter is generated (S206).

여기서, 본 발명에 따른 제2 얼굴 파라미터는 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 대해 AAM(Active Appearance Model)을 적용하여 생성될 수 있다. AAM(Active Appearance Model)의 적용시에는, 제1 얼굴 파라미터의 학습에서와 동일하게 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 대해 PCA(Principal Component Analysis) 기법이 적용될 수 있다.Here, the second face parameter according to the present invention may be generated by applying an AAM (Active Appearance Model) to the Retinex-treated average face shape and average face texture. When the AAM (Active Appearance Model) is applied, the Principal Component Analysis (PCA) technique may be applied to the average face shape and the average face texture as in the learning of the first face parameter.

그런 다음, 제2 얼굴 파라미터와 각 표정에 대해 기 학습되어 저장된 제1 파라미터들 간의 유사도를 산출하여(S207), 제2 얼굴 파라미터와 가장 큰 유사도를 갖는 제1 얼굴 파라미터의 얼굴 표정을 제2 얼굴 파라미터에 대한 얼굴 표정으로 추정한다(S208).Then, the similarity between the second facial parameter and the first parameters pre-learned and stored for each facial expression is calculated (S207), so that the facial expression of the first facial parameter having the greatest similarity with the second facial parameter is obtained as the second face. It is estimated by the facial expression for the parameter (S208).

여기서, 제1 얼굴 파라미터와 제2 얼굴 파라미터 간의 유사도의 산출은 하나의 표정에 대해 학습된 복수의 제1 얼굴 파라미터의 분포와, 제2 얼굴 파라미터의 분포 간의 비교를 통해 산출될 수 있다.Here, the calculation of the similarity between the first face parameter and the second face parameter may be calculated by comparing the distribution of the plurality of first face parameters learned for one expression with the distribution of the second face parameters.

여기서, 제1 얼굴 파라미터 및 제2 얼굴 파라미터에 대한 분포는 가우시안 분포가 적용될 수 있다. 즉, 제1 얼굴 파라미터에 대한 제1 가우시안 분포를 산출하고 제2 얼굴 파라미터에 대한 제2 가우신안 분포를 산출하고, 제1 가우시안 분포와 제2 가우시안 분포 간의 거리차로 유사도를 산출할 수 있다. 이 때 거리차가 가장 작은 제1 얼굴 파라미터가 제2 얼굴 파라미터와 유사도가 가장 큰 것으로 판별된다.Here, the Gaussian distribution may be applied to the distributions of the first face parameter and the second face parameter. That is, the first Gaussian distribution for the first face parameter may be calculated, the second Gaussian distribution for the second face parameter may be calculated, and the similarity may be calculated by the distance difference between the first Gaussian distribution and the second Gaussian distribution. At this time, it is determined that the first face parameter having the smallest distance difference has the largest similarity with the second face parameter.

상기와 같은 과정에서 현재 사용자의 얼굴 표정이 추정되면, 추정된 얼굴 표정에 따른 기 설정된 컨트롤이 영상 콘텐츠에 대해 수행된다. 여기서, 추정된 얼굴 표정에 따른 영상 콘텐츠의 컨트롤은 추정된 얼굴 표정에 따라 영상 콘텐츠에 포함된 객체 및 배경 중 적어도 어느 하나의 색상의 변경을 통해 수행될 수 있다.When the facial expression of the current user is estimated in the above process, the preset control according to the estimated facial expression is performed on the image content. Here, the control of the image content according to the estimated facial expression may be performed by changing at least one color of an object and a background included in the image content according to the estimated facial expression.

도 9를 참조하여 설명하면, 예를 들어, 영상 콘텐츠가 만화인 경우, 객체인 캐릭터의 배경을 추정된 얼굴 표정에 따라 변경시킬 수 있다. 도 9에서는 얼굴 표정이 즐거움, 슬픔, 분노, 공포 네 가지 형태에 대해 제1 얼굴 파라미터가 학습된 상태를 예로 한 것으로, 얼굴 표정이 즐거움으로 추정되는 경우, 배경을 노란색 계열로 변경하거나, 슬픔인 경우에는 배경을 파란색 계열로 변경하거나, 분노나 공포의 경우 배경의 명도를 낮추는 등의 방법으로 영상 콘텐츠에 대한 컨트롤을 수행할 수 있다.Referring to FIG. 9, for example, when the image content is a cartoon, the background of a character, which is an object, may be changed according to an estimated facial expression. 9 illustrates an example in which the first facial parameter is learned about four types of facial expressions such as pleasure, sadness, anger, and fear. When the facial expression is assumed to be pleasure, the background is changed to yellow or sadness. In the case of changing the background to a blue color, or in the case of anger or fear, the control of the video content may be performed by lowering the brightness of the background.

또한, 도 10의 (b)에서는 추정된 얼굴 표정에 따라 영상 콘텐츠의 객체, 즉 만화의 경우 캐릭터의 색상이 변경되는 예를 보여주고 있다. 그리고, 본 발명에 따른 추정된 얼굴 표정에 따른 영상 콘텐츠의 컨트롤은, 도 10의 (a)에 도시된 바와 같이, 영상 콘텐츠의 객체의 모양을 변경하는 것으로 수행될 수 있다.In addition, FIG. 10 (b) shows an example in which the color of a character is changed in the case of an object of image content, that is, a cartoon, according to the estimated facial expression. The control of the image content according to the estimated facial expression according to the present invention may be performed by changing the shape of the object of the image content, as shown in FIG.

여기서, 도 9 및 도 10은 인식된 얼굴 표정에 따른 영상 콘텐츠의 컨트롤의 일 예를 설명한 것으로, 본 발명이 도 9 및 도 10에 도시된 예들에 한정되지 않음은 당연하다.9 and 10 illustrate an example of controlling image content according to a recognized facial expression, and the present invention is not limited to the examples illustrated in FIGS. 9 and 10.

비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 별명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.Although some embodiments of the invention have been shown and described, it will be apparent to those skilled in the art that modifications may be made to the embodiment without departing from the spirit or spirit of the invention. . The scope of the alias will be defined by the appended claims and their equivalents.

도 1 및 도 2는 본 발명에 따른 얼굴 인식 방법 및 영상 콘텐츠 감상용 로봇의 컨트롤 방법을 설명하기 위한 도면이고,1 and 2 are views for explaining a face recognition method and a control method of the robot for viewing image content according to the present invention,

도 3 내지 도 7은 본 발명에 따른 얼굴 인식 방법 및 영상 콘텐츠 감상용 로봇의 컨트롤 방법에서 얼굴 영역의 추출 및 포즈의 추정 과정을 설명하기 위한 도면이고,3 to 7 are diagrams for explaining a process of extracting a face region and estimating a pose in a face recognition method and a control method of a robot for viewing image content according to the present invention;

도 8은 본 발명에 따른 얼굴 인식 방법 및 영상 콘텐츠 감상용 로봇의 컨트롤 방법이 적용된 영상 콘텐츠 감상용 로봇의 실시 형태를 도시한 도면이고,8 is a diagram illustrating an embodiment of a robot for image content application to which a face recognition method and a control method for a robot for image content viewing according to the present invention are applied;

도 9 및 도 10은 본 발명에 따른 얼굴 인식 방법 및 영상 콘텐츠 감상용 로봇의 컨트롤 방법을 통해 추정된 표정에 따른 컨트롤이 수행되는 영상 콘텐츠의 예를 도시한 도면이다.9 and 10 are diagrams illustrating examples of image contents in which a control based on a facial expression estimated through a face recognition method and a control method of a robot for viewing image contents according to the present invention is performed.

Claims (8)

(a) 입력되는 영상으로부터 얼굴 영역을 추출하여 상기 추출된 얼굴 영역의 포즈를 추정하는 단계와;(a) extracting a face region from an input image to estimate a pose of the extracted face region; (b) 상기 추출된 얼굴 영역의 포즈가 정면을 응시하는 것으로 추정되는 경우, 상기 추출된 얼굴 영역의 얼굴 형태 및 얼굴 텍스처(Texture)를 추출하는 단계와;(b) extracting a face shape and a face texture of the extracted face area when the pose of the extracted face area is estimated to stare at the front; (c) 상기 추출된 얼굴 형태 및 얼굴 텍스처(Texture)를 기 설정된 평균 형태로 와핑(Warpping)하여 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 생성하는 단계와;(c) warping the extracted face shape and face texture to a predetermined average shape to generate an average face shape and an average face texture; (d) 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)를 레티넥스(Retinex) 처리하는 단계와;(d) Retinex processing the average face shape and the average face texture; (e) 복수의 얼굴 표정에 대해 상기 (a) 단계 내지 상기 (d) 단계를 각각 수행하고, 상기 각 얼굴 표정에 대한 상기 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 상기 레티넥스(Retinex) 처리된 평균 얼굴 텍스처(Texture)에 기초하여 상기 각 얼굴 표정에 대한 제1 얼굴 파라미터를 학습하는 단계와;(e) performing steps (a) to (d) on a plurality of facial expressions, respectively, and performing the Retinex-treated average face shape and the Retinex treatment on each of the facial expressions; Learning first facial parameters for each facial expression based on the averaged facial textures; (f) 입력되는 영상에 대해 상기 (a) 단계 내지 상기 (d) 단계를 수행하여 생성되는 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 기초하여 제2 얼굴 파라미터를 생성하는 단계와;(f) Generating a second face parameter based on a Retinex-treated average face shape and average face texture generated by performing steps (a) to (d) on the input image. Making a step; (g) 상기 제1 얼굴 파라미터 중 상기 제2 얼굴 파라미터와 가장 큰 유사도를 갖는 어느 하나로 상기 제2 얼굴 파라미터에 대한 얼굴 표정을 추정하는 단계를 포함하는 것을 특징으로 하는 얼굴 표정 인식 방법.(g) estimating a facial expression for the second facial parameter as one of the first facial parameters having the greatest similarity with the second facial parameter. 제1항에 있어서,The method of claim 1, 상기 제1 얼굴 파라미터의 학습 및 상기 제2 얼굴 파라미터의 생성은 레티넥스(Retinex) 처리된 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)에 대해 AAM(Active Appearance Model)을 적용하여 학습 및 생성되는 것을 특징으로 하는 얼굴 표정 인식 방법.The learning of the first face parameter and the generation of the second face parameter are learned and generated by applying an AAM (Active Appearance Model) to the Retinex-treated average face shape and the average face texture. Facial expression recognition method characterized in that. 제2항에 있어서,The method of claim 2, 상기 AAM(Active Appearance Model)을 적용시 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)에 대해 PCA(Principal Component Analysis) 기법이 적용되는 것을 특징으로 하는 얼굴 표정 인식 방법.And a Principal Component Analysis (PCA) technique is applied to the average face shape and the average face texture when the AAM is applied. 제2항에 있어서,The method of claim 2, 상기 (g) 단계는Step (g) (g1) 상기 제1 얼굴 파라미터에 대한 제1 가우시안 분포를 산출하는 단계와;(g1) calculating a first Gaussian distribution for the first facial parameter; (g2) 상기 제2 얼굴 파라미터에 대한 제2 가우시안 분포를 산출하는 단계와;(g2) calculating a second Gaussian distribution for the second facial parameter; (g3) 상기 제1 가우시안 분포와 상기 제2 가우시안 분포 간의 거리차를 상기 유사도로 산출하는 단계를 포함하는 것을 특징으로 하는 얼굴 표정 인식 방법.(g3) calculating a distance difference between the first Gaussian distribution and the second Gaussian distribution as the similarity. 제1항 내지 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 4, 상기 (a) 단계는,In step (a), (a1) 입력되는 영상에서 색을 통해 사람의 피부에 해당하는 픽셀을 판별하는 단계와;(a1) determining pixels corresponding to human skin through colors in the input image; (a2) 상기 영상이 가지는 소정 크기의 서브윈도우에서 상기 픽셀의 비율이 임계치에 부합되는지 판별하는 단계와;(a2) determining whether a ratio of the pixels meets a threshold value in a sub-window of a predetermined size of the image; (a3) 상기 서브윈도우 내에 군집된 상기 픽셀이 임계치에 부합되면 에이다부스트(Adaboost) 알고리즘을 통해 상기 서브윈도우 내에 영상이 얼굴 영상인지 판별하는 단계와;(a3) determining whether an image is a face image in the subwindow through an Adaboost algorithm when the pixels clustered in the subwindow meet a threshold; (a4) 판별 결과가 상기 서브윈도우 내에 영상이 얼굴 영상일 경우, 상기 서브윈도우를 제1 얼굴영역 서브윈도우로 책정하는 단계와;(a4) if the determination result is a face image in the sub-window, setting the sub-window as the first face region sub-window; (a5) 상기 (a1) 단계 내지 상기 (a4) 단계를 반복 수행하여 책정된 각기 다양한 얼굴 포즈를 가지는 복수의 상기 제1 얼굴영역 서브윈도우를 상기 얼굴 포즈에 따라 분류 및 저장하여 매니폴드(manifold) 공간을 형성하는 단계와;(a5) The manifold may be classified and stored according to the face poses by classifying and storing the plurality of first face area sub-windows having various face poses which are determined by repeating steps (a1) to (a4). Forming a space; (a6) 상기 (a1) 단계 내지 상기 (a3) 단계를 수행하여 얼굴 영상일 경우, 해당 서브윈도우를 제2 얼굴영역 서브윈도우로 책정하는 단계와;(a6) performing a step (a1) to (a3) to set a corresponding subwindow as a second face region subwindow when it is a face image; (a7) 상기 제1 얼굴영역 서브윈도우의 픽셀 데이터와 상기 매니폴드 공간에 저장된 상기 제1 얼굴영역 서브윈도우의 픽셀 데이터를 비교하여 상기 제2 얼굴영역 서브윈도우의 픽셀 데이터와 가장 근접한 어느 하나로 상기 얼굴 영역의 포즈를 추정하는 단계를 포함하는 것을 특징으로 하는 얼굴 표정 인식 방법.(a7) comparing the pixel data of the first face region sub-window with the pixel data of the first face region sub-window stored in the manifold space and comparing the pixel data of the first face region sub-window to the one closest to the pixel data of the second face region sub-window. Estimating a pose of the region. 영상 콘텐츠를 디스플레이부에 표시하는 단계와;Displaying image content on a display unit; 상기 디스플레이부의 전방에 위치하는 사람을 촬영하는 단계와;Photographing a person located in front of the display unit; 상기 촬영된 영상에 대해 제5항에 따른 얼굴 표정 인식 방법을 적용하여 촬영된 사람의 얼굴 표정을 추정하는 단계와;Estimating a facial expression of a photographed person by applying the facial expression recognition method according to claim 5 to the photographed image; 상기 추정된 얼굴 표정에 따라 상기 영상 콘텐츠에 포함된 객체 및 배경 중 적어도 어느 하나의 색상이 변경되는 단계를 포함하는 것을 특징으로 하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법.And changing at least one color of an object and a background included in the image content according to the estimated facial expression. 제6항에 있어서,The method of claim 6, 상기 추정된 얼굴 표정에 따라 상기 객체의 모양이 변경되는 단계를 더 포함하는 것을 특징으로 하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법.And controlling the shape of the object according to the estimated facial expression. 제6항에 있어서,The method of claim 6, 상기 영상 콘텐츠는 만화 콘텐츠를 포함하는 것을 특징으로 하는 영상 콘텐츠 감상용 로봇의 컨트롤 방법.The video content control method of the robot for viewing video content, characterized in that it comprises a cartoon content.
KR1020080061307A 2008-06-27 2008-06-27 Method for recognizing face expression and control method of robot for appreciating image contents using the same KR100977528B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080061307A KR100977528B1 (en) 2008-06-27 2008-06-27 Method for recognizing face expression and control method of robot for appreciating image contents using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080061307A KR100977528B1 (en) 2008-06-27 2008-06-27 Method for recognizing face expression and control method of robot for appreciating image contents using the same

Publications (2)

Publication Number Publication Date
KR20100001409A true KR20100001409A (en) 2010-01-06
KR100977528B1 KR100977528B1 (en) 2010-08-23

Family

ID=41811714

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080061307A KR100977528B1 (en) 2008-06-27 2008-06-27 Method for recognizing face expression and control method of robot for appreciating image contents using the same

Country Status (1)

Country Link
KR (1) KR100977528B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101159962B1 (en) * 2010-05-25 2012-06-25 숭실대학교산학협력단 Facial Expression Recognition Interaction Method between Mobile Machine and Human
CN102566474A (en) * 2012-03-12 2012-07-11 上海大学 Interaction system and method for robot with humanoid facial expressions, and face detection and tracking method
WO2014106216A1 (en) * 2012-12-31 2014-07-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
CN108242074A (en) * 2018-01-02 2018-07-03 中国科学技术大学 A kind of three-dimensional exaggeration human face generating method based on individual satire portrait painting
KR102223754B1 (en) * 2020-06-05 2021-03-05 주식회사 픽스트리 Method and Apparatus for Enhancing Face Image
KR102223753B1 (en) * 2020-06-05 2021-03-05 주식회사 픽스트리 Method and Apparatus for Enhancing Face Image
WO2022131413A1 (en) * 2020-12-18 2022-06-23 주식회사 다성기술 Care service robot using multi-joint arm
CN114708627A (en) * 2022-02-28 2022-07-05 厦门大学 Micro-expression recognition method applied to social robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102564182B1 (en) 2023-04-12 2023-08-07 이가람 Method, apparatus and system for extracting facial expression images based on image data using artificial intelligence models and creating contents using them

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100406254B1 (en) 2001-09-10 2003-11-14 (유)엔와이텔 Color variation apparatus and its method of display screen to the biorhythm
KR100680284B1 (en) * 2005-06-07 2007-02-08 주식회사 헬스피아 Mobile communication terminal which is changeable of an environment setup according to a user's emotional state, and change method thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101159962B1 (en) * 2010-05-25 2012-06-25 숭실대학교산학협력단 Facial Expression Recognition Interaction Method between Mobile Machine and Human
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
CN102566474A (en) * 2012-03-12 2012-07-11 上海大学 Interaction system and method for robot with humanoid facial expressions, and face detection and tracking method
WO2014106216A1 (en) * 2012-12-31 2014-07-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
CN108242074A (en) * 2018-01-02 2018-07-03 中国科学技术大学 A kind of three-dimensional exaggeration human face generating method based on individual satire portrait painting
CN108242074B (en) * 2018-01-02 2020-06-26 中国科学技术大学 Three-dimensional exaggeration face generation method based on single irony portrait painting
KR102223754B1 (en) * 2020-06-05 2021-03-05 주식회사 픽스트리 Method and Apparatus for Enhancing Face Image
KR102223753B1 (en) * 2020-06-05 2021-03-05 주식회사 픽스트리 Method and Apparatus for Enhancing Face Image
WO2021246821A1 (en) * 2020-06-05 2021-12-09 주식회사 픽스트리 Method and device for improving facial image
WO2021246822A1 (en) * 2020-06-05 2021-12-09 주식회사 픽스트리 Method and apparatus for improving object image
WO2022131413A1 (en) * 2020-12-18 2022-06-23 주식회사 다성기술 Care service robot using multi-joint arm
CN114708627A (en) * 2022-02-28 2022-07-05 厦门大学 Micro-expression recognition method applied to social robot

Also Published As

Publication number Publication date
KR100977528B1 (en) 2010-08-23

Similar Documents

Publication Publication Date Title
KR100977528B1 (en) Method for recognizing face expression and control method of robot for appreciating image contents using the same
EP1969559B1 (en) Contour finding in segmentation of video sequences
EP1969560B1 (en) Edge-controlled morphological closing in segmentation of video sequences
Ruiz-del-Solar et al. Skin detection using neighborhood information
CN103839250B (en) The method and apparatus processing for face-image
JP2019504386A (en) Facial image processing method and apparatus, and storage medium
EP3608755A1 (en) Electronic apparatus operated by head movement and operation method thereof
KR101893554B1 (en) Method and apparatus of recognizing facial expression base on multi-modal
KR100845969B1 (en) The Extraction method of moving object and the apparatus thereof
CN111989689A (en) Method for identifying objects within an image and mobile device for performing the method
EP1969562A1 (en) Edge-guided morphological closing in segmentation of video sequences
JPWO2019003973A1 (en) Face authentication device, face authentication method and program
Jalab et al. Human computer interface using hand gesture recognition based on neural network
Lee et al. Emotional recognition from facial expression analysis using bezier curve fitting
Manaf et al. Color recognition system with augmented reality concept and finger interaction: Case study for color blind aid system
Ruiz-del-Solar et al. Robust skin segmentation using neighborhood information
Lee Detection and recognition of facial emotion using bezier curves
Azad et al. A robust and adaptable method for face detection based on color probabilistic estimation technique
El Sibai et al. A new robust approach for real-time hand detection and gesture recognition
Lin Face detection by color and multilayer feedforward neural network
Nayak et al. Automatic illumination correction for scene enhancement and object tracking
CN113781330A (en) Image processing method, device and electronic system
Vineetha et al. Face expression detection using Microsoft Kinect with the help of artificial neural network
Porle et al. Performance of histogram-based skin colour segmentation for arms detection in human motion analysis application
Xie et al. Hand posture recognition using kinect

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130814

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140818

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150812

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160804

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170811

Year of fee payment: 8