KR101783453B1 - Method and Apparatus for extracting information of facial movement based on Action Unit - Google Patents

Method and Apparatus for extracting information of facial movement based on Action Unit

Info

Publication number
KR101783453B1
KR101783453B1 KR1020150139984A KR20150139984A KR101783453B1 KR 101783453 B1 KR101783453 B1 KR 101783453B1 KR 1020150139984 A KR1020150139984 A KR 1020150139984A KR 20150139984 A KR20150139984 A KR 20150139984A KR 101783453 B1 KR101783453 B1 KR 101783453B1
Authority
KR
South Korea
Prior art keywords
facial
vertices
plane
motion information
extracting
Prior art date
Application number
KR1020150139984A
Other languages
Korean (ko)
Other versions
KR101783453B9 (en
KR20170040692A (en
Inventor
황민철
이정년
박민지
이현우
Original Assignee
(주)감성과학연구센터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)감성과학연구센터 filed Critical (주)감성과학연구센터
Priority to KR1020150139984A priority Critical patent/KR101783453B1/en
Publication of KR20170040692A publication Critical patent/KR20170040692A/en
Application granted granted Critical
Publication of KR101783453B1 publication Critical patent/KR101783453B1/en
Publication of KR101783453B9 publication Critical patent/KR101783453B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

AU 기반 안면 움직임 정보 추출 방법에 대해 기술한다. 추출 방법:은 인체 안면의 특정 부위들에 대응하는 다수의 정점(Vertex)이 배열되어 있는 표준 모델을 정의하는 단계; 피험자로부터의 안면 영상을 획득하는 단계; 상기 안면 영상에 상기 표준 모델을 마스킹(매칭)하여 상기 안면 영상의 부위별로 상기 정점들을 맵핑하는 단계; 상기 피험자로부터 얻어지는 안면 영상을 연속적으로 획득하면서 상기 정점들의 좌표 변화 값을 추출하는 단계; 그리고 상기 정점을 안면에 대해 정의되어 있는 AU(Action Unit) 별로 그룹화하여, AU 그룹별 정점들의 중점(重點, Centroid)의 변화 값을 포함하는 AU 안면 움직임 정보를 추출하는 단계;를 포함한다.An AU-based facial motion information extraction method will be described. Extraction method: defining a standard model in which a plurality of vertices corresponding to specific parts of the human face are arranged; Obtaining a facial image from the subject; Mapping (masking) the standard model to the facial image and mapping the vertices according to a portion of the facial image; Extracting a coordinate change value of the vertexes while continuously acquiring a face image obtained from the subject; And grouping the vertices into AUs (Action Units) defined for the face, and extracting AU facial motion information including a change value of a centroid of vertices of each AU group.

Description

AU 기반의 안면 움직임 정보 추출 방법 및 장치{Method and Apparatus for extracting information of facial movement based on Action Unit}[0001] The present invention relates to an AU-based facial motion information extracting method and apparatus,

본 발명은 인체 움직임 정보 추출 방법 및 이를 적용하는 장치에 관한 것으로, 상세하게는 AU(Action Unit)를 기반으로 하는 안면 움직임 정보 추출 방법 및 장치에 관한 것이다.The present invention relates to a method for extracting human motion information and an apparatus using the same, and more particularly, to a method and apparatus for extracting facial motion information based on an AU (Action Unit).

다양한 인체 움직임 정보의 추출 방법에 대해서 다수 문헌을 통해 접할 수 있다. 인체 움직임 정보는 대상자의 생리학적 상태의 평가에 사용될 수 있다. A variety of human motion information extraction methods can be found in many documents. Human motion information can be used to evaluate the subject's physiological condition.

이러한 인체 움직임 정보를 생리학적 상태의 평가뿐 아니라 심리학적 상태의 평가에 사용할 수 있도록 하기 위한 연구가 바람직하다. It is desirable to study such human motion information so that it can be used not only for evaluation of physiological condition but also for evaluation of psychological condition.

AU는 안면 부위별 움직임과 방향을 정의하는 것인데, AU의 안면 움직임 정보를 추출하는 연구는 향후 다양한 응용 분야의 확장에 바람직하다. The AU defines the movement and direction of the facial region, and the study of extracting the facial motion information of AU is desirable for expanding various applications in the future.

USUS 68341156834115 B2B2 USUS 69043476904347 B1B1 USUS 73528817352881 B2B2 EPEP 07355090735509 B1B1 WOWO 20020090382002009038 A2A2 WOWO 20030171862003017186 A1A1

본 발명은 특정 AU의 안면 움직임 정보를 정량화하여 이를 추출하는 방법 및 이를 적용하는 장치를 제공한다.The present invention provides a method for quantifying and extracting facial motion information of a specific AU and an apparatus for applying the method.

본 발명은 AU의 안면 움직임 정보를 정확하게 추출하고 이를 수치화 또는 정량화할 수 있는 방법 및 이를 적용하는 장치를 제공한다.The present invention provides a method of accurately extracting facial motion information of an AU, quantifying or quantifying the facial motion information, and an apparatus for applying the method.

본 발명에 따른 AU(Action Unit) 안면 움직임 정보 추출 방법:은An Action Unit (AU) facial motion information extraction method according to the present invention:

인체 안면의 특정 부위들에 대응하는 다수의 정점(Vertex)이 배열되어 있는 표준 모델을 정의하는 단계;Defining a standard model in which a plurality of vertices corresponding to specific parts of the face of the human body are arranged;

피험자로부터의 안면 영상을 획득하는 단계;Obtaining a facial image from the subject;

상기 안면 영상에 상기 표준 모델을 마스킹(매칭)하여 상기 안면 영상의 부위별로 상기 정점들을 맵핑하는 단계;Mapping (masking) the standard model to the facial image and mapping the vertices according to a portion of the facial image;

상기 피험자로부터 얻어지는 안면 영상을 연속적으로 획득하면서 상기 정점들의 좌표 변화 값을 추출하는 단계; 그리고Extracting a coordinate change value of the vertexes while continuously acquiring a face image obtained from the subject; And

상기 정점을 안면에 대해 정의되어 있는 AU 별로 그룹화하여, AU 그룹별 정점들의 중점(重點, Centroid)의 변화 값을 포함하는 AU 안면 움직임 정보를 추출하는 단계;를 포함한다.Grouping the vertices by AUs defined for the face, and extracting AU facial motion information including a change value of a centroid of vertices of each AU group.

본 발명의 구체적인 실시 예에 따르면, 상기 AU 안면 움직임 정보는 상기 안면 움직임 크기, 면적 크기, 극좌표 개념의 안면 움직임 각도, 정점의 곡선 안면 움직임(r*Sin(

Figure 112015096412754-pat00001
)) 값 중 적어도 어느 하나를 더 포함할 수 있다.According to a specific embodiment of the present invention, the AU facial motion information includes at least one of a facial motion size, an area size, a facial motion angle of a polar concept,
Figure 112015096412754-pat00001
) ≪ / RTI > value).

본 발명에 따르면, 상기 정점(Vertex)은 상기 피험자의 안면의 평균 평면에 나란한 방향의 X-Y 평면에서의 X, Y 좌표와, 상기 X-Y 평면에 수직인 Z 좌표를 포함한다.According to the present invention, the vertex includes X, Y coordinates in the X-Y plane in the direction parallel to the average plane of the subject's face, and Z coordinates perpendicular to the X-Y plane.

본 발명의 구체적인 실시 예에 따르면, 상기 극좌표 개념의 안면 움직임 각도, r*Sin(θ)는 상기 X-Y 평면에 수직한 Z 좌표의 변화로부터 구할 수 있다.According to a specific embodiment of the present invention, the facial motion angle r * Sin ([theta]) of the polar coordinate concept can be obtained from the change of the Z coordinate perpendicular to the X-Y plane.

본 발명의 실시 예에 따르면, 상기 AU는 적어도 3개의 정점(Vertex)을 포함한다.According to an embodiment of the present invention, the AU includes at least three vertices.

본 발명의 실시 예에 따르면, 상기 AU 안면 움직임 정보는 상기 X, Y, Z 좌표에서, X-Y 평면, X-Z 평면, Y-Z 평면 중, 적어도 어느 하나의 평면에서 움직임(변화)으로부터 추출할 수 있다.According to the embodiment of the present invention, the AU facial motion information can be extracted from the motion (change) in at least one of the X-Y plane, the X-Z plane and the Y-Z plane in the X, Y and Z coordinates.

본 발명은 안면의 표정의 변화를 AU 별로 정량화된 데이터로서 추출하는 방법을 제시한다. 본 발명에 의해 추출된 데이터는 AU별 특징적 변화를 나타내며, 따라서 이를 이용하여 다양한 분야에 적용할 수 있다.The present invention proposes a method for extracting facial expression changes as quantified data for each AU. The data extracted by the present invention shows a characteristic change according to AU, and can be applied to various fields by using it.

도1은 본 발명에 따른 AU 기반 움직임 정보 추출 시스템의 개략적 구성도이다.
도2는 본 발명에 따른 AU 기반 안면 움직임 정보 추출 방법의 흐름도이다.
도3은 본 발명의 방법에 적용되는 표준 모델의 일례를 도시한다.
도4는 피험자로부터 획득한 안면 영상에 상기 표준 모델을 마스킹(매핑)하는 것을 예시한다.
도5는 표준 모델을 이용해 피험자 영상에 정점을 맵핑한 결과를 보인다.
도6은 눈 주위에서의 정점 정보를 예시하는데, 좌측은 왼쪽눈, 우측은 우측눈을 나타낸다.
도7 및 도8은 본 발명에 따른 방법에서, 볼(광대근)이 올라가고 아래 눈꺼풀을 누르며 눈가의 주름이 생기는 AU6에서의 움직임을 예시한다.
1 is a schematic block diagram of an AU-based motion information extraction system according to the present invention.
2 is a flowchart of an AU-based facial motion information extraction method according to the present invention.
Figure 3 shows an example of a standard model applied to the method of the present invention.
FIG. 4 illustrates masking (mapping) the standard model to a facial image acquired from a subject.
Figure 5 shows the result of vertex mapping to the subject image using the standard model.
FIG. 6 illustrates vertex information around the eye, with the left side representing the left eye and the right side representing the right eye.
Figures 7 and 8 illustrate the movement in the AU6 where the ball (cadaver) is raised, the lower eyelid is pressed and the wrinkles of the eye are produced in the method according to the present invention.

이하 첨부된 도면을 참조하면서, 본 발명에 따른 AU 기반 안면 움직임 정보 추출 방법의 실시 예를 설명한다.Hereinafter, an embodiment of an AU-based facial motion information extraction method according to the present invention will be described with reference to the accompanying drawings.

본 발명에 따른 안면 움직임 정보 추출 방법은, 도1에 도시된 바와 같이 키보드(14), 마우스(15), 모니터(12) 등 입출력 장치 및 이들이 연결되는 본체(11)를 포함하는 컴퓨터 시스템(1)을 기반하는 하드웨어에 의존하여 수행되며, 본 발명의 실시 예에 따라 전용화된 시스템에 의해 구현될 수 있다. 이러한 본 발명의 방법은 특정한 하드웨어 시스템에 의해 그 기술적 범위가 제한되지 않는다.The facial motion information extracting method according to the present invention includes a computer system 1 including an input / output device such as a keyboard 14, a mouse 15, a monitor 12, and a main body 11 to which the input / ), And may be implemented by a dedicated system in accordance with an embodiment of the present invention. Such a method of the present invention is not limited in its technical scope by a specific hardware system.

본 발명에 따른 안면 움직임 정보를 추출하는 방법을 수행하는 장치 또는 시스템은 피험자(20)의 안면을 촬영하는 동영상 카메라(13), 예를 들어 소위 웹 캠을 포함할 수 있다. 또한, 이러한 시스템은 소프트웨어 형태로 제공되는 분석 알고리즘을 통해서 피험자로부터 획득된 영상을 처리하고 이를 이용하여 AU 별 안면 움직임 정보를 추출하여 그 결과를 컴퓨터 시스템(1) 내의 데이터 베이스와 모니터(12) 등을 통해 기록 및 표시한다.An apparatus or system for performing the method of extracting facial motion information according to the present invention may include a moving picture camera 13, for example, a so-called web cam, for photographing the face of the subject 20. In addition, such a system processes an image obtained from a subject through an analysis algorithm provided in software form, extracts facial motion information for each AU using the extracted image, and outputs the result to a database in the computer system 1 and a monitor 12 Lt; / RTI >

도2는 본 발명에 따른 AU 기반 안면 움직임 정보 추출 방법의 흐름도이다.2 is a flowchart of an AU-based facial motion information extraction method according to the present invention.

제1단계(S21): 실시간으로 피험자의 안면을 촬영하여 동영상 데이터를 프레임단위로 입력 받는 단계이다. 이 단계에는 연속적으로 입력되는 영상을 증폭하고 이에 포함된 노이즈 를 제거하는 등의 일반적인 전처리 과정이 포함될 수 있다.First step S21: photographing the face of the subject in real time and inputting the moving image data frame by frame. In this step, a general pre-processing process such as amplifying a continuous input image and removing noise included therein may be included.

제2단계(S22): 입력된 안면 영상에 기설정되어 있는 표준 모델을 마스킹한다. 이 과정은 최초에 1회 실시되며, 향후 안면 추적 중, 얼굴 영상을 놓쳤을 때 필요에 따라 재차 마스킹을 수행한다. Second Step (S22): Mask the standard model preset in the inputted face image. This process is performed once at the first time, and masking is performed again if necessary when a facial image is missed during future facial tracking.

상기 표준 모델에는 인체 안면의 어느 한 기준점(Reference point)을 기준으로 하여 안면의 여러 특정 부위들에 대응하는 다수의 정점(Vertex)이 안면 표준 형상 또는 모양에 대응하게 적절하게 배열되어 있다. In the standard model, a plurality of vertices corresponding to various specific parts of the face on the basis of a reference point of the human body surface are appropriately arranged corresponding to the face standard shape or shape.

상기 기준점은 예를 들어 미간의 중심부분이며, 이를 기준으로 안면의 특정 부위 들에 대한 정점이 결정된다. 맵핑 과정에서, 표준 모델에 기초하여 상기 안면 영상의 부위별로 상기 정점들이 피험자의 안면 영역에 맵핑된다. 이때에 표준 모델에 대한 피험자의 안면 영역의 비교 부위는 얼굴 윤곽선, 눈, 코, 입 등이다.The reference point is, for example, a central part of the hair, and a vertex for specific parts of the face is determined based on the reference point. In the mapping process, the vertices are mapped to the face region of the subject by the portion of the face image based on the standard model. At this time, the comparison region of the subject's face region with respect to the standard model is the face contour, eye, nose, mouth, and the like.

제3단계(S23): 맵핑된 안면 영상으로부터 정점들의 좌표 변화 값을 추출한다. 이때의 변화 값을 추출함에 있어서 기준 값은 상기 제2단계의 마스킹을 통해 얻어진 정점 값들이 비교 기준 된다.Step 3 (S23): The coordinate change value of the vertices is extracted from the mapped facial image. In extracting the change value at this time, the reference values are compared with the peak values obtained through the masking in the second step.

제4단계(S24): 맵핑된 정점들을 AU(Action Unit) 별로 그룹화 또는 분류(정의)한다.Step 4 (S24): Map or classify (define) the mapped vertices according to AUs (Action Units).

제5단계(S25): AU 단위로 그룹화된 정점들을 이용하여 각 AU의 중점(重點) 또는 중심(重心, Centroid) 포함하는 AU 별 정량화된 AU 정보를 추출하고, 이를 현재 AU 정보로서 저장하며, 이때에 그 이전에 저장된 AU 정보가 있다면 이는 선행 AU정보가 된다.Step S25: The quantified AU information for each AU including the center point or the centroid of each AU is extracted using the vertices grouped in units of AUs and stored as current AU information, At this time, if there is the AU information stored before that, it becomes the preceding AU information.

제6단계(S26): 이 단계에서는 선행 AU 정보 유무 판단하며, 존재하지 않는 경우 전술한 제1단계(S21)로 회귀한다. 한편, 선행 AU 정보가 있다면 아래의 제7단계(S27)로 이행한다.Step S6: In this step, it is determined whether or not the preceding AU information exists, and if there is no preceding AU information, the process returns to the first step S21 described above. On the other hand, if there is the preceding AU information, the process proceeds to the seventh step S27.

제7단계(S27): 이 단계에서는 선행 AU 정보에 대해 현재 AU 정보를 비교하여 현재 AU 정보에서 특정 성분의 변화 량을 구한다. 이 단계에서 검출 대상이 되는 특정 성분에는 AU 별 중점 정보 및 그 중점 변화의 크기, AU별 정점들이 이루는 면적의 변화량, 그리고 극좌표의 움직임의 각도, 그리고 정점의 곡선 움직임 r*SIN(θ) 등이 있으며, 이들 중 어느 하나가 선택적으로 추출된다.Step 7 (S27): In this step, the current AU information is compared with the preceding AU information to obtain a change amount of a specific component in the current AU information. At this stage, the specific component to be detected is the center point information per AU, the magnitude of the center point change, the change amount of the area formed by the vertices per AU, the angle of motion of the polar coordinates, and the curve movement r * SIN And either one of them is selectively extracted.

이렇게 추출된 특정한 AU 정보의 변화량은 피험자의 안면의 변형을 다양하게 표현하는 것으로서 다양한 응용분야에 적용가능하며, 예를 들어 피험자의 표정 또는 감정의 변화를 추정하는 시스템에 적용할 수 있다.The amount of change in the extracted AU information can be applied to a variety of application fields, for example, to a system for estimating a change in facial expression or emotion of a subject.

이하에서는 위에서 설명된 단계들에 대해 좀 더 구체적으로 설명한다.Hereinafter, the steps described above will be described in more detail.

도3은 표준 모델의 일례를 도시한다. 표준모델은 평균적이 형태와 크기를 가지는 인체 안면을 망상 구조로 모델링한 것으로, 망상 구조의 각 노드(node) 즉 정점(Vertex)는 안면 근육 운동에 민감하게 변화하는 부분이며, 이들은 다양한 얼굴 표정의 변화를 정의하는 AU 별도 그룹화할 수 있다. 도3에서 미간의 정점(136)은 얼굴 표정 변화량을 추출하는 기준점으로 이를 기준으로 눈, 눈썹, 코, 입, 입 꼬리, 광대뼈, 턱 라인 등에 관계된 정점들이 연계되어 있다.3 shows an example of a standard model. In the standard model, the face of the human face with average shape and size is modeled as a network. Each node of the network structure, ie, a vertex, is a part sensitive to facial muscle movement. AUs that define change can be grouped separately. In FIG. 3, a vertex 136 of the forehead is a reference point for extracting facial expression change amount, and vertices related to eyes, eyebrows, nose, mouth, tail, cheekbones, and jaw line are linked.

도4는 피험자로부터 획득한 안면 영상에 상기 표준 모델을 마스킹(매핑)하는 것을 예시하며, 도5는 표준 모델을 이용해 피험자 영상에 정점을 맵핑한 결과를 보인다. 도5와 같이 맵핑 되면, 미간 지점(136)의 정점(Vertex)을 기준으로 모든 정점의 정보를 추출한다. 각 정점 정보는 X, Y 그리고 Z의 값을 포함한다.FIG. 4 illustrates masking (mapping) the standard model to a facial image acquired from a subject, and FIG. 5 shows a result of vertex mapping to a subject image using a standard model. When mapping is performed as shown in FIG. 5, information of all vertices is extracted based on the vertex of the point-to-point 136. Each vertex information includes the values of X, Y, and Z.

도6은 눈 주위에서의 정점 정보를 예시하는데, 좌측은 왼쪽눈, 우측은 우측눈을 나타낸다.FIG. 6 illustrates vertex information around the eye, with the left side representing the left eye and the right side representing the right eye.

아래의 표1은 얼굴 표정의 변화를 가져 오는 안면 부분의 움직임을 정의하는 AU 와 정점(Vertex)을 매핑한 결과를 보인다.Table 1 below shows the result of mapping AU and vertex, which defines the movement of the facial part, which brings about changes in facial expression.

Figure 112015096412754-pat00003
Figure 112015096412754-pat00003

획득한 안면 영상으로부터 각 AU 정보, 특히 AU 변화로부터 다양한 형태의정보 변화량을 추출할 수 있다.From the obtained facial image, various kinds of information change amount can be extracted from each AU information, especially AU change.

상기 안면 영상으로부터 X-Y 평면에서 AU의 중점(Cx, Cy) 및 면적(Axy)은 각 AU의 정점들의 좌표 값을 이용하여 아래의 식 1, 2, 3으로부터 얻을 수 있다. 아래의 식에서 N 은 AU 별 정점(Vertex)의 전체 개수이며, x, y는 각각 X, Y 좌표이며 여기에 아래첨자로 병기된 i 는 해당 AU에서의 정점의 번호이다. The midpoints (Cx, Cy) and area (Axy) of the AUs in the XY plane from the facial image can be obtained from the following equations 1, 2, and 3 using the coordinate values of the vertices of each AU. In the equation below, N is the total number of vertices per AU, and x and y are the X and Y coordinates respectively, where i is the number of the vertex in the corresponding AU.

Figure 112015096412754-pat00004
Figure 112015096412754-pat00004

Figure 112015096412754-pat00005
Figure 112015096412754-pat00005

Figure 112015096412754-pat00006
Figure 112015096412754-pat00006

위의 수식에서, X-Y 평면에서의 좌표 값 및 면적을 Y-Z 평면 또는 X-Z평면의 값들로 각각 환함으로써 Y-Z 평면 및 X-Z 평면에서의 AU 등의 중점(Cy, Cz), (Cx, Cz) 및 면적(Ayz, Axz)을 구할 수 있다. (Cy, Cz), (Cx, Cz), and area (Cz) of the AU in the YZ plane and the XZ plane can be obtained by converting the coordinate values and areas in the XY plane into values in the YZ plane or the XZ plane, Ayz, Axz) can be obtained.

상기와 같은 방법으로 연속적으로 입력되는 안면 영상을 이용해 현행 AU 정보 및 선행 AU 정보로부터 필요한 AU 정보 변화량을 구할 수 있게 된다.The amount of change in AU information required from the current AU information and the preceding AU information can be obtained using the continuous input facial image in the same manner as described above.

AU 정보 변화량에는 전술한 바와 같이 특정 AU에 대한 안면 움직임의 크기(||V||), 안면 움직임의 각도, 중점의 변화량, 면 적의 변화량 등이 있는데, 이들 변화량을 통해서 피험자의 안면의 변화를 판단할 수 있게 된다.As described above, the amount of AU information change includes the magnitude of the facial movement (|| V ||), the angle of facial motion, the amount of change in the center point, and the amount of change in the area of a specific AU. It can be judged.

각 AU에서, n번째 AU(AUn)의 크기 ||V||는 아래의 식으로부터 얻는다.In each AU, the magnitude || V || of the nth AU (AUn) is obtained from the following equation.

AUn의 안면 움직임 크기는 다음 수식을 사용하여 추출한다(n= AU number).The facial motion size of AU n is extracted using the following formula (n = AU number).

이전 안면 영상 프레임(선행 AU 정보)에서 AUn의 중점(Centroid)의 좌표를 (x1, y1), 현재 안면 영상 프레임(현재 AU 정보)에서의 AUn의 중점 좌표를 (x2, y2) 라 했을 때, 중점의 좌표 변화량(Vn) 은 아래와 식 4와 같다.(X1, y1) of the centroid of AU n in the previous facial image frame (preceding AU information) and (x2, y2) the center coordinates of AU n in the current facial image frame (current AU information) , The coordinate change amount (V n ) of the center point is as shown in the following Equation 4.

Figure 112015096412754-pat00007
Figure 112015096412754-pat00007

그러므로, 안면 움직임 벡터의 크기(||Vn||)는 아래 식 5와 같이 계산된다.Therefore, the magnitude (|| V n ||) of the facial motion vector is calculated as shown in Equation 5 below.

Figure 112015096412754-pat00008
Figure 112015096412754-pat00008

그리고 중점의 안면 움직임 각도(radian,

Figure 112015096412754-pat00009
)는 아래와 같이 계산된다. In addition, the center of gravity (radian,
Figure 112015096412754-pat00009
) Is calculated as follows.

Figure 112015096412754-pat00010
Figure 112015096412754-pat00010

위 식에서

Figure 112015096412754-pat00011
는 선행 AU의 벡터
Figure 112015096412754-pat00012
와 현재의 AU의 벡터
Figure 112015096412754-pat00013
내적을 의미한다. 여기에서 두 벡터의 외적을 통해서 회전 방향을 계산할 수 있다.In the above equation
Figure 112015096412754-pat00011
Is the vector of the preceding AU
Figure 112015096412754-pat00012
And the vector of the current AU
Figure 112015096412754-pat00013
It means inner product. Here we can calculate the direction of rotation through the outer product of two vectors.

즉,

Figure 112015096412754-pat00014
이면 회전 방향은
Figure 112015096412754-pat00015
Figure 112015096412754-pat00016
의 반시계 방향이며,
Figure 112015096412754-pat00017
이면, 회전 방향은
Figure 112015096412754-pat00018
Figure 112015096412754-pat00019
의 시계 방향이 된다.In other words,
Figure 112015096412754-pat00014
The direction of rotation
Figure 112015096412754-pat00015
The
Figure 112015096412754-pat00016
Counterclockwise,
Figure 112015096412754-pat00017
, The direction of rotation
Figure 112015096412754-pat00018
The
Figure 112015096412754-pat00019
Clockwise direction.

도7은 볼(광대근)이 올라가고 아래 눈꺼풀을 누르며 눈가의 주름이 생기는 AU6에서의 움직임을 예시한다. 도7에서, 실선은 선행 안면 영상에서의 벡터를 나타내며, 점선은 현재의 안면 영상에서의 발생한 벡터를 나타낸다. 도7에 도시된 바와 같이 AU6의 동작에 따라

Figure 112015096412754-pat00020
는 시계방향 또는 반시계 방향으로 움직일 수 있다.Figure 7 illustrates the movement in the AU6 where the ball (cadaver) is raised, the lower eyelid is pressed, and the wrinkles of the eyes are produced. In Fig. 7, a solid line indicates a vector in a frontal facial image, and a dotted line indicates a vector generated in a current facial image. As shown in FIG. 7, according to the operation of the AU 6
Figure 112015096412754-pat00020
Can be moved clockwise or counterclockwise.

이러한 상태에서 AU6의 움직임에 따라 정점의 곡선 움직임(Mr)을 계산할 수 있다.In this state, the curvilinear motion (Mr) of the vertex can be calculated according to the motion of the AU6.

Figure 112015096412754-pat00021
Figure 112015096412754-pat00021

도8에서, θ는 AU6의 중점의 움직임 각도이다.In Fig. 8, &thetas; is the movement angle of the center point of AU6.

여기에서 반경

Figure 112016070670449-pat00023
과 움직임 각도 θ는 아래와 같은 식에 의해 계산된다.Radius here
Figure 112016070670449-pat00023
And the motion angle? Are calculated by the following equations.

Figure 112015096412754-pat00025
Figure 112015096412754-pat00025

Figure 112015096412754-pat00026
Figure 112015096412754-pat00026

위에서 설명된 본 발명에 따라 추출된 AU 기반 안면 움직임 정보, 예를 들어 AU의 안면 움직임 크기, 각도, 정점의 곡선 안면 움직임 등을 다양한 형태로 응용하여 사용될 수 있다. 예를 들어, 얼굴 표정에 따라 움직이는 AU들의 정보를 추출하여 데이터베이스화 시키고, 이를 실시간으로 입력되는 얼굴표정 영상이미지의 정보를 데이터베이스에 있는 정보와 비교하여, 현재 표정의 감성을 판단하고 수치화하는데 사용될 수 있다. The AU-based facial motion information extracted in accordance with the present invention described above, for example, the facial motion size of the AU, the angle, and the facial motion of the apex can be applied in various forms. For example, information of AUs moving according to a facial expression can be extracted and converted into a database, and the information of the facial expression image inputted in real time can be compared with the information in the database to determine the emotion of the current facial expression, have.

결과적으로 본 발명에 따르면 AU 기반의 안면 움직임 정보를 이용한 감성 얼굴 표정 인식 알고리즘 기술 개발이 가능하게 된다. 즉, 사람의 얼굴 표정 움직임은 현재 그 사람의 감성을 유추할 수 있는 중요한 요소로서, 본 발명은 AU의 변화를 정량적을 추출하여 이를 응용할 수 있는 근간을 제공한다.As a result, according to the present invention, it becomes possible to develop a technique of recognizing facial expression recognition using facial motion information based on AU. That is, the human facial expression movement is an important factor that can infer the sensibility of the person at present, and the present invention provides a basis for extracting the quantitative change of the AU and applying it.

이러한 본 발명이, 지금까지, 본원 다양한 모범적 실시 예가 설명되고 첨부된 도면에 도시되었다. 그러나, 이러한 실시 예는 단지 다양한 실시 예들의 일부임이 이해되어야 할 것이다. 다양한 다른 변형이 본 기술분야에서 통상의 지식을 가진 자에게 일어날 수 있기 때문이다.These and other embodiments of the present invention have been described and shown in the accompanying drawings. However, it should be understood that these embodiments are only a part of various embodiments. Since various other modifications could occur to those of ordinary skill in the art.

1: 컴퓨터 시스템
11: 본체
12: 모니터
13: 동영상 카메라
14: 키보드
15: 마우스
20: 피험자
1: Computer system
11: Body
12: Monitor
13: Video camera
14: Keyboard
15: Mouse
20: Subjects

Claims (8)

인체 안면의 특정 부위들에 대응하는 다수의 정점(Vertex)이 배열되어 있는 표준 모델을 정의하는 단계;
피험자로부터의 안면 영상을 획득하는 단계;
상기 안면 영상에 상기 표준 모델을 마스킹(매칭)하여 상기 안면 영상의 부위별로 상기 정점들을 맵핑하는 단계;
상기 피험자로부터 얻어지는 안면 영상을 연속적으로 획득하면서 상기 정점들의 좌표 변화 값을 추출하는 단계; 그리고
상기 정점을 안면에 대해 정의되어 있는 AU(Action Unit) 별로 그룹화하여, AU 그룹별 정점들의 중점(重點, Centroid)의 변화 값을 포함하는 AU 안면 움직임 정보를 추출하는 단계;를 포함하는 AU 기반의 안면 움직임 정보 추출 방법.
Defining a standard model in which a plurality of vertices corresponding to specific parts of the face of the human body are arranged;
Obtaining a facial image from the subject;
Mapping (masking) the standard model to the facial image and mapping the vertices according to a portion of the facial image;
Extracting a coordinate change value of the vertexes while continuously acquiring a face image obtained from the subject; And
Grouping the vertices into AUs (Action Units) defined for the face, and extracting AU facial motion information including a change value of a centroid of vertices of each AU group, A method for extracting facial motion information.
제1항에 있어서,
AU 안면 움직임 정보는, AU 중점들의 위치 변화에 따른 안면 움직임 크기, AU 별 정점들이 이루는 면적 크기, 극좌표 개념의 안면 움직임 각도, 정점의 곡선 움직임(Mr) 값 중, 적어도 어느 하나를 포함하며, 상기 정점의 곡선 움직임(Mr)은 아래 식을 만족하는 것을 특징으로 하는 AU 기반의 안면 움직임 정보 추출 방법.
Mr= r*Sin(θ)
여기에서, r 은 중점의 움직임의 반경 이며, θ는 중점의 움직임 각도이다.
The method according to claim 1,
The AU facial motion information includes at least one of facial motion size according to a change in position of AU midpoints, area size formed by apexes per AU, facial motion angle of a polar concept, and a curve motion (Mr) value of a vertex, Wherein the curvilinear motion (Mr) of the apexes satisfies the following equation.
Mr = r * Sin (?)
Here, r is the radius of the midpoint movement and? Is the midpoint movement angle.
제2항에 있어서,
상기 정점의 좌표는 X-Y 평면상의 X, Y 좌표 및 X-Y 평면에 수직한 Z 좌표를 포함하는 것을 특징으로 하는 AU 기반의 안면 움직임 정보 추출방법.
3. The method of claim 2,
Wherein the coordinates of the vertices include X, Y coordinates on the XY plane, and Z coordinates perpendicular to the XY plane.
제1항 내지 제3항 중의 어느 한 항에 있어서,
상기 각 AU는 적어도 3개의 정점(Vertex)을 포함하는 것을 특징으로 하는 AU 기반의 안면 움직임 정보 추출방법.
4. The method according to any one of claims 1 to 3,
Wherein each of the AUs comprises at least three vertices (Vertex).
제1항 내지 제3항 중의 어느 한 항에 있어서,
상기 AU 안면 움직임 정보는 X, Y, Z 좌표계에서, X-Y 평면, X-Z 평면, Y-Z 평면 중, 적어도 어느 하나의 평면에서 움직임(변화)으로부터 추출되는 것을 특징으로 하는 AU 기반의 안면 움직임 정보 추출 방법.
4. The method according to any one of claims 1 to 3,
Wherein the AU facial motion information is extracted from a motion (change) in at least one of XY plane, XZ plane, and YZ plane in X, Y, Z coordinate system.
제1항 내지 제3항 중 어느 한 항에 기재된 방법을 수행하는 AU 기반 안면 움직임 정보 추출 장치에 있어서,
상기 피험자로부터 안면 영상을 획득하는 동영상 카메라;
상기 동영상 카메라로부터의 영상 데이터를 처리하고, 상기 영상 데이터를 이용해 상기 AU 안면 움직임 정보를 추출하는 분석 알고리즘을 갖춘 컴퓨터 기반 시스템;을 포함하는 AU 기반 안면 움직임 정보 추출 장치.
An AU-based facial motion information extracting apparatus for performing the method according to any one of claims 1 to 3,
A moving picture camera for acquiring a facial image from the subject;
And a computer-based system having an analysis algorithm for processing image data from the moving picture camera and extracting the AU facial motion information using the image data.
제6항에 있어서,
상기 각 AU는 적어도 3개의 정점(Vertex)을 포함하는 것을 특징으로 하는 AU 기반 안면 움직임 정보 추출 장치.
The method according to claim 6,
Wherein each of the AUs includes at least three vertices (Vertex).
제6항에 있어서,
상기 AU 안면 움직임 정보는 X, Y, Z 좌표계에서, X-Y 평면, X-Z 평면, Y-Z 평면 중, 적어도 어느 하나의 평면에서 움직임(변화)으로부터 추출되는 것을 특징으로 하는 AU 기반 안면 움직임 정보 추출 장치.
The method according to claim 6,
Wherein the AU facial motion information is extracted from a motion (change) in at least one of an XY plane, an XZ plane, and a YZ plane in X, Y, and Z coordinate systems.
KR1020150139984A 2015-10-05 2015-10-05 Method and Apparatus for extracting information of facial movement based on Action Unit KR101783453B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150139984A KR101783453B1 (en) 2015-10-05 2015-10-05 Method and Apparatus for extracting information of facial movement based on Action Unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150139984A KR101783453B1 (en) 2015-10-05 2015-10-05 Method and Apparatus for extracting information of facial movement based on Action Unit

Publications (3)

Publication Number Publication Date
KR20170040692A KR20170040692A (en) 2017-04-13
KR101783453B1 true KR101783453B1 (en) 2017-09-29
KR101783453B9 KR101783453B9 (en) 2022-03-28

Family

ID=58580035

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150139984A KR101783453B1 (en) 2015-10-05 2015-10-05 Method and Apparatus for extracting information of facial movement based on Action Unit

Country Status (1)

Country Link
KR (1) KR101783453B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229418A (en) * 2018-01-19 2018-06-29 北京市商汤科技开发有限公司 Human body critical point detection method and apparatus, electronic equipment, storage medium and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113217A (en) * 1998-10-02 2000-04-21 Cselt Spa (Cent Stud E Lab Telecomun) Making method of 3d face model from starting facial image

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0735509B1 (en) 1995-03-31 1999-01-27 Hitachi Europe Limited Image processing for facial feature extraction
US6904347B1 (en) 2000-06-29 2005-06-07 Trw Inc. Human presence detection, identification and tracking using a facial feature image sensing system for airbag deployment
AU2001277148B2 (en) 2000-07-24 2007-09-20 Google Llc Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
AU2002951473A0 (en) 2002-09-18 2002-10-03 Canon Kabushiki Kaisha Method for tracking facial features in video sequence

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113217A (en) * 1998-10-02 2000-04-21 Cselt Spa (Cent Stud E Lab Telecomun) Making method of 3d face model from starting facial image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229418A (en) * 2018-01-19 2018-06-29 北京市商汤科技开发有限公司 Human body critical point detection method and apparatus, electronic equipment, storage medium and program
CN108229418B (en) * 2018-01-19 2021-04-02 北京市商汤科技开发有限公司 Human body key point detection method and apparatus, electronic device, storage medium, and program

Also Published As

Publication number Publication date
KR101783453B9 (en) 2022-03-28
KR20170040692A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
Ball et al. Unsupervised clustering of people from'skeleton'data
Ko et al. Development of a Facial Emotion Recognition Method based on combining AAM with DBN
Sohail et al. Detection of facial feature points using anthropometric face model
Wu et al. Gaze direction estimation using support vector machine with active appearance model
KR100988323B1 (en) Method and apparatus of recognizing detailed facial expression using facial expression information amplification
KR101823611B1 (en) Method for extracting Emotional Expression information based on Action Unit
JP2012123667A (en) Attitude estimation device and attitude estimation method
CN107463865A (en) Face datection model training method, method for detecting human face and device
Loconsole et al. Real-time emotion recognition: an improved hybrid approach for classification performance
KR101326691B1 (en) Robust face recognition method through statistical learning of local features
JPWO2015029287A1 (en) Feature point position estimation apparatus, feature point position estimation method, and feature point position estimation program
CN111079465A (en) Emotional state comprehensive judgment method based on three-dimensional imaging analysis
Dixit et al. Statistical moments based facial expression analysis
KR101783453B1 (en) Method and Apparatus for extracting information of facial movement based on Action Unit
KR101757431B1 (en) Method for extracting heart information of facial micro-movement and system adopting the method
CN103390150B (en) human body part detection method and device
KR102229056B1 (en) Apparatus and method for generating recognition model of facial expression and computer recordable medium storing computer program thereof
KR101620556B1 (en) Method for Biometric Detection
Gupta et al. A human emotion recognition system using supervised self-organising maps
TWI620076B (en) Analysis system of humanity action
Maximiano da Silva et al. Geometrical features and active appearance model applied to facial expression recognition
JP2007299051A (en) Image processing device, method, and program
Sarma et al. Facial expression based emotion detection-a review
KR101732807B1 (en) Image processing apparatus and method for 3d face asymmetry analysis
Ding et al. A Study on Utilization of Three-Dimensional Sensor Lip Image for Developing a Pronunciation Recognition System.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]