KR20140009013A - Method and apparatus for modeling 3d face, method and apparatus for tracking face - Google Patents

Method and apparatus for modeling 3d face, method and apparatus for tracking face Download PDF

Info

Publication number
KR20140009013A
KR20140009013A KR1020130043463A KR20130043463A KR20140009013A KR 20140009013 A KR20140009013 A KR 20140009013A KR 1020130043463 A KR1020130043463 A KR 1020130043463A KR 20130043463 A KR20130043463 A KR 20130043463A KR 20140009013 A KR20140009013 A KR 20140009013A
Authority
KR
South Korea
Prior art keywords
face
modeling
tracking
model
facial expression
Prior art date
Application number
KR1020130043463A
Other languages
Korean (ko)
Other versions
KR102024872B1 (en
Inventor
샤오루 셴
수에타오 펭
휘 장
김지연
김정배
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/936,001 priority Critical patent/US20140009465A1/en
Publication of KR20140009013A publication Critical patent/KR20140009013A/en
Application granted granted Critical
Publication of KR102024872B1 publication Critical patent/KR102024872B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed are a method and a device for modeling a three-dimensional (3D) face and a method and a device for tracking a face. The method for modeling the 3D face sets a predetermined standard 3D face as a working model and generates and outputs a tracking result including at least one among face feature points, face parameters, and head pose parameters from a video frame based on the working model. [Reference numerals] (AA) Start; (BB) No; (CC) Yes; (DD) End; (S110) Setting a working model and a designated starting frame; (S120) Tracking a face from the designated starting frame based on the working model; (S130) Updating the working model based on a tracking result; (S140) Meeting an optimal model or last video frame?; (S150) Setting a next designated starting frame; (S160) Outputting the working model

Description

3D 얼굴의 모델링 방법 및 장치, 얼굴 추적 방법 및 장치{METHOD AND APPARATUS FOR MODELING 3D FACE, METHOD AND APPARATUS FOR TRACKING FACE}3D face modeling method and apparatus, face tracking method and apparatus {METHOD AND APPARATUS FOR MODELING 3D FACE, METHOD AND APPARATUS FOR TRACKING FACE}

아래의 설명은 3D 얼굴의 모델링 방법 및 장치, 얼굴 추적 방법 및 장치에 관한 것으로, 더욱 구체적으로는 연속적으로 입력된 얼굴 비디오 프레임에서 얼굴 추적과 3D 얼굴의 모델링을 동시에 진행함으로써, 사용자의 얼굴과 가장 유사한 3D 얼굴을 제공하고, 높은 정확도의 얼굴 표정 정보를 출력하는 3D 얼굴의 모델링 방법에 관한 것이다.The following description relates to a 3D face modeling method and apparatus, and a face tracking method and apparatus, and more specifically, by simultaneously performing face tracking and 3D face modeling in a continuously input face video frame, The present invention relates to a 3D face modeling method that provides a similar 3D face and outputs facial expression information with high accuracy.

연속적인 비디오의 입력에 의해, 종래의 얼굴 추적/모델링 기술은 다양한 복잡도 레벨을 가지는 결과를 출력할 수 있다. 예를 들어, 종래의 얼굴 추적/모델링 기술은 표정 파라미터의 종류 및 표정의 강도, 얼굴의 2D 형상, 저해상도의 얼굴 3D 형상 또는 고해상도의 얼굴 3D 형상에 따라 다양한 결과를 출력한다.By input of continuous video, conventional face tracking / modeling techniques can output results with varying levels of complexity. For example, the conventional face tracking / modeling technique outputs various results according to the type of facial expression parameter and the intensity of the facial expression, the 2D shape of the face, the low resolution face 3D shape, or the high resolution face 3D shape.

일반적으로, 얼굴 추적/모델링 기술은 사용자 얼굴의 식별 기술, 피팅(fitting) 기술, 및 모델링을 위한 재생성 기술의 3가지로 분류할 수 있다. 일부 얼굴 추적/모델링 기술들은 사용자 얼굴을 식별하기 위해 쌍안 카메라(binocular camera) 또는 깊이 카메라(depth camera) 등을 이용한다. 그리고, 사용자는 마크된 키 포인트 설정, 사용자 등록, 모델링시 고정된 표정을 유지 등의 과정을 통해 얼굴의 3D 모델링 작업을 수행한다.In general, face tracking / modeling techniques can be classified into three types: identification techniques of user faces, fitting techniques, and regeneration techniques for modeling. Some face tracking / modeling techniques use a binocular camera or a depth camera to identify the user's face. The user performs 3D modeling of the face through a process of setting a marked key point, registering a user, and maintaining a fixed facial expression during modeling.

일실시예에 따른 3D 얼굴의 모델링 방법은, 미리 설정된 기준 3D(dimensional) 얼굴을 작업 모델로 설정하고, 상기 작업 모델에 기초하여 비디오 프레임 단위로 얼굴 추적을 수행하는 단계; 상기 비디오 프레임으로부터 얼굴 특징 포인트, 표정 파라미터 및 헤드 포즈 파라미터 중 적어도 하나를 포함하는 추적 결과를 생성하는 단계; 상기 추적 결과에 기초하여 상기 작업 모델을 업데이트하는 단계; 및 상기 업데이트된 작업 모델을 출력하는 단계를 포함할 수 있다.According to an embodiment, a modeling method of a 3D face may include: setting a preset reference 3D face as a work model and performing face tracking on a video frame basis based on the work model; Generating a tracking result comprising at least one of a facial feature point, an expression parameter, and a head pose parameter from the video frame; Updating the work model based on the tracking result; And outputting the updated working model.

일실시예에 따른 3D 얼굴의 모델링 방법은, 오프 라인에서 3D 얼굴 데이터를 통해 기준 3D 얼굴을 미리 트레이닝하고, 트레이닝된 기준 3D 얼굴을 작업 모델로 설정하는 단계를 더 포함할 수 있다.According to an embodiment, the method of modeling a 3D face may further include pre-training a reference 3D face through 3D face data offline and setting the trained reference 3D face as a working model.

일실시예에 따른 3D 얼굴의 모델링 장치는, 입력된 비디오 프레임에 대해 작업 모델에 기초하여 얼굴 추적을 수행하고, 얼굴 특징 포인트, 표정 파라미터 및 헤드 포즈 파라미터 중 적어도 하나를 포함하는 추적 결과를 생성하는 추적부; 및 상기 추적 결과에 기초하여 상기 작업 모델을 업데이트하는 모델링부를 포함할 수 있다.According to an embodiment, an apparatus for modeling a 3D face performs face tracking on an input video frame based on a working model, and generates a tracking result including at least one of a facial feature point, an expression parameter, and a head pose parameter. Tracking unit; And a modeling unit to update the work model based on the tracking result.

일실시예에 따른 3D 얼굴의 모델링 장치는, 오프 라인에서 3D 얼굴 데이터를 통해 기준 3D 얼굴을 미리 트레이닝하고, 트레이닝된 기준 3D 얼굴을 작업 모델로 설정하는 트레이닝부를 더 포함할 수 있다.The apparatus for modeling a 3D face according to an embodiment may further include a training unit training a reference 3D face in advance through 3D face data and setting the trained reference 3D face as a work model.

도 1a는 일실시예에 따른 3D 얼굴의 모델링 방법을 도시하는 흐름도이다.
도 1b는 일실시예에 따른 3D 얼굴의 모델링 방법에서 작업 모델을 업데이트하는 단계를 도시하는 흐름도이다.
도 1c는 일실시예에 따른 얼굴 추적 방법을 도시하는 흐름도이다.
도 2는 일반적인 얼굴에 기초하여 3D 얼굴을 생성하는 일례를 도시하는 도면이다.
도 3은 특징 포인트를 이용하여 비디오 프레임에서 얼굴 스케치를 추출하는 일례를 도시하는 도면이다.
도 4는 3D 얼굴과 얼굴 스케치 사이에서 특징 포인트 매칭 및 스케치 매칭을 수행하는 일례를 도시하는 도면이다.
도 5a 및 도 5b는 일실시예에 따른 모델링 장치/얼굴 추적 장치를 도시하는 도면이다.
1A is a flowchart illustrating a method of modeling a 3D face, according to an exemplary embodiment.
1B is a flowchart illustrating a step of updating a work model in a 3D face modeling method according to an embodiment.
1C is a flowchart of a face tracking method, according to an exemplary embodiment.
2 is a diagram illustrating an example of generating a 3D face based on a general face.
3 is a diagram illustrating an example of extracting a face sketch from a video frame using feature points.
4 is a diagram illustrating an example of performing feature point matching and sketch matching between a 3D face and a face sketch.
5A and 5B are diagrams illustrating a modeling device / face tracking device according to one embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 발명의 실시예들을 설명하기 위한 목적으로 예시된 것으로, 발명의 범위가 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 안된다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The specific structural or functional descriptions below are merely illustrative for purposes of illustrating embodiments of the invention and are not to be construed as limiting the scope of the invention to the embodiments described in the text. Like reference symbols in the drawings denote like elements.

일실시예에 따른 3D 얼굴의 모델링 방법 및 얼굴 추적 방법은 일반적인 컴퓨터 또는 전용 프로세서에서 수행될 수 있다. 3D 얼굴의 모델링 방법은 얼굴 형상을 포함하는 연속적으로(일정 시간에, 예: 몇 분 내에) 입력된 비디오 프레임에 대하여, 미리 설정된 고정밀도의 기준 3D 얼굴을 작업 모델로 설정하고, 설정한 작업 모델에 기초하여 얼굴 추적을 수행할 수 있다. 그 다음에, 3D 얼굴의 모델링 방법은 얼굴 추적 결과에 기초하여 일정 수량의 얼굴을 대해 작업 모델의 업데이트/수정 과정을 수행할 수 있다. 3D 얼굴의 모델링 방법은 작업 모델을 업데이트/수정한 다음에, 미리 설정된 임계값에 도달하는 3D 얼굴을 획득하거나 입력된 모두 비디오 프레임에 대해 얼굴 추적 및 작업 모델의 업데이트/수정이 완료될 때까지, 비디오 프레임에 대해 얼굴 추적을 계속적으로 수행할 수 있다. 필요에 따라, 업데이트/수정 과정에서 정밀한 표정 및 헤드 포즈 정보를 포함하는 얼굴 추적 결과를 출력하고, 또는 업데이트/수정 과정이 끝난 후에 생성한 3D 얼굴을 출력할 수 있다.The 3D face modeling method and the face tracking method may be performed in a general computer or a dedicated processor. The modeling method of the 3D face sets a preset high-precision reference 3D face as a working model for a continuously input video frame including a face shape (at a predetermined time, for example, within a few minutes), and sets the working model. Face tracking can be performed based on. Next, the 3D face modeling method may perform an update / modification process of the work model on a predetermined number of faces based on the face tracking result. The 3D face modeling method updates / corrects the working model, then acquires a 3D face that reaches a preset threshold or until the face tracking and update / correction of the working model are complete for all input video frames, Face tracking can be continuously performed on the video frame. If necessary, the face tracking result including the precise expression and the head pose information may be output during the update / correction process, or the 3D face generated after the update / correction process is finished may be output.

연속적으로 입력된 비디오 프레임은, 일반적인 디지털 카메라에 의하여 촬영되고 디지털 비디오 스트리밍에 추출 내지 처리된 복수의 사진 또는 비디오 프레임이거나, 또는 디지털 카메라에 의하여 연속 촬영된 복수의 사진 또는 비디오 프레임일 수 있다. 연속적으로 입력된 비디오 프레임은 입력/출력 인터페이스를 통해 3D 얼굴의 모델링 방법 및 얼굴 추적 방법을 위한 일반적인 컴퓨터 또는 전용 프로세서에 입력될 수 있다.The continuously input video frames may be a plurality of pictures or video frames taken by a general digital camera and extracted or processed for digital video streaming, or may be a plurality of pictures or video frames taken continuously by a digital camera. Continuously input video frames may be input via a input / output interface to a general computer or dedicated processor for modeling 3D faces and tracking methods.

도 4는 임의의 얼굴에 기초하여 생성된 3D 얼굴의 일례를 도시하고 있다. 3D 얼굴은 얼굴의 3D 형상, 외모 파라미터(Appearance Parameter), 표정 파라미터, 및 헤드 포즈 파라미터를 포함할 수 있지만, 이에 제한되지는 않는다. 3D 얼굴의 작업 모델은,

Figure pat00001
로 표현할 수 있다. 여기서, S는 3D 형상, a 는 외모 성분, e는 표정 성분, q는 헤드 포즈, T(S, q)는 헤드 포즈q에 따라 3D 형상S를 회전시키는 동작 또는 이동시키는 동작을 수행하는 함수를 나타낼 수 있다.4 shows an example of a 3D face generated based on any face. The 3D face may include, but is not limited to, a 3D shape of the face, an appearance parameter, an expression parameter, and a head pose parameter. The working model of the 3D face,
Figure pat00001
. Where S is a 3D shape, a is an appearance component, e is a facial expression component, q is a head pose, and T (S, q) is a function for rotating or moving the 3D shape S according to the head pose q. Can be represented.

일실시예에 따르면, 오프 라인에서 표정 및 포즈가 서로 다른 고정밀도의 얼굴 데이터를 이용하여 기준 3D 얼굴을 미리 트레이닝(training)할 수 있다. 다른 실시예에 따르면, 일반적인 방법을 통해 기준 3D 얼굴을 획득하거나, 필요에 따라 기준 얼굴의 특징을 포함하는 3D 얼굴을 기준 3D 얼굴로 결정할 수도 있다.According to an embodiment of the present disclosure, the reference 3D face may be trained in advance using high-precision facial data having different facial expressions and poses. According to another exemplary embodiment, the reference 3D face may be obtained through a general method, or the 3D face including the features of the reference face may be determined as the reference 3D face as needed.

기준 3D 얼굴은 평균 형상 So, 외모 성분

Figure pat00002
, 표정 성분
Figure pat00003
, 및 헤드 포즈 qo를 포함할 수 있다. 평균 형상 So는 모든 트레이닝 샘플의 평균 값을 의미하고. 외모 성분
Figure pat00004
(i=1:N)에서 각 성분은 얼굴의 외모적 변화를 나타낸다. 표정 성분
Figure pat00005
(j=1:M)에서 각 성분은 얼굴의 표정 변화를 나타내고, 헤드 포즈 qo는 얼굴의 공간상 위치 및 회전 각도를 나타낸다.Standard 3D face is average shape So, looks components
Figure pat00002
Facial expression elements
Figure pat00003
, And head pose qo. Mean shape So means the mean value of all training samples. Appearance
Figure pat00004
At (i = 1: N) each component represents an appearance change of the face. Facial expression
Figure pat00005
In (j = 1: M), each component represents a facial expression change, and the head pose qo represents the spatial position and rotation angle of the face.

도 1a는 일실시예에 따른 3D 얼굴의 모델링 방법을 도시하는 흐름도이다.1A is a flowchart illustrating a method of modeling a 3D face, according to an exemplary embodiment.

단계(S110)에서, 3D 얼굴의 모델링 방법은 미리 설정된 기준 3D 얼굴을 작업 모델로 설정하고, 지정된 시작 프레임을 제1 프레임으로 설정할 수 있다. 기준 3D 얼굴은 미리 각종 표정 및 포즈의 얼굴 데이터를 이용하여 트레이닝된 3D 얼굴일 수 있다.In operation S110, the method of modeling a 3D face may set a preset reference 3D face as a work model and set a designated start frame as a first frame. The reference 3D face may be a 3D face that has been previously trained using face data of various expressions and poses.

단계(S120)에서, 3D 얼굴의 모델링 방법은 작업 모델에 기초하여 연속적으로 입력된 복수의 비디오 프레임의 지정된 시작 프레임부터 얼굴 추적을 수행하고, 추적된 비디오 프레임에서 얼굴 특징 포인트, 표정 파라미터, 및 헤드 포즈 파라미터를 추출할 수 있다. 3D 얼굴의 모델링 방법은 미리 설정된 조건에 의하여 미리 설정된 개수의 비디오 프레임에 대응하는 추적 결과를 생성할 수 있다. 생성된 추적 결과는, 추적된 각각의 비디오 프레임 및 추적된 각각의 비디오 프레임에서 추출된 얼굴 특징 포인트, 표정 파라미터, 헤드 포즈 파라미터를 포함할 수 있다. 일실시예에 따르면, 3D 얼굴의 모델링 방법은 연속적으로 입력된 복수의 비디오 프레임의 입력 레이트(rate), 노이즈(noise) 특성, 또는 추적의 정확성 요구도에 기초하여 상기 미리 설정된 개수를 결정할 수 있고, 미리 설정된 개수는 상수 또는 변수일 수 있다.In step S120, the 3D face modeling method performs face tracking from a designated starting frame of a plurality of video frames continuously input based on the working model, and facial feature points, facial expression parameters, and heads in the tracked video frame. Pose parameters can be extracted. The 3D face modeling method may generate a tracking result corresponding to a preset number of video frames according to a preset condition. The generated tracking result may include facial feature points, facial expression parameters, and head pose parameters extracted from each tracked video frame and each tracked video frame. According to an embodiment, the method of modeling a 3D face may determine the preset number based on input rates, noise characteristics, or tracking accuracy requirements of a plurality of consecutively input video frames, The preset number may be a constant or a variable.

일실시예에 따르면, 단계(S120)에서 3D 얼굴의 모델링 방법은 또한, 입력/출력 인터페이스를 통해 생성된 추적 결과를 출력할 수도 있다.According to an embodiment, the method of modeling the 3D face in step S120 may also output the tracking result generated through the input / output interface.

일실시예에 따르면, 단계(S120)에서 3D 얼굴의 모델링 방법은 능동 표현 모델(Active Appearance Model, AAM), 능동 형상 모델(Active Shape Model, ASM), 및 복합 제약 능동 표현 모델(Composite Constraint AAM) 중 적어도 하나를 이용하여 얼굴 특징 포인트, 표정 파라미터, 및 헤드 포즈 파라미터를 획득할 수 있다.According to one embodiment, the modeling method of the 3D face in step S120 is an Active Appearance Model (AAM), an Active Shape Model (ASM), and a Composite Constraint AAM. At least one of the face feature point, the facial expression parameter, and the head pose parameter may be obtained.

그 다음에, 단계(S130)에서 3D 얼굴의 모델링 방법은 단계(S120)에서 생성된 추적 결과에 기초하여 작업 모델을 업데이트할 수 있다. 아래 도1B를 참조하여 작업 모델의 업데이트에 대하여 자세히 설명하도록 한다.Next, the method of modeling the 3D face in step S130 may update the work model based on the tracking result generated in step S120. The update of the working model will be described in detail with reference to FIG. 1B below.

일실시예에 따르면, 단계(S130)에서 3D 얼굴의 모델링 방법은 작업 모델에 대한 업데이트가 완료되면, 입력/출력 인터페이스를 통해 업데이트된 작업 모델을 출력할 수 있다.According to an embodiment of the present disclosure, when the updating of the work model is completed in operation S130, the updated work model may be output through the input / output interface.

단계(S140)에서, 3D 얼굴의 모델링 방법은 업데이트가 완료된 작업 모델의 외모 파라미터와 업데이트되기 전 작업 모델의 외모 파라미터 간의 차이가 미리 설정된 임계값보다 작지 않고, 미리 설정된 개수의 비디오 프레임 이후의 비디오 프레임이 연속적으로 입력된 복수의 비디오 프레임 중 마지막 비디오 프레임이 아닌 경우, 단계(S150)에서 3D 얼굴의 모델링 방법은 미리 설정된 개수의 비디오 프레임 이후의 첫 번째 비디오 프레임을 지정된 시작 프레임으로 설정할 수 있다. 그 후, 3D 얼굴의 모델링 방법은 단계(S120)로 복귀(return)하여 업데이트된 작업 모델에 기초하여 설정한 시작 프레임으로부터 얼굴 추적을 수행할 수 있다.In step S140, the method of modeling the 3D face is a difference between the appearance parameter of the updated working model and the appearance parameter of the working model before the update is not smaller than a preset threshold, and the video frame after the preset number of video frames. If it is not the last video frame among the plurality of consecutively input video frames, the method of modeling the 3D face in step S150 may set the first video frame after the preset number of video frames as the designated start frame. Thereafter, the modeling method of the 3D face may return to step S120 to perform face tracking from the start frame set based on the updated working model.

업데이트가 완료된 작업 모델의 외모 파라미터와 업데이트되기 전 작업 모델의 외모 파라미터 간의 차이가 미리 설정된 임계값보다 작고, 미리 설정된 개수의 비디오 프레임 이후의 비디오 프레임이 연속적으로 입력된 복수의 비디오 프레임 중 마지막 비디오 프레임인 경우, 3D 얼굴의 모델링 방법은 단계(S150)를 수행할 수 있다. 구체적으로, 3D 얼굴의 모델링 방법은 미리 설정된 조건에 부합하는 최적의 3D 얼굴이 생성되어 있거나, 또는 전체 비디오 프레임에 대한 처리가 완료되면 작업 모델에 대한 업데이트를 종료할 수 있다.The difference between the appearance parameters of the updated working model and the appearance parameters of the working model before being updated is smaller than a preset threshold, and the last video frame among the plurality of video frames in which video frames after a preset number of video frames are continuously input. In this case, the modeling method of the 3D face may perform step S150. In detail, the modeling method of the 3D face may terminate the update to the working model when the optimal 3D face is generated or meets the preset condition or the processing of the entire video frame is completed.

단계(S160)에서, 3D 얼굴의 모델링 방법은 업데이트된 작업 모델을 개성화된 3D 얼굴로 출력할 수 있다.In operation S160, the modeling method of the 3D face may output the updated working model as the personalized 3D face.

도 1b는 도1A에 도시된 단계(S130)의 처리 과정을 도시하는 흐름도이다.FIG. 1B is a flowchart showing the process of step S130 shown in FIG. 1A.

도 1b를 참조하면, 단계(S132)에서, 3D 얼굴의 모델링 방법은 단계(S120)에 생성된 추적 결과에서 중립 표정(neutral expression)과 가장 유사한 비디오 프레임을 중립 표정 프레임으로 선택할 수 있다. 바람직한 실시예에 따르면, 단계(S132)에서 미리 설정된 개수가 T인 미리 설정된 개수의 비디오 프레임에 대응하는 추적 결과로부터 중립 표정 프레임을 선택하기 위해, 추적된 각각의 비디오 프레임에 대하여 표정 파라미터

Figure pat00006
를 계산할 수 있다. 여기서, K는 표정 파라미터의 종류의 수를 나타낸다. 3D 얼굴의 모델링 방법은 표정 파라미터 중 가장 높은 빈도로 나타내는 표정 파라미터 값
Figure pat00007
을 중립 표정 값으로 설정하고; 전체 K개의 표정 파라미터와 중립 표정 값의 편차가 미리 설정된 임계값보다는 작은 비디오 프레임을 중립 표정 프레임으로 선택할 수 있다.Referring to FIG. 1B, in step S132, the 3D face modeling method may select a video frame most similar to a neutral expression in the tracking result generated in step S120 as a neutral expression frame. According to a preferred embodiment, in step S132, a facial expression parameter for each tracked video frame, in order to select a neutral facial expression frame from the tracking result corresponding to the preset number of video frames whose number is T
Figure pat00006
Can be calculated. Here, K represents the number of types of facial expression parameters. Modeling method of the 3D face is the expression parameter value represented by the highest frequency among the expression parameters.
Figure pat00007
Set to a neutral facial expression value; A video frame whose deviation of the total K facial expression parameters and the neutral facial expression value is smaller than a predetermined threshold value may be selected as the neutral facial expression frame.

단계(S135)에서, 3D 얼굴의 모델링 방법은 중립 표정 프레임에 나타나는 얼굴 특징 포인트에 기초하여 중립 표정 프레임에서 얼굴 스케치를 추출할 수 있다. 3D 얼굴의 모델링 방법은 단계(S120)에서 추적된 각 비디오 프레임에 대하여 얼굴 특징 포인트, 표정 파라미터, 및 헤드 포즈 파라미터 등을 포함하는 정보를 추출하고, 능동적 윤곽 모델 알고리즘(active contour model algorithm)을 이용하여 단계(S132)에 선택된 중립 표정 프레임에서 얼굴 스케치를 추출할 수 있다.In operation S135, the 3D face modeling method may extract a face sketch from the neutral facial expression frame based on the facial feature points appearing in the neutral facial expression frame. The 3D face modeling method extracts information including facial feature points, facial expression parameters, head pose parameters, and the like for each video frame tracked in step S120, and uses an active contour model algorithm. In step S132, the face sketch may be extracted from the neutral expression frame selected in step S132.

도 3의 그림 A, 그림 B, 그림 C는 특징 포인트를 이용하여 비디오 프레임에서 얼굴 스케치를 추출하는 일례를 도시하고 있다. 일실시예에 따르면, 그림 A의 비디오 프레임으로부터 스케치가 추출되면, 비디오 프레임의 특징 포인트(그림 B)를 참조하고, 능동적 윤곽 모델 알고리즘을 이용하여 비디오 프레임에서 얼굴 스케치를 추출할 수 있다.(그림 C에 나타난 얼굴 스케치) 이와 같은 과정을 통해, 중립 표정 프레임에서 얼굴 스케치가 추출될 수 있다.Figures A, B, and C of Figure 3 illustrate an example of extracting a face sketch from a video frame using feature points. According to an embodiment, when a sketch is extracted from the video frame of FIG. A, a face sketch may be extracted from the video frame by referring to a feature point of the video frame (Fig. B) and using an active contour model algorithm. Face sketch shown in C) Through this process, the face sketch may be extracted from the neutral facial expression frame.

다시 도 1b로 돌아오면, 단계(S138)에서, 3D 얼굴의 모델링 방법은 중립 표정 프레임의 특징 포인트 및 추출된 얼굴 스케치에 기초하여 작업 모델을 업데이트할 수 있다. 구체적으로, 3D 얼굴의 모델링 방법은 작업 모델의 헤드 포즈 q를 중립 표정 프레임의 헤드 포즈로 업데이트하고, 작업 모델의 표정 성분 e를 0으로 설정할 수 있다. 또한, 3D 얼굴의 모델링 방법은 작업 모델 S(a, e, q)를 중립 표정 프레임의 특징 포인트 위치와 매칭시킨 뒤, 작업 모델S(a, e, q)을 통해 계산된 얼굴 스케치를 중립 표정 프레임에서 추출된 얼굴 스케치와 매칭시킴으로써 작업 모델의 외모 성분 a를 수정할 수 있다. 도 4의 그림 B는 작업 모델을 조정하여 특징 포인트를 도 4의 그림 A에 나타난 중립 표정 프레임의 특징 포인트와 일치시켜 생성한 작업 모델을 나타낸다. 도 4의 그림 D는 작업 모델이 추출된 얼굴 스케치와 일치하도록 작업 모델을 조정하거나, 또는 외모 파라미터를 수정하는 단계를 나타낸다.Referring back to FIG. 1B, in step S138, the 3D face modeling method may update the working model based on the feature points of the neutral facial expression frame and the extracted face sketch. In detail, the 3D face modeling method may update the head pose q of the work model to the head pose of the neutral facial expression frame and set the facial expression component e of the work model to zero. In addition, the 3D face modeling method matches the work model S (a, e, q) with the feature point position of the neutral facial expression frame, and then neutralizes the face sketch calculated through the work model S (a, e, q). By matching the face sketch extracted from the frame, the appearance component a of the working model can be modified. 4 illustrates a work model generated by adjusting the work model to match the feature points with the feature points of the neutral facial expression frame shown in FIG. 4 shows the steps of adjusting the work model or modifying appearance parameters such that the work model matches the extracted face sketch.

3D 얼굴의 모델링 방법은 외모 성분을 수정하여 외모 파라미터를 나타내는 과정에서, 수정 전의 외모 파라미터의 수치 및 수정 후의 외모 파라미터의 수치를 기록하여 단계(S140)에서 비교할 수 있다.In the method of modeling a 3D face by modifying an appearance component to represent an appearance parameter, the 3D face may be compared in step S140 by recording the numerical value of the external appearance parameter and the numerical value of the external appearance parameter after the modification.

도 1a에 도시된 단계(S120~S150)에서 연속적으로 입력된 비디오 프레임에 대하여 얼굴 추적 및 업데이트가 수행될 수 있다. 일실시예에 따르면, 단계(S120) 및 단계(S130)은 동시에 수행될 수 있다. 현재의 작업 모델을 이용하여 얼굴 추적을 수행하고, 얼굴 특징 포인트, 표정 파라미터 및 헤드 포즈 파라미터를 추출하며, 추출된 얼굴 특징 포인트와 헤드 포즈 파라미터 및 해당하는 비디오 프레임을 이용하여 작업 모델을 업데이트함으로써, 사용자의 얼굴과 가장 유사한 얼굴 모델이 획득될 수 있다. 또한, 각각의 입력된 비디오 프레임에 대한 얼굴 추적 결과가 출력될 수 있으며, 얼굴 추적 결과는 표정 파라미터, 외모 파라미터 및 헤드 포즈 파라미터를 포함할 수 있다.Face tracking and updating may be performed on video frames continuously input in steps S120 to S150 illustrated in FIG. 1A. According to one embodiment, step S120 and step S130 may be performed simultaneously. By performing face tracking using the current working model, extracting facial feature points, facial expression parameters and head pose parameters, and updating the working model using the extracted facial feature points and head pose parameters and corresponding video frames, A face model most similar to the user's face may be obtained. Also, a face tracking result for each input video frame may be output, and the face tracking result may include an expression parameter, an appearance parameter, and a head pose parameter.

도 1c는 일실시예에 따른 얼굴 추적 방법을 도시하는 흐름도이다.1C is a flowchart of a face tracking method, according to an exemplary embodiment.

얼굴 추적 방법은 얼굴 추적 결과를 출력하는 것을 주요 목적으로 할 수 있다. 도 1c에서, 얼굴 추적 방법은 미리 설정된 조건에 부합하는 최적의 모델이 획득되면, 작업 모델에 대한 업데이트 처리를 수행하지 않지만 그 다음의 비디오 프레임에 대한 얼굴 추적을 수행할 수 있다.The face tracking method may have a main purpose of outputting a face tracking result. In FIG. 1C, when the optimal model meeting the preset condition is obtained, the face tracking method may not perform update processing on the working model but may perform face tracking on the next video frame.

도 1c를 참조하면, 일실시예에 따른 3D 얼굴의 모델링 방법이 수행되는 경우, 얼굴 추적 방법은 단계(S110)에서 미리 설정된 기준 3D 얼굴을 작업 모델로 설정하고, 지정된 시작 프레임을 제1 프레임으로 설정하며, 작업 모델에 대한 업데이트를 계속 수행할지 여부를 지시(예, 모델링 지시)하는 변수를 1(또는, Yes)로 설정할 수 있다. 기준 3D 얼굴은 일련의 표정, 포즈가 미리 트레이닝된 3D 얼굴일 수 있다.Referring to FIG. 1C, when a 3D face modeling method is performed, the face tracking method sets a preset reference 3D face as a working model in step S110 and sets a specified start frame as a first frame. In this case, the variable indicating whether to continue updating the working model (eg, modeling instruction) may be set to 1 (or Yes). The reference 3D face may be a series of facial expressions, a 3D face that has been previously trained in a pose.

도 1c에 도시된 단계(S120)는 도 1a의 단계(S120)와 동일할 수 있다. 그러나, 도 1c에서는 미리 설정된 개수의 비디오 프레임에 대한 얼굴 추적을 완료한 다음에 단계(S125) 및 단계(S128)을 수행할 수 있다. 단계(S125)에서, 얼굴 추적 방법은 각각의 추적된 비디오 프레임에 대한 추적 결과를 출력할 수 있고, 추적 결과는 표정 파라미터, 외모 파라미터 및 헤드 포즈 파라미터를 포함할 수 있다.Step S120 illustrated in FIG. 1C may be the same as step S120 of FIG. 1A. However, in FIG. 1C, step S125 and step S128 may be performed after completing face tracking for a predetermined number of video frames. In step S125, the face tracking method may output a tracking result for each tracked video frame, and the tracking result may include an expression parameter, an appearance parameter, and a head pose parameter.

단계(S128)에서, 얼굴 추적 방법은 작업 모델에 대한 업데이트를 계속 수행할지 여부를 결정할 수 있다.(모델링 지시=1 인지 판단) 만약, 모델링 지시=1 이라면, 얼굴 추적 방법은 단계(S130)를 수행할 수 있다. 단계(S130)는 도 1a의 단계(S130)와 동일할 수 있다.In step S128, the face tracking method may determine whether to continue to update the working model. (Determining whether modeling instruction = 1) If the modeling instruction = 1, the face tracking method proceeds to step S130. Can be done. Step S130 may be the same as step S130 of FIG. 1A.

단계(S140)에서 얼굴 추적 방법은 작업 모델에 대한 업데이트 수행 시, 업데이트된 작업 모델의 외모 파라미터와 업데이트되기 전 작업 모델의 외모 파라미터 간의 차이가 미리 설정된 임계값보다 작지 않은 경우, 단계(S150)에서 미리 설정된 개수의 비디오 프레임 이후의 첫 번째 비디오 프레임을 지정된 시작 프레임으로 설정할 수 있다. 그 후, 얼굴 추적 방법은 단계(S120)로 다시 복귀하여, 업데이트된 작업 모델에 기초하여 지정된 시작 프레임으로부터 얼굴 추적을 수행할 수 있다.In step S140, when the face tracking method performs an update on the work model, when the difference between the appearance parameter of the updated work model and the appearance parameter of the work model before being updated is not smaller than a preset threshold, in step S150. The first video frame after a preset number of video frames may be set as a specified start frame. Thereafter, the face tracking method may return to step S120 to perform face tracking from the designated start frame based on the updated working model.

다른 실시예에 따르면, 작업 모델에 대한 업데이트 수행 시, 업데이트된 작업 모델의 외모 파라미터와 업데이트되기 전 작업 모델의 외모 파라미터 간의 차이가 미리 설정된 임계값보다 작거나, 또는 동일한 경우, 단계(S145)에서 작업 모델에 대한 업데이트를 계속 수행할지 여부를 지시하는 모델링 지시를 0(또는 No)으로 설정할 수 있다. 다시 말해, 사용자의 얼굴과 가장 유사한 3D 얼굴이 이미 생성되었다고 판단한 경우, 얼굴 추적 방법은 작업 모델에 대한 업데이트 과정을 더 이상 수행하지 않을 수 있다.According to another embodiment, when performing an update on the work model, if the difference between the appearance parameters of the updated work model and the appearance parameters of the work model before being updated is less than or equal to the preset threshold, in step S145. You can set the modeling instruction to 0 (or No) to indicate whether to continue updating the working model. In other words, if it is determined that the 3D face most similar to the face of the user has already been generated, the face tracking method may no longer perform an update process on the work model.

그 다음에, 단계(S148)에서, 얼굴 추적 방법은 미리 설정된 개수의 비디오 프레임 이후의 비디오 프레임이 연속적으로 입력된 복수의 비디오 프레임 중 마지막 비디오 프레임인지 여부를 확인할 수 있다. 미리 설정된 개수의 비디오 프레임 이후의 비디오 프레임이 연속적으로 입력된 복수의 비디오 프레임 중 마지막 비디오 프레임이 아닌 경우, 얼굴 추적 방법은 단계(S150)을 수행하여 미리 설정된 개수의 비디오 프레임 이후의 첫 번째 비디오 프레임을 지정된 시작 프레임으로 설정하고 단계(S120)로 복귀할 수 있다.Next, in step S148, the face tracking method may determine whether the video frame after the preset number of video frames is the last video frame of the plurality of continuously input video frames. If the video frame after the preset number of video frames is not the last video frame among the plurality of continuously input video frames, the face tracking method performs step S150 to perform the first video frame after the preset number of video frames. May be set to the designated start frame and the process returns to step S120.

얼굴 추적 방법은 미리 설정된 개수의 비디오 프레임 이후의 비디오 프레임이 연속적으로 입력된 복수의 비디오 프레임 중 마지막 비디오 프레임인 경우에는, 얼굴 추적 방법을 종료할 수 있다.The face tracking method may end the face tracking method when the video frame after the preset number of video frames is the last video frame among a plurality of video frames continuously input.

일실시예에 따르면, 얼굴 추적 방법은 얼굴 추적 방법을 종료하기 전에 마지막 업데이트된 작업 모델을 출력할 수 있다.According to one embodiment, the face tracking method may output the last updated working model before terminating the face tracking method.

위와 같이, 얼굴 추적 방법은 현재의 작업 모델을 이용하여 얼굴 추적을 수행하고, 얼굴 특징 포인트, 표정 파라미터 및 헤드 포즈 파라미터를 추출하며, 추출된 얼굴 특징 포인트와 헤드 포즈 파라미터 및 해당하는 비디오 프레임을 이용하여 작업 모델을 업데이트함으로써, 사용자의 얼굴과 가장 유사한 얼굴 모델에 대해 반복적인 추적을 수행할 수 있고, 더욱 정확한 얼굴 추적 결과를 출력할 수 있다. 얼굴 추적 결과는 표정 파라미터, 외모 파라미터 및 헤드 포즈 파라미터를 포함할 수 있다.As described above, the face tracking method performs face tracking using the current working model, extracts facial feature points, facial expression parameters, and head pose parameters, and uses extracted facial feature points and head pose parameters and corresponding video frames. By updating the work model, iterative tracking can be performed on the face model most similar to the user's face, and more accurate face tracking results can be output. The face tracking result may include an expression parameter, an appearance parameter, and a head pose parameter.

연속적으로 입력된 얼굴 비디오 프레임에서 얼굴 추적을 반복적으로 수행하고, 얼굴 추적의 결과에 기초하여 3D 얼굴을 업데이트함으로써, 사용자의 얼굴과 더욱 비슷한 3D 얼굴 모델을 제공할 수 있다. 또한, 연속적으로 입력된 얼굴 비디오 프레임에서 얼굴 추적을 반복적으로 수행하고, 추적 결과에 기초하여 3D 얼굴을 업데이트함으로써 고정밀도의 얼굴 표정 정보를 출력할 수 있다.It is possible to provide a 3D face model more similar to the user's face by repeatedly performing face tracking on continuously input face video frames and updating the 3D face based on the result of the face tracking. Also, face tracking may be repeatedly performed on continuously input face video frames, and high-precision facial expression information may be output by updating the 3D face based on the tracking result.

도 5a는 일실시예에 따른 3D얼굴의 모델링 방법 및/또는 얼굴 추적 방법을 구현하는 장치를 도시하는 도면이다.FIG. 5A illustrates an apparatus for implementing a 3D face modeling method and / or a face tracking method, according to an exemplary embodiment.

3D얼굴의 모델링 방법 및/또는 얼굴 추적 방법을 구현하는 장치는 추적부 및 모델링부를 포함할 수 있다. 추적부는 도 1a에 도시된 단계(S110~S120) 또는 도 1c에 도시된 단계(S110~S125) 를 수행할 수 있고, 모델링부는 도 1a 또는 도 1c에 도시된 단계(S130~S150)를 수행할 수 있다.An apparatus for implementing a 3D face modeling method and / or a face tracking method may include a tracking unit and a modeling unit. The tracking unit may perform steps S110 to S120 shown in FIG. 1A or steps S110 to S125 shown in FIG. 1C, and the modeling unit may perform steps S130 to S150 shown in FIG. 1A or FIG. 1C. Can be.

도 5a를 참조하면, 추적부는 작업 모델(기준 3D 얼굴 모델 M0)을 이용하여 비디오 프레임0~비디오 프레임 t2-1에 대하여 얼굴 추적을 수행하고, 비디오 프레임0~비디오 프레임 t2-1, 및 각각의 비디오 프레임에서 추출된 얼굴 특징 포인트, 표정 파라미터, 헤드 포즈 파라미터를 포함하는 추적 결과(즉, 도5A에 도시된 결과0~결과 t2-1)를 출력할 수 있다. 추적 결과는 모델링부에 제공되고, 필요에 따라 입력/출력 인터페이스를 통해 사용자에게 출력될 수 있다.Referring to FIG. 5A, the tracking unit performs face tracking on video frames 0 to video frames t 2-1 using a working model (reference 3D face model M 0 ), and performs video frames 0 to video frames t 2 -1, And a tracking result (that is, result 0 to result t 2 -1 shown in FIG. 5A) including a facial feature point, an expression parameter, and a head pose parameter extracted from each video frame. The tracking result is provided to the modeling unit and can be output to the user through an input / output interface as needed.

모델링부는 추적부로부터 출력된 추적 결과(결과0~결과 t2-1)에 기초하여 작업 모델을 업데이트할 수 있다.(업데이트 동작에 대해서는 도 1a 및 도 1b에 기재된 설명을 참조할 수 있음) 이하, 설명을 위해 업데이트된 작업 모델을 M1으로 나타낸다.The modeling unit may update the work model based on the tracking result (result 0 to result t 2 -1) output from the tracking unit. (Refer to the description of FIGS. 1A and 1B for the update operation.) For the sake of simplicity, the updated working model is represented by M 1 .

그 다음에, 추적부는 미리 설정된 규칙에 따라, 업데이트된 작업 모델 M1에 기초하여 비디오 프레임 t2~비디오 프레임 t3 에 대하여 얼굴 추적을 수행할 수 있고(도 1a의 설명을 참조), 추적 결과(결과 t2~결과 t3)를 출력할 수 있다. 모델링부는 결과 t2-1~결과 t3에 기초하여 작업 모델 M1을 업데이트할 수 있다. 조건에 부합하는 최적의 모델이 획득될 때까지, 또는 비디오 프레임이 모두 입력될 때까지 얼굴 추적 및 작업 모델에 대한 업데이트 과정이 반복적으로 수행될 수 있다. 추적부 및 모델링부는 동시에 동작할 수 있다.Then, the tracking unit may perform face tracking on video frames t 2 to video frames t 3 based on the updated working model M 1 according to a preset rule (see description in FIG. 1A), and the tracking result (Result t 2 ~ Result t 3 ) can be output. The modeling unit may update the work model M 1 based on the result t 2 -1 to the result t 3 . The face tracking and updating of the working model may be repeatedly performed until an optimal model meeting a condition is obtained, or until all video frames are input. The tracking unit and the modeling unit may operate simultaneously.

바람직한 실시예에 따르면, 3D 얼굴의 모델링 방법 및/또는 얼굴 추적 방법을 구현하는 장치는 트레이닝부를 포함할 수 있고, 오프 라인에서 일련의 3D 얼굴 데이터를 통해 기준 3D 얼굴을 미리 트레이닝하여 작업 모델 M0으로 설정할 수 있다.According to a preferred embodiment, the apparatus for implementing the 3D face modeling method and / or face tracking method may include a training unit, the training model M 0 in advance by training a reference 3D face through a series of 3D face data offline Can be set.

도 5b는 다른 실시예에 따른 3D 얼굴의 모델링 방법 및/또는 얼굴 추적 방법을 구현하는 장치를 도시하는 도면이다.5B is a diagram illustrating an apparatus for implementing a 3D face modeling method and / or a face tracking method according to another exemplary embodiment.

도 5a에 도시된 것과 다르게, 도 5b에 도시된 3D 얼굴의 모델링 방법 및/또는 얼굴 추적 방법을 구현하는 장치는 복수의 모델링부(예, 모델링부 A 및 모델링부 B)를 포함할 수 있고, 복수의 모델링부를 교대로 이용하여 단계(S130)을 반복적으로 수행할 수 있으며, 반복적으로 수행된 결과를 통합시킬 수 있다.Unlike in FIG. 5A, an apparatus for implementing the 3D face modeling method and / or face tracking method illustrated in FIG. 5B may include a plurality of modeling units (eg, modeling unit A and modeling unit B). By using the plurality of modeling parts alternately, step S130 may be repeatedly performed, and the results repeatedly performed may be integrated.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software.

컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

미리 설정된 기준 3D(dimensional) 얼굴을 작업 모델로 설정하고, 상기 작업 모델에 기초하여 비디오 프레임 단위로 얼굴 추적을 수행하는 단계;
상기 비디오 프레임으로부터 얼굴 특징 포인트, 표정 파라미터 및 헤드 포즈 파라미터 중 적어도 하나를 포함하는 추적 결과를 생성하는 단계;
상기 추적 결과에 기초하여 상기 작업 모델을 업데이트하는 단계; 및
상기 업데이트된 작업 모델을 출력하는 단계
를 포함하는 3D 얼굴의 모델링 방법.
Setting a preset reference 3D face as a work model and performing face tracking on a video frame basis based on the work model;
Generating a tracking result comprising at least one of a facial feature point, an expression parameter, and a head pose parameter from the video frame;
Updating the work model based on the tracking result; And
Outputting the updated working model
3D face modeling method comprising a.
제1항에 있어서,
상기 3D 얼굴은,
얼굴의 3D 형상, 외모 파라미터, 표정 파라미터, 및 헤드 포즈 파라미터(head pose parameter) 중 적어도 하나를 포함하는 3D 얼굴의 모델링 방법
The method of claim 1,
The 3D face,
3D face modeling method comprising at least one of a 3D shape of the face, appearance parameters, facial expression parameters, and head pose parameters
제1항에 있어서,
상기 생성하는 단계는,
입력된 비디오 프레임들 중 지정된 시작 프레임을 기준으로 하여 미리 설정된 개수의 비디오 프레임에 대응하는 추적 결과를 생성하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Wherein the generating comprises:
3. The method of modeling a 3D face that generates a tracking result corresponding to a preset number of video frames based on a specified start frame among input video frames.
제1항에 있어서,
상기 업데이트하는 단계는,
업데이트된 작업 모델의 외모 파라미터와 업데이트되기 전 작업 모델의 외모 파라미터 간의 차이와 미리 설정된 임계값에 기초하여 상기 작업 모델의 업데이트 여부를 결정하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Wherein the updating comprises:
And determining whether to update the work model based on a difference between the appearance parameter of the updated work model and the appearance parameter of the work model before being updated and a preset threshold.
제1항에 있어서,
상기3D 얼굴의 작업 모델은,
Figure pat00008

로 표현되고,
상기 S는 3D 형상이고, 상기 a 는 외모 성분이고, 상기 e는 표정 성분이고, 상기 q는 헤드 포즈이고, 상기 T(S, q)는 헤드 포즈 q에 따라 3D 형상 S를 회전시키는 동작 또는 이동시키는 동작 중 적어도 하나의 동작을 수행하는 함수를 나타내는 3D 얼굴의 모델링 방법.
The method of claim 1,
The working model of the 3D face,
Figure pat00008

Lt; / RTI >
S is a 3D shape, a is an appearance component, e is an expression component, q is a head pose, and T (S, q) rotates or moves the 3D shape S according to head pose q. 3D face modeling method representing a function for performing at least one of the motions to.
제5항에 있어서,
상기 기준 3D 얼굴은,
평균 형상 So, 외모 성분
Figure pat00009
, 표정 성분
Figure pat00010
, 및 기준 헤드 포즈 qo를 포함하고,
i=1:N,
Figure pat00011
는 얼굴 외모의 변화를 나타내고, j=1:M,
Figure pat00012
는 얼굴 표정의 변화를 나타내는3D 얼굴의 모델링 방법.
The method of claim 5,
The reference 3D face,
Average shape S o , appearance components
Figure pat00009
Facial expression elements
Figure pat00010
, And the reference head pose q o ,
i = 1: N,
Figure pat00011
Represents a change in facial appearance, j = 1: M,
Figure pat00012
Is a 3D face modeling method that represents a change in facial expression.
제1항에 있어서,
오프 라인에서 3D 얼굴 데이터를 통해 기준 3D 얼굴을 미리 트레이닝하고, 트레이닝된 기준 3D 얼굴을 작업 모델로 설정하는 단계
를 더 포함하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Pretraining the reference 3D face with 3D face data offline and setting the trained reference 3D face as the working model
Modeling method of the 3D face further comprising.
제1항에 있어서,
상기 추적 결과를 생성하는 단계 및 상기 작업 모델을 업데이트하는 단계는 동시에 수행되는 것을 특징으로 하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Generating the tracking result and updating the working model are performed at the same time.
제1항에 있어서,
상기 업데이트하는 단계는,
상기 생성된 추적 결과에서 중립 표정(neutral expression)과 가장 유사한 비디오 프레임을 중립 표정 프레임으로 선택하는 단계;
상기 중립 표정 프레임에 포함된 얼굴 특징 포인트에 기초하여 상기 중립 표정 프레임에서 얼굴 스케치를 추출하는 단계; 및
상기 중립 표정 프레임의 특징 포인트 및 상기 추출된 얼굴 스케치에 기초하여 상기 작업 모델을 업데이트하는 단계
를 포함하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Wherein the updating comprises:
Selecting a video frame most similar to a neutral expression in the generated tracking result as a neutral expression frame;
Extracting a face sketch from the neutral facial expression frame based on facial feature points included in the neutral facial expression frame; And
Updating the working model based on feature points of the neutral facial expression frame and the extracted face sketch
3D face modeling method comprising a.
제9항에 있어서,
상기 선택하는 단계는,
추적된 각각의 비디오 프레임에 대하여 표정 파라미터를 계산하는 단계; 상기 표정 파라미터 중 가장 높은 빈도로 나타나는 표정 파라미터 값을 중립 표정 값으로 설정하는 단계; 및
전체 K개의 표정 파라미터와 상기 중립 표정 값의 편차가 미리 설정된 임계값보다 작은 비디오 프레임을 중립 표정 프레임으로 선택하는 단계
를 포함하는 3D 얼굴의 모델링 방법.
10. The method of claim 9,
The selecting step,
Calculating facial expression parameters for each tracked video frame; Setting a facial expression value of the facial expression parameter that appears at the highest frequency to a neutral facial expression value; And
Selecting as a neutral facial expression frame a video frame having a difference between the total K facial expression parameters and the neutral facial expression value smaller than a preset threshold;
3D face modeling method comprising a.
제9항에 있어서,
상기 추출하는 단계는,
능동적 윤곽 모델 알고리즘(active contour model algorithm)을 이용하여 상기 중립 표정 프레임에서 얼굴 스케치를 추출하는 3D 얼굴의 모델링 방법.
10. The method of claim 9,
Wherein the extracting comprises:
3D face modeling method of extracting a face sketch from the neutral facial expression frame using an active contour model algorithm.
제5항에 있어서,
상기 업데이트하는 단계는,
상기 작업 모델의 헤드 포즈 q를 상기 중립 표정 프레임의 헤드 포즈로 업데이트하는 단계;
상기 작업 모델의 표정 성분 e를 0으로 설정하는 단계; 및
상기 작업 모델 S(a, e, q)를 상기 중립 표정 프레임의 특징 포인트 위치와 매칭시키고, 상기 작업 모델 S(a, e, q)을 통해 계산된 얼굴 스케치를 상기 중립 표정 프레임에서 추출된 얼굴 스케치와 매칭시켜 상기 작업 모델의 외모 성분 a를 수정하는 단계
를 포함하는 3D 얼굴의 모델링 방법.
The method of claim 5,
Wherein the updating comprises:
Updating the head pose q of the working model with the head pose of the neutral facial expression frame;
Setting the facial expression component e of the working model to zero; And
The work model S (a, e, q) is matched with the feature point position of the neutral facial expression frame, and the face sketch calculated through the work model S (a, e, q) is extracted from the neutral facial expression frame. Modifying appearance component a of the working model by matching with a sketch
3D face modeling method comprising a.
제1항에 있어서,
상기 3D 얼굴의 모델링 방법은,
상기 작업 모델을 업데이트하는 단계를 반복적으로 수행하고, 상기 반복적으로 수행된 결과를 상기 작업 모델에 반영하는 3D 얼굴의 모델링 방법.
The method of claim 1,
The 3D face modeling method,
And repeatedly updating the work model, and reflecting the repeatedly performed result to the work model.
제1항에 있어서,
상기 생성하는 단계는,
입력 인터페이스 및 출력 인터페이스 중 적어도 하나를 통해 상기 생성된 추적 결과를 출력하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Wherein the generating comprises:
3D face modeling method for outputting the generated tracking results through at least one of an input interface and an output interface.
제1항에 있어서,
상기 출력하는 단계는,
상기 작업 모델의 업데이트가 완료되면, 업데이트된 작업 모델을 입력 인터페이스 및 출력 인터페이스 중 적어도 하나를 통해 출력하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Wherein the outputting step comprises:
And if the updating of the working model is completed, outputting the updated working model through at least one of an input interface and an output interface.
제1항에 있어서,
상기 생성하는 단계는,
입력된 비디오 프레임의 입력 레이트(rate), 노이즈(noise) 특성, 및 추적의 정확성 요구도 중 적어도 하나에 기초하여 얼굴 추적을 수행할 비디오 프레임의 개수를 결정하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Wherein the generating comprises:
3. A method of modeling a 3D face that determines the number of video frames to perform face tracking based on at least one of an input rate, a noise characteristic, and an accuracy requirement of tracking of an input video frame.
제1항에 있어서,
상기 생성하는 단계는,
능동 표현 모델(Active Appearance Model, AAM), 능동 형상 모델(Active Shape Model, ASM), 및 복합 제약 능동 표현 모델(Composite Constraint AAM) 중 적어도 하나를 이용하여 얼굴 특징 포인트, 표정 파라미터, 및 헤드 포즈 파라미터 중 적어도 하나를 획득하는 3D 얼굴의 모델링 방법.
The method of claim 1,
Wherein the generating comprises:
Facial feature points, facial expression parameters, and head pose parameters using at least one of an Active Appearance Model (AAM), an Active Shape Model (ASM), and a Composite Constraint AAM. A method of modeling a 3D face to obtain at least one of.
제5항에 있어서,
상기 생성하는 단계는,
상기 얼굴 추적이 실패하는 경우, 상기 작업 모델의 외모 성분 a를 0으로 리셋(reset)하고, 상기 생성하는 단계를 다시 수행하는 3D 얼굴의 모델링 방법.
The method of claim 5,
Wherein the generating comprises:
And if the face tracking fails, resetting the appearance component a of the working model to zero and performing the generating again.
입력된 비디오 프레임에 대해 작업 모델에 기초하여 얼굴 추적을 수행하고, 얼굴 특징 포인트, 표정 파라미터 및 헤드 포즈 파라미터 중 적어도 하나를 포함하는 추적 결과를 생성하는 추적부; 및
상기 추적 결과에 기초하여 상기 작업 모델을 업데이트하는 모델링부
를 포함하는 3D 얼굴의 모델링 장치.
A tracking unit which performs face tracking on the input video frame based on the working model and generates a tracking result including at least one of a facial feature point, an expression parameter, and a head pose parameter; And
A modeling unit for updating the work model based on the tracking result
3D face modeling apparatus comprising a.
제19항에 있어서,
오프 라인에서 3D 얼굴 데이터를 통해 기준 3D 얼굴을 미리 트레이닝하고, 트레이닝된 기준 3D 얼굴을 작업 모델로 설정하는 트레이닝부
를 더 포함하는 3D 얼굴의 모델링 장치.
20. The method of claim 19,
Training unit that pre-trains the reference 3D face with 3D face data offline and sets the trained reference 3D face as the working model
3D face modeling device further comprising.
KR1020130043463A 2012-07-05 2013-04-19 Method and apparatus for modeling 3d face, method and apparatus for tracking face KR102024872B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/936,001 US20140009465A1 (en) 2012-07-05 2013-07-05 Method and apparatus for modeling three-dimensional (3d) face, and method and apparatus for tracking face

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210231897.XA CN103530900B (en) 2012-07-05 2012-07-05 Modeling method, face tracking method and the equipment of three-dimensional face model
CN201210231897.X 2012-07-05

Publications (2)

Publication Number Publication Date
KR20140009013A true KR20140009013A (en) 2014-01-22
KR102024872B1 KR102024872B1 (en) 2019-09-24

Family

ID=49932878

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130043463A KR102024872B1 (en) 2012-07-05 2013-04-19 Method and apparatus for modeling 3d face, method and apparatus for tracking face

Country Status (2)

Country Link
KR (1) KR102024872B1 (en)
CN (1) CN103530900B (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105608710B (en) * 2015-12-14 2018-10-19 四川长虹电器股份有限公司 A kind of non-rigid Face datection and tracking positioning method
CN108229246A (en) * 2016-12-14 2018-06-29 上海交通大学 Real-time three-dimensional human face posture method for tracing based on vehicle computing machine platform
CN108345821B (en) * 2017-01-24 2022-03-08 成都理想境界科技有限公司 Face tracking method and device
CN108734735B (en) * 2017-04-17 2022-05-31 佳能株式会社 Object shape tracking device and method, and image processing system
US10586368B2 (en) * 2017-10-26 2020-03-10 Snap Inc. Joint audio-video facial animation system
CN107958479A (en) * 2017-12-26 2018-04-24 南京开为网络科技有限公司 A kind of mobile terminal 3D faces augmented reality implementation method
CN108765464A (en) * 2018-05-31 2018-11-06 山东工商学院 Low-rank re-detection context long time-tracking method and system based on residual compensation
CN110796083B (en) * 2019-10-29 2023-07-04 腾讯科技(深圳)有限公司 Image display method, device, terminal and storage medium
CN112017230A (en) * 2020-09-07 2020-12-01 浙江光珀智能科技有限公司 Three-dimensional face model modeling method and system
CN113112596B (en) * 2021-05-12 2023-10-24 北京深尚科技有限公司 Face geometric model extraction and 3D face reconstruction method, equipment and storage medium
CN116152900B (en) * 2023-04-17 2023-07-18 腾讯科技(深圳)有限公司 Expression information acquisition method and device, computer equipment and storage medium

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060745A (en) * 1999-03-19 2000-10-16 윤덕용 A Real time face tracking technique using face's color model and ellipsoid approximation model
KR20010089664A (en) * 1999-10-21 2001-10-08 요트.게.아. 롤페즈 System and method for three-dimensional modeling
US20050100243A1 (en) * 2001-11-19 2005-05-12 Microsoft Corporation Automatic sketch generation
US20070091085A1 (en) * 2005-10-13 2007-04-26 Microsoft Corporation Automatic 3D Face-Modeling From Video
EP1811456A1 (en) * 2004-11-12 2007-07-25 Omron Corporation Face feature point detector and feature point detector
KR20080111325A (en) * 2007-06-18 2008-12-23 에스케이 텔레콤주식회사 Method and system for modeling face in three dimension by means of aam, and apparatus applied to the same
JP2008310775A (en) * 2007-06-18 2008-12-25 Canon Inc Expression recognition device and method and imaging apparatus
US20100254594A1 (en) * 2007-11-29 2010-10-07 Tencent Technology (Shenzhen) Company Ltd. Sketch generating system and method for generating sketch based on image
KR20110021330A (en) * 2009-08-26 2011-03-04 삼성전자주식회사 Apparatus and method for creating third dimension abatar
US20110063403A1 (en) * 2009-09-16 2011-03-17 Microsoft Corporation Multi-camera head pose tracking
KR20110030869A (en) * 2009-09-18 2011-03-24 삼성전자주식회사 Apparatus and method for extracting user's third dimension facial expression

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7536030B2 (en) * 2005-11-30 2009-05-19 Microsoft Corporation Real-time Bayesian 3D pose tracking
KR100940862B1 (en) * 2007-12-17 2010-02-09 한국전자통신연구원 Head motion tracking method for 3d facial model animation from a video stream
CN101499128B (en) * 2008-01-30 2011-06-29 中国科学院自动化研究所 Three-dimensional human face action detecting and tracing method based on video stream
CN101777116B (en) * 2009-12-23 2012-07-25 中国科学院自动化研究所 Method for analyzing facial expressions on basis of motion tracking
CN102479388A (en) * 2010-11-22 2012-05-30 北京盛开互动科技有限公司 Expression interaction method based on face tracking and analysis

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060745A (en) * 1999-03-19 2000-10-16 윤덕용 A Real time face tracking technique using face's color model and ellipsoid approximation model
KR20010089664A (en) * 1999-10-21 2001-10-08 요트.게.아. 롤페즈 System and method for three-dimensional modeling
US20050100243A1 (en) * 2001-11-19 2005-05-12 Microsoft Corporation Automatic sketch generation
EP1811456A1 (en) * 2004-11-12 2007-07-25 Omron Corporation Face feature point detector and feature point detector
US20070091085A1 (en) * 2005-10-13 2007-04-26 Microsoft Corporation Automatic 3D Face-Modeling From Video
KR20080111325A (en) * 2007-06-18 2008-12-23 에스케이 텔레콤주식회사 Method and system for modeling face in three dimension by means of aam, and apparatus applied to the same
JP2008310775A (en) * 2007-06-18 2008-12-25 Canon Inc Expression recognition device and method and imaging apparatus
US20100254594A1 (en) * 2007-11-29 2010-10-07 Tencent Technology (Shenzhen) Company Ltd. Sketch generating system and method for generating sketch based on image
KR20110021330A (en) * 2009-08-26 2011-03-04 삼성전자주식회사 Apparatus and method for creating third dimension abatar
US20110063403A1 (en) * 2009-09-16 2011-03-17 Microsoft Corporation Multi-camera head pose tracking
KR20110030869A (en) * 2009-09-18 2011-03-24 삼성전자주식회사 Apparatus and method for extracting user's third dimension facial expression

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Li, et al, "Extraction of facial sketch images and expression transformation based on FACS." Con. Image Processing. IEEE Vol.3(1995)* *
김가현, et al, "B-스플라인 능동적 윤곽 기반 얼굴 검출을 위한 차 에지 영상 획득", 전자공학회 논문지 제 47 권 SP 편 제 6호(2010)* *
최선형, et al, "얼굴의 자세추정을 이용한 얼굴인식 속도 향상." 한국지능시스템학회 논문지 제20권 5호(2010)* *

Also Published As

Publication number Publication date
CN103530900B (en) 2019-03-19
KR102024872B1 (en) 2019-09-24
CN103530900A (en) 2014-01-22

Similar Documents

Publication Publication Date Title
KR102024872B1 (en) Method and apparatus for modeling 3d face, method and apparatus for tracking face
US9978119B2 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
US9626766B2 (en) Depth sensing using an RGB camera
KR102285376B1 (en) 3d face modeling method and 3d face modeling apparatus
KR20190101382A (en) Method and device for joint segmentation and 3D reconstruction of scenes
CN113420719B (en) Method and device for generating motion capture data, electronic equipment and storage medium
US20160104309A1 (en) Apparatus and method for generating facial composite image, recording medium for performing the method
CN108027884B (en) Method, storage medium, server and equipment for monitoring object
EP3326156B1 (en) Consistent tessellation via topology-aware surface tracking
US20140009465A1 (en) Method and apparatus for modeling three-dimensional (3d) face, and method and apparatus for tracking face
WO2007047461A9 (en) Bi-directional tracking using trajectory segment analysis
CN108124489B (en) Information processing method, apparatus, cloud processing device and computer program product
KR101994319B1 (en) Apparatus of recognizing an object using a depth image and method thereof
US20190066311A1 (en) Object tracking
JP2015079502A (en) Object tracking method, object tracking device, and tracking feature selection method
KR101853237B1 (en) 3D geometry denoising method and apparatus using deep learning
KR20180078115A (en) Method and apparatus for processing image
KR102147930B1 (en) Method and apparatus for recognizing pose
CN112084855B (en) Outlier elimination method for video stream based on improved RANSAC method
KR20220074715A (en) Method and apparatus for image processing
CN111368674B (en) Image recognition method and device
JP6393495B2 (en) Image processing apparatus and object recognition method
KR101001184B1 (en) Iterative 3D head pose estimation method using a face normal vector
JP5677234B2 (en) Edge detection device and program thereof
CN110602476A (en) Hole filling method of Gaussian mixture model based on depth information assistance

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant