KR20160029629A - Method and apparatus for face recognition - Google Patents

Method and apparatus for face recognition Download PDF

Info

Publication number
KR20160029629A
KR20160029629A KR1020150001850A KR20150001850A KR20160029629A KR 20160029629 A KR20160029629 A KR 20160029629A KR 1020150001850 A KR1020150001850 A KR 1020150001850A KR 20150001850 A KR20150001850 A KR 20150001850A KR 20160029629 A KR20160029629 A KR 20160029629A
Authority
KR
South Korea
Prior art keywords
face
model
user
facial
images
Prior art date
Application number
KR1020150001850A
Other languages
Korean (ko)
Other versions
KR102357340B1 (en
Inventor
김정배
이선민
황영규
한재준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/796,224 priority Critical patent/US20160070952A1/en
Priority to EP19200425.7A priority patent/EP3614303A1/en
Priority to EP15176898.3A priority patent/EP2993614B1/en
Priority to CN202210474282.3A priority patent/CN114627543A/en
Priority to CN201510441052.7A priority patent/CN106203248A/en
Publication of KR20160029629A publication Critical patent/KR20160029629A/en
Application granted granted Critical
Publication of KR102357340B1 publication Critical patent/KR102357340B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • G06K9/00241
    • G06K9/00208
    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Abstract

Disclosed are a method and a device to recognize a face. The face recognizing device is capable of: obtaining a 2D input image including a facial area of a user, and detecting a characteristic point of a face from the 2D input image; adjusting a pose of a pre-stored 3D face model based on the detected characteristic point, and generating a 2D projection image from the adjusted 3D face model; performing face recognition by comparing the facial area, displayed in the 2D input image, with a facial area, displayed in the 2D projection image, and then outputting a face recognition result.

Description

얼굴 인식 방법 및 장치{METHOD AND APPARATUS FOR FACE RECOGNITION}[0001] METHOD AND APPARATUS FOR FACE RECOGNITION [0002]

아래의 설명은 사용자의 얼굴을 식별하는 얼굴 인식 기술에 관한 것이다.The following description relates to a face recognition technique for identifying a user's face.

생체 인식 기술 중 하나인 얼굴 인식 기술은, 지문 인식, 홍채 인식 등 사용자의 특별한 동작이나 행위를 요구하는 인식 기술과 다르게, 대상자를 비접촉식으로 확인할 수 있는 장점 때문에 편리하고 경쟁력 있는 생체 인식 기술로 평가 받고 있다. 최근에는, 편리함과 효율성 때문에 얼굴 인식 기술이 보안 시스템, 모바일 인증, 멀티미디어 데이터 검색 등의 다양한 응용 분야에 활발하게 적용되고 있다.Face recognition technology, which is one of the biometrics technologies, is evaluated as convenient and competitive biometrics technology because it has the advantages of non-contact recognition of the subject, unlike recognition technology which requires user's special action or action such as fingerprint recognition and iris recognition have. In recent years, face recognition technology has been actively applied to various applications such as security system, mobile authentication, and multimedia data search because of convenience and efficiency.

일 실시예에 따른 얼굴 인식 방법은, 2D 입력 영상으로부터 얼굴의 특징점을 검출하는 단계; 상기 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계; 상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a face recognition method comprising: detecting a feature point of a face from a 2D input image; Adjusting a pre-stored 3D face model based on the detected feature points; Generating a 2D projection image from the adjusted 3D face model; And performing face recognition by comparing the 2D input image and the 2D projection image.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑하여 상기 3D 얼굴 모델의 포즈 및 표정을 조정하는 단계를 포함할 수 있다.In the method of recognizing a face according to an exemplary embodiment, the step of adjusting the 3D face model may include a step of mapping the detected feature points to the 3D face model to adjust a pose and a facial expression of the 3D face model.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은, 3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델일 수 있다.In the face recognition method, the 3D face model may include a 3D shape model and a 3D texture model. In the 3D shape model and the 3D texture model, the shape of the 3D model is fixed, And a model in which the expression can be changed.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 2D 입력 영상으로부터 검출된 특징점에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an exemplary embodiment, adjusting the 3D face model may include adjusting the 3D shape model based on the feature points detected from the 2D input image; And adjusting the 3D texture model based on parameter information of the adjusted 3D shape model.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 형태 모델을 조정하는 단계는, 상기 검출된 특징점에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계를 포함할 수 있다.In the face recognition method according to an exemplary embodiment, adjusting the 3D shape model may include adjusting a pose parameter and a facial expression parameter of the 3D shape model based on the detected feature point.

일 실시예에 따른 얼굴 인식 방법에서, 상기 2D 투영 영상을 생성하는 단계는, 상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계를 포함할 수 있다.In the face recognition method according to an exemplary embodiment, the step of generating the 2D projection image may include generating a 2D projection image from the adjusted 3D texture model.

일 실시예에 따른 얼굴 인식 방법에서, 상기 미리 저장된 3D 얼굴 모델은, 복수의 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 생성될 수 있고, 상기 2D 얼굴 영상들은, 사용자의 얼굴을 복수의 시점들에서 촬영한 영상들일 수 있다.In the face recognition method according to an embodiment, the pre-stored 3D face model may be generated based on the feature points detected from the plurality of 2D face images, and the 2D face images may be generated from a plurality of viewpoints May be images photographed by the user.

일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴 인식을 수행하는 단계는, 상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및 상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계를 포함할 수 있다.In the method of recognizing a face according to an exemplary embodiment, performing the face recognition may include determining a degree of similarity between the 2D input image and the 2D projection image; And outputting a face recognition result based on whether or not the similarity satisfies a predetermined condition.

일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴의 특징점을 검출하는 단계는, 상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및 상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점을 검출하는 단계를 포함할 수 있다.In the method of detecting a face according to an exemplary embodiment, the step of detecting a feature point of the face may include extracting a face region from the 2D input image; And detecting feature points included in at least one of an eyebrow, an eye, a nose, a mouth, a jaw, an ear, and an outline of a face from the face region.

일 실시예에 따른 3D 얼굴 모델 생성 방법은, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 단계; 상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계를 포함할 수 있다.A 3D face model generation method according to an embodiment includes: obtaining 2D face images of a user photographed at a plurality of view points; Detecting facial feature points from the 2D facial images; Generating a deformable 3D shape model and a 3D texture model based on the detected feature points; And registering and storing the 3D model and the 3D texture model as the 3D model of the user.

일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계를 포함할 수 있다.In the 3D face model generation method according to an exemplary embodiment, the step of generating the 3D shape model and the 3D texture model may include generating texture information based on the texture information extracted from at least one of the 2D face images, And generating a model.

일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하는 단계; 및 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계를 포함할 수 있다.In the 3D face model generation method according to an exemplary embodiment, the step of generating the 3D shape model and the 3D texture model may include: determining parameters for mapping the detected feature points and the feature points of the 3D standard model; And applying the determined parameter to the 3D standard model to generate the 3D shape model.

다른 실시예에 따른 3D 얼굴 모델 생성 방법은, 사용자의 얼굴을 촬영한 2D 얼굴 영상들 및 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계; 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계; 상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a 3D face model generation method comprising: obtaining 2D face images of a user's face and orientation data of the 2D face images; Determining corresponding point information between the 2D facial images; Generating 3D data on the face of the user based on the orientation data of the 2D face images and corresponding point information between the 2D face images; And transforming the 3D standard model into the 3D face model for the user using the 3D data.

다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는, 모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다.In the 3D face model generation method according to another embodiment, the direction data of the 2D face images may be obtained by using the motion data sensed by the motion sensor.

다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 사용자의 얼굴에 관한 3D 데이터는, 상기 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다.In the 3D face model generation method according to another embodiment, the 3D data on the face of the user may be a set of 3D points constituting the shape of the face of the user.

다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는, 상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.In the 3D face model generation method according to another exemplary embodiment, the step of transforming the 3D standard model into the 3D face model for the user includes matching the 3D standard model with 3D data related to the face of the user, To the 3D face model for the user.

일 실시예에 따른 얼굴 인식 장치는, 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하는 영상 획득부; 상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈에 따라 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 상기 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부를 포함할 수 있다.According to an embodiment of the present invention, there is provided a face recognition apparatus including an image acquisition unit for acquiring a 2D input image including a face region of a user; A 3D face model processing unit for adjusting a pose of a 3D face model previously stored according to a pose of a user's face displayed on the 2D input image and generating a 2D projection image from the 3D face model; And a face recognition unit for performing face recognition by comparing the 2D input image and the 2D projection image.

일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및 상기 얼굴 영역으로부터 얼굴의 특징점을 검출하는 특징점 검출부를 포함할 수 있다.In the face recognition apparatus, the 3D face model processing unit may include: a face region detecting unit that detects a face region from the 2D input image; And a feature point detection unit for detecting feature points of the face from the face region.

일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 검출된 특징점과 상기 미리 저장된 3D 얼굴 모델의 특징점을 매칭시키는 것에 의해 상기 3D 얼굴 모델의 포즈를 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit can adjust the pose of the 3D face model by matching the detected feature points with the minutiae points of the previously stored 3D face model.

일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다.In the face recognition apparatus, the 3D face model processing unit adjusts the pose of the 3D model according to the face pose of the user displayed on the 2D input image, and based on the parameter information of the adjusted 3D model, You can adjust the 3D texture model.

일 실시예에 따른 얼굴 인식 장치는, 상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부를 더 포함할 수 있다.The face recognition apparatus may further include a display unit for displaying at least one of the 2D input image, the 2D projection image, and the face recognition result.

일 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들로부터 얼굴의 특징점을 검출하는 특징점 검출부; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.An apparatus for generating a 3D face model according to an exemplary embodiment includes an image obtaining unit that obtains 2D face images of a user photographed at a plurality of time points; A feature point detector for detecting a feature point of a face from the 2D face images; A 3D face model generation unit for generating a 3D shape model and a 3D texture model that can be transformed based on the detected minutiae; And a 3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the 3D face model of the user.

일 실시예에 따른 3D 얼굴 모델 생성 장치에서, 상기 3D 얼굴 모델 생성부는, 상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부를 포함할 수 있다.In the apparatus for generating a 3D facial model according to an exemplary embodiment, the 3D facial model generating unit may include a 3D form model generating unit for generating a 3D form model for the user's face based on the detected feature points of the face; And a 3D texture model generation unit for generating a 3D texture model based on the 3D shape model and texture information extracted from at least one of the 2D face images.

다른 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부; 상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부; 상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for generating a 3D facial model, comprising: an image acquiring unit for acquiring 2D face images of a user photographed at a plurality of points of time; A motion sensing unit for acquiring orientation data of the 2D face images; Generating 3D data relating to the face of the user based on corresponding point information between the 2D face images and direction data of the 2D face images and transforming the 3D standard model into a 3D face model for the user using the 3D data A 3D facial model generating unit; And a 3D face model registration unit for registering and storing the 3D face model for the user.

도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다.
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.
1 is a diagram for explaining an overall operation of a face recognition system according to an embodiment.
2 is a diagram showing a detailed configuration of a 3D facial model generating apparatus according to an embodiment.
3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an embodiment.
4 is a diagram for explaining a process of detecting feature points in a plurality of 2D facial images according to an exemplary embodiment of the present invention.
FIG. 5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an embodiment.
6 is a diagram illustrating a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment.
FIG. 7 is a diagram for explaining a process of performing face recognition by comparing a 2D input image and a 2D projection image according to an embodiment.
FIG. 8 is a flowchart illustrating an operation of a 3D face model generation method according to an embodiment.
FIG. 9 is a flowchart illustrating an operation of the face recognition method according to an embodiment.
10 is a diagram showing a detailed configuration of a 3D face model generation apparatus according to another embodiment.
11 is a flowchart illustrating an operation of a 3D face model generation method according to another embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The specific structural or functional descriptions below are illustrated for purposes of illustration only and are not to be construed as limiting the scope of the embodiments to those described in the text. Those skilled in the art will appreciate that various modifications and changes may be made thereto without departing from the scope of the present invention. In addition, the same reference numerals shown in the drawings denote the same members, and the well-known functions and structures are omitted.

도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다. 얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상에서 사용자의 얼굴을 인식할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상을 분석하여 2D 입력 영상에 나타난 사용자의 얼굴을 추출하고, 식별할 수 있다. 얼굴 인식 시스템(100)은 감시/보안 시스템, 모바일 인증, 또는 멀티미디어 데이터 검색 등의 다양한 어플리케이션 영역에서 활용될 수 있다.1 is a diagram for explaining an overall operation of a face recognition system according to an embodiment. The face recognition system 100 can recognize a user's face in a 2D input image for face recognition. The face recognition system 100 can analyze the 2D input image and extract and identify the face of the user displayed on the 2D input image. The face recognition system 100 can be utilized in various application fields such as a surveillance / security system, a mobile authentication, or a multimedia data search.

얼굴 인식 시스템(100)은 사용자에 대한 3D(dimensional) 얼굴 모델을 등록하고, 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 수행할 수 있다. 3D 얼굴 모델은 변형이 가능한(deformable) 3D 모델로서 2D 입력 영상에 나타난 사용자의 얼굴 포즈 또는 얼굴 표정에 따라 변형될 수 있다. 예를 들어, 2D 입력 영상에 나타난 얼굴 포즈가 왼쪽 측면을 바라보고 있는 포즈인 경우, 얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델을 왼쪽 측면을 바라보도록 회전시킬 수 있다. 또한, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 사용자 얼굴의 표정에 따라 3D 얼굴 모델의 표정을 조정할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에서 검출된 얼굴의 특징점에 기초하여 사용자 얼굴의 표정을 분석하고, 분석된 얼굴 표정에 대응되도록 3D 얼굴 모델의 눈, 입, 코 등의 형태를 조정할 수 있다.The face recognition system 100 may register a 3D face model for the user and perform face recognition using the registered 3D face model. The 3D face model is a deformable 3D model and can be transformed according to the face pose or facial expression of the user displayed on the 2D input image. For example, if the face pose shown in the 2D input image is a pose facing the left side, the face recognition system 100 may rotate the registered 3D face model to look to the left side. In addition, the face recognition system 100 can adjust the facial expression of the 3D facial model according to the facial expression of the user's face displayed on the 2D input image. For example, the face recognition system 100 analyzes facial expressions of the user's face based on the feature points of the face detected from the 2D input image, and forms the eyes, mouth, and nose of the 3D facial model in correspondence with the analyzed facial expression Can be adjusted.

얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델로부터 2D 투영 영상(projection image)을 생성하고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 2D 영상들을 이용함으로써 실시간으로 얼굴 인식이 수행될 수 있다. 2D 투영 영상은 3D 얼굴 모델을 평면으로 투영하여 나타낸 2D 영상이다. 예를 들어, 2D 투영 영상은 2D 입력 영상과 정합(matching)된 3D 얼굴 모델을 2D 입력 영상에서의 시점(viewpoint)과 동일한 시점에서 투영한 2D 영상으로, 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일할 수 있다. 미리 저장된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합시키고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행하는 것에 의해 얼굴 인식을 수행할 수 있다. 2D 입력 영상에 나타난 사용자의 얼굴 포즈가 정면이 아니라 하더라도 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써 포즈 변화에 따른 인식률이 개선될 수 있다.The face recognition system 100 can generate a 2D projection image from the registered 3D face model and perform face recognition by comparing the 2D projection image with the 2D input image. Face recognition can be performed in real time by using 2D images. A 2D projection image is a 2D image that is obtained by projecting a 3D face model in a plane. For example, a 2D projection image is a 2D image obtained by projecting a 3D face model matched with a 2D input image at the same point as a viewpoint in a 2D input image, and a face pose represented by a 2D projection image is a 2D input It may be the same as the pose of the user's face shown in the image. The face recognition can be performed by matching the previously stored 3D face model with the face pose shown in the 2D input image and comparing the 2D projection image with the 2D input image to perform face recognition. Even if the face pose of the user displayed on the 2D input image is not the front face, the recognition rate according to the pose change can be improved by performing the face recognition by matching the 3D face model to the face pose shown in the 2D input image.

이하에서는, 위에 설명된 얼굴 인식 시스템(100)의 동작을 보다 자세히 설명하도록 한다. 얼굴 인식 시스템(100)에 의해 수행되는 얼굴 인식 동작은 크게, 사용자의 3D 얼굴 모델을 등록하는 과정(110) 및 등록된 3D 얼굴 모델을 이용하여 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)을 포함할 수 있다.Hereinafter, the operation of the above-described face recognition system 100 will be described in more detail. The face recognition operation performed by the face recognition system 100 mainly includes a process 110 of registering a 3D face model of a user and a process of recognizing a face of a user from a 2D input image using a registered 3D face model 120 ).

사용자의 3D 얼굴 모델을 등록하는 과정(110)에서, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 동일 사용자에 대한 복수의 2D 얼굴 영상들을 획득(130)할 수 있다. 복수의 2D 얼굴 영상들은 사용자의 얼굴을 다양한 시점에서 촬영한 영상들을 포함할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴을 정면 및 측면에서 촬영한 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상은 사용자의 얼굴 영역을 포함하는 영상을 나타내나, 얼굴의 전체 영역이 포함되어야 할 필요는 없다. 얼굴 인식 시스템(100)은 획득된 복수의 2D 얼굴 영상들에서 얼굴의 특징점(또는, 랜드마크(landmark))을 검출(140)할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다.In the process 110 of registering the 3D face model of the user, the face recognition system 100 may acquire 130 2D face images for the same user for face registration. The plurality of 2D facial images may include images of the user's face at various view points. For example, the face recognition system 100 can acquire 2D face images taken from the front and side of the user's face through the camera. A 2D face image represents an image including a face region of a user, but it is not necessary that the entire face region is included. The face recognition system 100 may detect (140) feature points (or landmarks) of a face in a plurality of obtained 2D face images. For example, the face recognition system 100 may detect feature points that include contours of eyebrows, eyes, nose, mouth, jaw, hair, ear, and / or face in 2D facial images.

얼굴 인식 시스템(100)은 얼굴 등록을 위한 2D 얼굴 영상들에서 추출된 특징점들을 미리 결정된 3D 표준 모델에 적용하여 3D 모델 개인화를 수행(150)할 수 있다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델일 수 있다. 3D 표준 모델은 3D 형태와 텍스쳐(texture)로 구성될 수 있고, 3D 형태를 표현하는 파라미터들을 포함할 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델의 특징점들과 2D 얼굴 영상들로부터 추출된 특징점들을 서로 매칭시켜 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로 등록되어 저장될 수 있다.The face recognition system 100 can perform the personalization of the 3D model 150 by applying the extracted feature points from the 2D face images for face registration to a predetermined 3D standard model. The 3D standard model may be, for example, a deformable 3D morph model generated based on 3D face learning data. The 3D standard model may be composed of 3D shapes and textures, and may include parameters representing 3D shapes. The face recognition system 100 can generate a 3D face model for the user's face by matching the feature points extracted from the 3D standard model with the extracted feature points from the 2D face images. The generated 3D face model can be registered and stored as a 3D face model of the user displayed on the 2D face images.

다른 실시예에 따르면, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 복수의 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 얼굴 영상들과 함께 모션 센서(motion sensor)를 통해 2D 얼굴 영상들의 방향 데이터를 획득할 수 있고, 2D 얼굴 영상들의 매칭 정보 및 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델에 사용자의 얼굴에 관한 3D 데이터를 정합하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 저장되고, 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로서 등록될 수 있다.According to another embodiment, the face recognition system 100 may generate a 3D face model for a user using a plurality of 2D face images for face registration, motion data for 2D face images, and a 3D standard model . The face recognition system 100 can acquire direction data of 2D face images through a motion sensor together with 2D face images, and can acquire orientation data of 2D faces based on matching information and orientation data of 2D face images 3D data can be generated. The 3D data on the user's face may be a set of 3D points that form the shape of the user's face. The face recognition system 100 may generate a 3D face model for a user by matching 3D data related to a user's face to a 3D standard model. The generated 3D face model is stored and can be registered as a 3D face model of the user displayed on the 2D face images.

2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)에서, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득할 수 있다. 얼굴 인식 시스템(100)은 하나의 2D 입력 영상만으로도 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈 또는 표정에 따라 미리 저장된 3D 얼굴 모델을 조정(160)할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈에 매칭되도록 3D 얼굴 모델의 포즈를 조정하고, 2D 입력 영상에 나타난 얼굴 표정에 매칭되도록 3D 얼굴 모델의 표정을 조정할 수 있다.In the process 120 of recognizing a user's face from a 2D input image, the face recognition system 100 can acquire a 2D input image including a face region of the user through a camera. The face recognition system 100 can perform face recognition with only one 2D input image, but the scope of the embodiment is not limited thereto. The face recognition system 100 may adjust (160) a 3D face model previously stored according to facial pose or facial expression represented in a 2D input image. The face recognition system 100 adjusts the pose of the 3D face model so as to match the face pose represented in the 2D input image and adjusts the expression of the 3D face model to match the face expression shown in the 2D input image.

얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상과 정합된 3D 얼굴 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상과 2D 투영 영상을 서로 비교하여 얼굴 인식을 수행(170)하고, 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.The face recognition system 100 may generate a 2D projection image from a 3D face model matched with a 2D input image for face recognition. The face recognition system 100 compares the 2D input image with the 2D projection image to perform face recognition (170), and outputs the face recognition result. For example, the face recognition system 100 determines the degree of similarity between the face region represented by the 2D input image and the face region represented by the 2D projection image, and when the degree of similarity satisfies a predetermined condition, And if not, the recognition result of "face recognition failure" can be output.

얼굴 인식 시스템(100)은 도 2의 3D 얼굴 모델 생성 장치(200) 및 도 10의 3D 얼굴 모델 생성 장치(1000) 중 어느 하나와 도 3의 얼굴 인식 장치(300)를 포함할 수 있다. 사용자의 3D 얼굴 모델을 등록하는 과정(110)은, 도 2의 얼굴 모델 생성 장치(200) 또는 도 10의 얼굴 모델 생성 장치(1000)에 의해 수행될 수 있다. 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)은 얼굴 인식 장치(300)에 의해 수행될 수 있다.The face recognition system 100 may include any one of the 3D facial model generation apparatus 200 of FIG. 2 and the 3D facial model generation apparatus 1000 of FIG. 10 and the face recognition apparatus 300 of FIG. The process 110 of registering the 3D face model of the user can be performed by the face model generation apparatus 200 of FIG. 2 or the face model generation apparatus 1000 of FIG. The process 120 of recognizing the user's face from the 2D input image may be performed by the face recognition apparatus 300. [

도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(200)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(200)는 3D 얼굴 모델로서 3D 형태 모델 및 3D 텍스쳐 모델을 생성하고, 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 사용자에 대한 3D 얼굴 모델로 등록할 수 있다. 도 2를 참조하면, 3D 얼굴 모델 생성 장치(200)는 영상 획득부(210), 특징점 검출부(220), 3D 얼굴 모델 생성부(230) 및 3D 얼굴 모델 등록부(260)를 포함할 수 있다.2 is a diagram showing a configuration of a 3D face model generation apparatus according to an embodiment. The 3D facial model generating apparatus 200 can generate a 3D facial model for a user's face from a plurality of 2D facial images for face registration. The 3D facial model generating apparatus 200 can generate a 3D model and a 3D texture model as a 3D facial model and register the 3D model and 3D texture model as a 3D facial model for the user. Referring to FIG. 2, the 3D facial model generating apparatus 200 may include an image obtaining unit 210, a feature point detecting unit 220, a 3D facial model generating unit 230, and a 3D facial model registration unit 260.

영상 획득부(210)는 얼굴 등록을 위한 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 다양한 얼굴 포즈로 촬영된 사용자의 얼굴 영역을 포함할 수 있다. 영상 획득부(210)는 카메라를 통해 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 정면 영상으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있고, 측면 영상으로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 정면 영상과 측면 영상에 나타난 사용자의 얼굴 영역 간의 비교 처리를 통해 사용자 얼굴의 입체적 형태에 관한 정보가 결정될 수 있다. 일 실시예에 따르면, 사용자는 3D 얼굴 모델을 등록하기 위해 카메라를 통해 복수의 2D 얼굴 영상을 촬영할 수 있고, 영상 획득부(210)는 카메라를 통해 촬영된 2D 얼굴 영상들을 저장할 수 있다.The image obtaining unit 210 may obtain 2D face images of the user for face registration. The 2D facial images may include a face region of the user photographed in various facial pose. The image acquiring unit 210 may acquire 2D face images photographed at a plurality of viewpoints such as a front image and a side image through a camera. The overall 2D type information and texture information of the user's face can be extracted from the frontal image and more specific information regarding the face type can be extracted from the side image. For example, information about a stereoscopic shape of a user's face can be determined through a comparison process between a face image of a user and a face image displayed on a side image. According to an exemplary embodiment, a user may capture a plurality of 2D face images through a camera to register a 3D face model, and the image acquisition unit 210 may store 2D face images photographed through a camera.

특징점 검출부(220)는 2D 얼굴 영상에서 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 특징점 검출부(220)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(220)는 능동적 형태 모델(ASM, Active Shape Model), 능동적 외양 모델(AAM, Active Appearance model), 또는 SDM(Supervised Descent Method) 등을 이용하여 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다.The feature point detection unit 220 detects a face region in a 2D face image and detects feature points (or landmarks) of the face within the detected face region. For example, the feature point detection unit 220 can detect feature points located on the outline of eyebrows, eyes, nose, mouth, and / or jaw in 2D face images. According to an embodiment, the minutia matching point detector 220 may extract the 2D facial images from the 2D facial images using an Active Shape Model (ASM), an Active Appearance Model (AAM), or a Supervised Descent Method (SDM) The feature point of the face can be detected.

3D 얼굴 모델 생성부(230)는 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 사용자의 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델로서, 사용자 얼굴에 대한 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델이 생성될 수 있다. 3D 얼굴 모델 생성부(230)는 3D 형태 모델 생성부(240) 및 3D 텍스쳐 모델 생성부(250)를 포함할 수 있다.The 3D facial model generation unit 230 may generate a 3D facial model for the user's face based on the feature points detected from the 2D facial images. As the 3D face model, a 3D shape model and a 3D texture model that can be deformed with respect to the user's face can be generated. The 3D face model generation unit 230 may include a 3D shape model generation unit 240 and a 3D texture model generation unit 250.

3D 형태 모델 생성부(240)는 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다. 3D 형태 모델은 모델의 형태는 있으나 텍스쳐가 없는 3D 모델이다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다. 예를 들어, 3D 형태 모델 생성부(240)는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및/또는 턱 등의 특징점들과 3D 표준 모델의 특징점을 매칭시키는 것에 의해 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.The 3D shape model generation unit 240 may generate a 3D shape model for a user's face using a plurality of 2D face images captured at different points in time. The 3D shape model is a 3D model that has a model shape but no texture. The 3D shape model generation unit 240 may generate a 3D shape model based on the feature points of the face detected from the 2D face images. The 3D shape model generation unit 240 may determine the parameters for mapping the feature points detected from the 2D face images and the feature points of the 3D standard model and apply the determined parameters to the 3D standard model to generate the 3D shape model . For example, the 3D shape model generation unit 240 generates a 3D shape model by matching feature points of eyebrows, eyes, noses, mouths, and / or jaws detected in 2D face images with feature points of the 3D standard model, A 3D shape model can be generated.

다른 시점에서 촬영된 2D 얼굴 영상을 이용하여 3D 형태 모델을 생성함으로써, 보다 정교한 형태의 3D 형태 모델이 생성될 수 있다. 사용자 얼굴을 정면에서 촬영한 정면 영상만을 이용하여 3D 형태 모델을 생성하는 경우, 3D 형태 모델에서 코의 높이, 광대의 형태 등과 같은 입체적인 형상을 결정하기가 어려울 수 있다. 그러나, 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 3D 형태 모델을 생성하는 경우에는, 코의 높이, 광대의 형태 등에 대한 정보를 추가적으로 반영할 수 있으므로 3D 형태 모델을 보다 정교하게 형성할 수 있다.A more detailed 3D form model can be generated by generating a 3D form model using the 2D facial image photographed at another point in time. When a 3D shape model is created using only the front image captured from the front of the user's face, it may be difficult to determine a stereoscopic shape such as the height of the nose, the shape of the clown, etc. in the 3D shape model. However, in the case of creating a 3D shape model using a plurality of 2D face images photographed at different viewpoints, it is possible to additionally reflect information on the height of the nose, shape of the clown, etc., have.

3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 예를 들어, 3D 텍스쳐 모델 생성부(250)는 정면 영상에서 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 모델의 형태와 텍스쳐가 모두 존재하는 모델이다. 3D 텍스쳐 모델은 정밀도(level of detail)가 3D 형태 모델보다 높으며, 3D 형태 모델의 버텍스(vertex)들을 포함할 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 3D 모델의 형태가 고정되어 있고, 포즈 및 표정이 변화될 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 동일한 파라미터에 의해 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D texture model generation unit 250 may generate a 3D texture model based on the texture information extracted from at least one of the 2D face images and the 3D shape model. For example, the 3D texture model generation unit 250 may generate a 3D texture model by mapping the texture extracted from the front image to a 3D shape model. The 3D texture model is a model in which both the shape and the texture of the 3D model exist. The 3D texture model has a higher level of detail than the 3D shape model and can include vertices of the 3D shape model. The 3D shape model and the 3D texture model are fixed in the shape of the 3D model, and the pose and the expression can be changed. The 3D shape model and the 3D texture model can represent the same pose and expression by the same parameters.

3D 얼굴 모델 등록부(260)는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고, 저장할 수 있다. 예를 들어, 영상 획득부(210)가 획득한 2D 얼굴 영상의 사용자가 "A"라고 하면, 3D 얼굴 모델 등록부(350)는 "A"에 대해 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 "A"의 3D 얼굴 모델로 등록하고, 3D 얼굴 모델 저장부(미도시)에 "A"의 3D 형태 모델 및 3D 텍스쳐 모델을 저장할 수 있다.The 3D face model registration unit 260 can register and store the 3D shape model and the 3D texture model as a 3D face model of the user. For example, when the user of the 2D facial image acquired by the image obtaining unit 210 is "A ", the 3D facial model registration unit 350 registers the 3D form model and the 3D texture model generated for" A &Quot; A "model and 3D texture model in the 3D face model storage unit (not shown).

도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 위한 2D 입력 영상에 나타난 사용자에 대해 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 3D 얼굴 모델을 2D 입력 영상에 나타난 사용자의 얼굴 포즈와 동일한 포즈로 회전한 후, 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치(300)는 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써, 사용자의 포즈 변화에 강인한 얼굴 인식 방법을 제공한다. 도 3을 참조하면, 얼굴 인식 장치(300)는 영상 획득부(310), 3D 얼굴 모델 처리부(320), 및 얼굴 인식부(350)를 포함할 수 있다. 3D 얼굴 모델 처리부(320)는 얼굴 영역 검출부(330) 및 특징점 검출부(340)를 포함할 수 있다.3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an embodiment. The face recognition apparatus 300 can perform face recognition on the user displayed on the 2D input image for face recognition using the registered 3D face model. The face recognition apparatus 300 may generate a 2D projection image after rotating the 3D face model to the same pose as the face pose of the user shown in the 2D input image. The face recognition apparatus 300 can perform face recognition by comparing a 2D projection image with a 2D input image. The face recognition apparatus 300 provides a face recognition method that is robust to the user's pose change by performing the face recognition by matching the registered 3D face model with the face pose shown in the 2D input image. Referring to FIG. 3, the face recognition apparatus 300 may include an image acquisition unit 310, a 3D face model processing unit 320, and a face recognition unit 350. The 3D facial model processing unit 320 may include a face region detecting unit 330 and a feature point detecting unit 340.

영상 획득부(310)는 사용자의 얼굴 영역이 포함된 얼굴 인식을 위한 2D 입력 영상을 획득할 수 있다. 영상 획득부(310)는 카메라 등을 통해 사용자 인식 또는 사용자 인증을 위한 2D 입력 영상을 획득할 수 있다. 얼굴 인식 장치(300)는 하나의 2D 입력 영상을 이용하여 사용자에 대해 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다.The image obtaining unit 310 may obtain a 2D input image for face recognition including a face region of the user. The image acquiring unit 310 may acquire a 2D input image for user recognition or user authentication through a camera or the like. The face recognition apparatus 300 can perform face recognition on a user using one 2D input image, but the scope of the embodiment is not limited thereto.

얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출할 수 있다. 얼굴 영역 검출부(330)는 2D 입력 영상 내 밝기 분포, 오브젝트의 움직임, 색상 분포, 또는 눈 위치 등의 정보를 이용하여 2D 입력 영상에서 얼굴 영역을 식별하고, 얼굴 영역의 위치 정보를 추출할 수 있다. 예를 들어, 얼굴 영역 검출부(330)는 관련 기술 분야에서 일반적으로 이용되는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출할 수 있다.The face area detection unit 330 can detect the face area from the 2D input image. The face area detection unit 330 can identify the face area in the 2D input image and extract the position information of the face area using information such as brightness distribution, object motion, color distribution, or eye position in the 2D input image . For example, the face region detection unit 330 can detect a face region in a 2D input image using a Haar-like based Adaboost classifier commonly used in the related art.

특징점 검출부(340)는 2D 입력 영상 내 얼굴 영역으로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(340)는 Active Shape Model, Active Appearance Model, 또는 Supervised Descent Method 등을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. The feature point detection unit 340 can detect the feature points of the face from the face region in the 2D input image. For example, the feature point detection unit 340 can detect feature points including the outline of eyebrows, eyes, nose, mouth, jaw, hair, ear, and / or face from the face area. According to an exemplary embodiment, the feature point detector 340 may detect feature points of a face from a 2D input image using an Active Shape Model, an Active Appearance Model, or a Supervised Descent Method.

3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 정합 결과, 3D 얼굴 모델은 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 변형될 수 있다. 3D 얼굴 모델 처리부(320)는 3D 얼굴 모델에 2D 입력 영상으로부터 검출된 특징점들을 맵핑(mapping)하여 3D 얼굴 모델의 포즈 및 표정을 조정할 수 있다. 3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있다. 3D 형태 모델은 2D 입력 영상에 나타난 얼굴 포즈와 빠른 속도로 정합되는데 이용될 수 있고, 3D 텍스쳐 모델은 고해상도의 2D 투영 영상을 생성하는데 이용될 수 있다.The 3D facial model processing unit 320 can adjust the previously stored 3D facial model based on the detected feature points. The 3D facial model processing unit 320 can match the 3D facial model to the 2D input image based on the detected feature points. As a result of the matching, the 3D face model can be modified to match the facial pose and facial expression shown in the 2D input image. The 3D facial model processing unit 320 may adjust the pose and facial expression of the 3D facial model by mapping the detected feature points from the 2D input image to the 3D facial model. The 3D face model may include a 3D shape model and a 3D texture model. The 3D morph model can be used to quickly match the facial pose seen in the 2D input image, and the 3D texture model can be used to generate high resolution 2D projected images.

3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 포즈에 따라 3D 형태 모델의 포즈를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 특징점들과 3D 형태 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델의 포즈를 2D 입력 영상에 나타난 포즈에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상으로부터 검출된 특징점에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다.The 3D facial model processing unit 320 can adjust the pose of the 3D form model according to the pose represented in the 2D input image. The 3D facial model processing unit 320 may match the pose of the 3D model to the pose of the 2D input image by matching the feature points detected in the 2D input image and the feature points of the 3D model. The 3D facial model processing unit 320 can adjust the pose parameter and the facial expression parameter of the 3D morphological model based on the minutiae detected from the 2D input image.

또한, 3D 얼굴 모델 처리부(320)는 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상과 3D 형태 모델의 정합 과정에서 결정된 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용할 수 있다. 적용 결과로서, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정을 가지도록 조정될 수 있다. 3D 텍스쳐 모델을 조정한 후, 3D 얼굴 모델 처리부(320)는 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다.In addition, the 3D facial model processing unit 320 can adjust the 3D texture model based on the parameter information of the 3D shape model. The 3D facial model processing unit 320 may apply the pose parameters and the facial expression parameters determined in the matching process of the 2D input image and the 3D shape model to the 3D texture model. As a result of the application, the 3D texture model can be adjusted to have the same pose and expression as the pose and expression of the 3D shape model. After adjusting the 3D texture model, the 3D face model processing unit 320 may generate a 2D projection image by projecting the adjusted 3D texture model in a plane.

얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. The face recognition unit 350 may perform face recognition by comparing the 2D input image and the 2D projection image. The face recognizing unit 350 can perform face recognition based on the similarity between the face region displayed in the 2D input image and the face region displayed in the 2D projection image. The face recognition unit 350 may determine the similarity between the 2D input image and the 2D projection image, and output the face recognition result based on whether the similarity satisfies a predetermined condition.

얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하기 위해 얼굴 인식 기술 분야에서 일반적으로 이용되는 특징 값 결정 방법을 이용할 수 있다. 예를 들어, 얼굴 인식부(350)는 Gabor 필터, LBP(Local Binary Pattern), HOG(Histogram of Oriented Gradient), PCA(Principal component analysis), 또는 LDA(Linear Discriminant Analysis) 등과 같은 특징 추출용 필터를 이용하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다. Gabor 필터는 다양한 크기와 각도를 갖는 다중 필터를 이용하여 영상으로부터 특징을 추출하는 필터이고, LBP는 영상에서 현재 픽셀과 주변 픽셀과의 차이를 특징으로 추출하는 필터이다. 일 실시예에 따르면, 얼굴 인식부(350)는 2D 입력 영상 및 2D 투영 영상에 나타난 얼굴 영역을 일정한 크기의 셀(cell)로 분할한 후, 각 셀마다 LBP에 대한 히스토그램(해당 셀에 속하는 LBP 인덱스 값들에 대한 히스토그램)을 계산할 수 있다. 얼굴 인식부(350)는 계산된 히스토그램들을 일렬로 연결한 벡터를 최종 특징 값으로 결정하고, 2D 입력 영상의 최종 특징 값과 2D 투영 영상의 최종 특징 값을 비교하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다.The face recognition unit 350 may use a feature value determination method generally used in the field of face recognition technology to determine the similarity between the 2D input image and the 2D projection image. For example, the face recognition unit 350 may extract a feature extraction filter such as Gabor filter, Local Binary Pattern (LBP), Histogram of Oriented Gradient (HOG), Principal Component Analysis (PCA), or Linear Discriminant Analysis The degree of similarity between the 2D input image and the 2D projection image can be determined. The Gabor filter is a filter that extracts features from an image using multiple filters having various sizes and angles, and LBP is a filter that characteristically extracts differences between the current pixel and neighboring pixels in the image. According to one embodiment, the face recognizing unit 350 divides the face region represented by the 2D input image and the 2D projection image into cells of a predetermined size, and then generates a histogram for the LBP for each cell (LBP A histogram for the index values). The face recognition unit 350 determines the vector obtained by connecting the calculated histograms in a line as a final feature value, compares the final feature value of the 2D input image with the final feature value of the 2D projection image, The degree of similarity can be determined.

일 실시예에 따르면, 얼굴 인식 장치(300)는 디스플레이부(360)를 더 포함할 수 있다. 디스플레이부(360)는 2D 입력 영상, 2D 투영 영상 및/또는 얼굴 인식 결과를 디스플레이할 수 있다. 사용자가 디스플레이된 2D 입력 영상에 기초하여 얼굴이 제대로 촬영되지 않다고 판단한 경우, 또는 최종적으로 얼굴 인식이 실패하였다고 디스플레이된 경우, 사용자는 얼굴을 다시 촬영할 수 있고, 얼굴 인식 장치(300)는 재촬영되어 생성된 2D 입력 영상에 대해 얼굴 인식을 다시 수행할 수 있다.According to one embodiment, the face recognition apparatus 300 may further include a display unit 360. [ The display unit 360 may display a 2D input image, a 2D projection image, and / or a face recognition result. If the user determines that the face is not properly photographed based on the displayed 2D input image, or if it is finally displayed that the face recognition has failed, the user can photograph the face again, and the face recognition apparatus 300 is re-photographed The face recognition can be performed again on the generated 2D input image.

도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다. 도 4를 참조하면, 영상(420)은 사용자의 얼굴을 정면에서 촬영하여 획득된 2D 얼굴 영상을 나타내고, 영상들(410, 430)은 사용자의 얼굴을 측면에서 촬영하여 획득된 2D 얼굴 영상들을 나타낸다. 정면에서 촬영된 영상(420)으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있다. 측면에서 촬영된 영상들(410, 430)로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 영상(420)으로부터 추출된 사용자의 얼굴 형태에 기초하여 사용자 얼굴에 관한 기본 모델을 설정하고, 영상들(410, 430)로부터 추출된 사용자의 얼굴 형태에 기초하여 해당 기본 모델의 입체적 형태를 결정할 수 있다.4 is a diagram for explaining a process of detecting feature points in a plurality of 2D facial images according to an exemplary embodiment of the present invention. Referring to FIG. 4, an image 420 represents a 2D face image obtained by photographing a user's face from the front, and images 410 and 430 represent 2D face images obtained by photographing a user's face from a side face . The overall 2D shape information and texture information of the user's face can be extracted from the image 420 taken in front. More specific information regarding the face shape can be extracted from the images 410 and 430 photographed from the side. For example, a basic model related to a user's face is set based on the face shape of the user extracted from the image 420, and a three-dimensional model of the basic model based on the face shape of the user extracted from the images 410, The shape can be determined.

3D 얼굴 모델 생성 장치(200)의 특징점 검출부(220)는 영상들(410, 420, 430)과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들에서 얼굴의 특징점들을 검출할 수 있다. 얼굴의 특징점은 눈썹, 눈, 코, 입, 턱 등의 윤곽 영역에 위치하는 특징점을 나타낸다. 특징점 검출부(220)는 관련 기술 분야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등의 방식을 이용하여 영상들(410, 420, 430)에서 얼굴의 특징점을 검출할 수 있다. ASM 모델(또는, AAM 모델, SDM 모델)의 포즈, 스케일, 또는 위치에 대한 초기화는 얼굴 검출 결과에 기초하여 수행될 수 있다.The feature point detection unit 220 of the 3D facial model generation apparatus 200 can detect facial feature points in 2D face images captured at a plurality of points of view such as the images 410, The feature points of the face represent feature points located in the outline areas of eyebrows, eyes, nose, mouth, and jaw. The feature point detector 220 can detect facial feature points in the images 410, 420, and 430 using a method such as ASM, AAM, or SDM generally known in the related art. Initialization of a pose, scale, or position of the ASM model (or AAM model, SDM model) may be performed based on the face detection result.

영상(440)은 영상(410)의 얼굴 영역(442) 내에서 특징점(444)들이 검출된 결과 영상을 나타내고, 영상 (450)은 영상(420)의 얼굴 영역(452) 내에서 특징점(454)들이 검출된 결과 영상을 나타낸다. 마찬가지로, 영상(460)은 영상(430)의 얼굴 영역(462) 내에서 특징점(464)들이 검출된 결과 영상을 나타낸다.The image 440 represents a result image in which the feature points 444 are detected in the face region 442 of the image 410 and the image 450 represents the feature point 454 in the face region 452 of the image 420. [ Are detected. Likewise, the image 460 represents the resulting image in which the feature points 464 are detected within the face region 462 of the image 430.

도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다. 도 5를 참조하면, 모델(510)은 3D 표준 모델을 나타낸다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델로서, 평균 형태와 파라미터를 통해 사용자 얼굴의 신원(identity)을 나타낼 수 있는 파라메트릭 모델(parametric model)일 수 있다.FIG. 5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an embodiment. Referring to FIG. 5, the model 510 represents a 3D standard model. The 3D standard model is, for example, a deformable 3D shape model created based on 3D face learning data, and is a parametric model capable of representing the identity of a user's face through an average shape and parameters .

3D 표준 모델은 다음의 수학식 1과 같이, 평균 형태와 형태 변화량으로 구성될 수 있다. 형태 변화량은 형태 파라미터와 형태 벡터의 가중합(weighted sum)이다.The 3D standard model may be composed of an average shape and a shape change amount as shown in the following Equation (1). The shape change amount is a weighted sum of a shape parameter and a shape vector.

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
는 3D 표준 모델의 3D 형태를 구성하는 엘리먼트들을 나타내고,
Figure pat00003
는 3D 표준 모델의 평균 형태에 관한 엘리먼트들을 나타낸다.
Figure pat00004
는 인덱스 계수 i에 대응하는 형태 엘리먼트들을 나타내고,
Figure pat00005
는 인덱스 계수 i에 대응하는 형태 엘리먼트에 적용되는 형태 파라미터를 나타낸다.here,
Figure pat00002
Represents the elements constituting the 3D form of the 3D standard model,
Figure pat00003
Represent elements relating to the average shape of the 3D standard model.
Figure pat00004
Represents the shape elements corresponding to the index coefficient i,
Figure pat00005
Represents a shape parameter applied to a shape element corresponding to the index coefficient i.

3D 표준 모델의 3D 형태를 구성하는 엘리먼트들

Figure pat00006
는 다음의 수학식 2와 같이 3차원 점들의 좌표로 구성될 수 있다.Elements that make up the 3D form of the 3D standard model
Figure pat00006
Can be configured as coordinates of three-dimensional points as shown in the following Equation (2).

여기서,

Figure pat00008
Figure pat00009
는 3차원 점(
Figure pat00010
,
Figure pat00011
,
Figure pat00012
)의 인덱스를 나타내는 변수이고, T는 트랜스포즈(transpose)를 나타낸다.here,
Figure pat00008
The
Figure pat00009
Is a three-dimensional point (
Figure pat00010
,
Figure pat00011
,
Figure pat00012
), And T represents a transpose.

3D 얼굴 모델 생성 장치(200)의 3D 형태 모델 생성부(240)는 사용자의 얼굴을 등록하기 위해, 복수의 시점들에서 촬영된 2D 얼굴 영상들에 기초하여 3D 표준 모델을 개인화할 수 있다. 3D 형태 모델 생성부(240)는 3D 표준 모델에 포함된 특징점들과 2D 얼굴 영상들에서 검출된 얼굴의 특징점들을 매칭시킬 수 있는 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.The 3D model generation unit 240 of the 3D model generation apparatus 200 may personalize the 3D standard model based on the 2D face images photographed at a plurality of points in order to register the face of the user. The 3D shape model generation unit 240 determines the parameters that can match the feature points of the face detected in the 2D face images with the feature points included in the 3D standard model and applies the determined parameters to the 3D standard model, A 3D shape model can be generated.

모델들(520, 530)은 3D 표준 모델(510)로부터 생성된 사용자 얼굴에 대한 3D 형태 모델들을 나타낸다. 모델(520)은 정면에서 바라본 3D 형태 모델을 나타내고, 모델(530)은 측면에서 바라본 3D 형태 모델을 나타낸다. 3D 형태 모델은 형태 정보는 존재하나, 텍스쳐 정보가 존재하지 않는 모델로서, 사용자 인증 과정에서 2D 입력 영상과 고속으로 정합하는데 이용될 수 있다.The models 520 and 530 represent 3D shape models for the user's face generated from the 3D standard model 510. The model 520 represents the 3D shape model viewed from the front, and the model 530 represents the 3D shape model viewed from the side. The 3D shape model exists in the shape information but does not exist in the texture information, and can be used for matching with the 2D input image at high speed in the user authentication process.

3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나의 2D 얼굴 영상에서 추출한 텍스쳐를 3D 형태 모델의 표면에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 형태 모델의 표면에 텍스쳐를 맵핑한다는 것은, 예를 들어, 정면에서 촬영된 2D 얼굴 영상에서 추출한 텍스쳐 정보에 3D 형태 모델로부터 획득된 깊이 정보를 추가한다는 것을 나타낼 수 있다.The 3D texture model generation unit 250 may generate a 3D texture model by mapping a texture extracted from at least one 2D face image among the 2D face images to a surface of the 3D shape model. Mapping the texture to the surface of the 3D morphology model may indicate, for example, adding the depth information obtained from the 3D morphology model to the texture information extracted from the 2D face image photographed from the front.

모델들(540, 550)는 3D 형태 모델에 기초하여 생성된 3D 텍스쳐 모델들을 나타낸다. 모델(540)은 정면에서 바라본 3D 텍스쳐 모델을 나타내고, 모델(550)은 대각 방향에서 바라본 3D 텍스쳐 모델을 나타낸다. 3D 텍스쳐 모델은 형태 정보와 텍스쳐 정보가 모두 존재하는 모델로서, 사용자 인증 과정에서 2D 투영 영상을 생성하는데 이용될 수 있다. The models 540 and 550 represent the 3D texture models generated based on the 3D shape model. The model 540 represents the 3D texture model viewed from the front, and the model 550 represents the 3D texture model viewed from the diagonal direction. The 3D texture model is a model in which both shape information and texture information exist, and can be used to generate a 2D projection image in a user authentication process.

3D 형태 모델 및 3D 텍스쳐 모델은 사용자의 고유 특징을 나타내는 얼굴의 형태는 고정되어 있고, 포즈 또는 표정이 변형될 수 있는 3D 모델이다. 3D 텍스쳐 모델은 3D 형태 모델보다 정밀도가 높으며, 보다 많은 버텍스를 포함하고 있다. 3D 형태 모델을 구성하는 버텍스들은 3D 텍스쳐 모델을 구성하는 버텍스들의 하위 집합(subset)으로, 동일한 파라미터에 의해 3D 형태 모델과 3D 텍스쳐 모델은 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D shape model and the 3D texture model are 3D models in which the shape of the face representing the characteristic of the user is fixed and the pose or expression can be deformed. The 3D texture model is more accurate than the 3D shape model and contains more vertices. The vertices constituting the 3D shape model are a subset of the vertices constituting the 3D texture model, and the 3D shape model and the 3D texture model can represent the same pose and expression by the same parameters.

도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다. 도 6을 참조하면, 영상(610)은 얼굴 인식 또는 사용자 인증을 위해 얼굴 인식 장치에 입력되는 2D 입력 영상으로서, 카메라를 통해 촬영된 얼굴 포즈 영상을 나타낸다.6 is a diagram illustrating a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment. Referring to FIG. 6, an image 610 is a 2D input image input to a face recognition apparatus for face recognition or user authentication, and represents a face pose image photographed through a camera.

얼굴 인식 장치(300)의 얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 특징점 검출부(340)는 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 입, 또는 턱 등의 윤곽에 위치하는 특징점들을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 ASM, AAM, 또는 SDM 등의 방식을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 영상(620)는 얼굴 영역 검출부(330)에 의해 영상(610)에서 얼굴 영역(630)이 검출되고, 특징점 검출부(340)에 의해 얼굴 영역(630) 내에서 특징점(640)들이 검출된 결과 영상을 나타낸다.The face region detection unit 330 of the face recognition apparatus 300 detects the face region from the 2D input image and the feature point detection unit 340 detects the face region from the 2D input image by using the outline of the eye, eyebrows, nose, mouth, It is possible to detect feature points located. For example, the feature point detection unit 340 can detect feature points of a face from a 2D input image using a method such as ASM, AAM, or SDM. The image 620 is obtained by detecting the face region 630 in the image 610 by the face region detecting unit 330 and detecting the feature points 640 in the face region 630 by the feature point detecting unit 340 .

3D 얼굴 모델 처리부(320)는 미리 등록되어 저장된 3D 형태 모델을 2D 입력 영상에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 파라미터를 조절하여 포즈 및 표정을 조정할 수 있다. 모델(650)은 미리 등륵되어 저장된 사용자 얼굴에 대한 3D 형태 모델을 나타내고, 모델(660)은 영상(610)에서 검출된 얼굴의 특징점(640)들에 기초하여 포즈 및 표정이 조정된 3D 형태 모델을 나타낸다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일하게 미리 저장된 3D 형태 모델의 포즈를 조정할 수 있다. 2D 입력 영상인 영상(610)에서, 사용자는 얼굴을 측면으로 회전한 포즈를 취하고 있고, 3D 얼굴 모델 처리부(320)에 의해 포즈가 조정된 3D 형태 모델도 영상(610)에서의 사용자 포즈와 동일하게 얼굴이 측면으로 회전한 포즈를 취하고 있다.The 3D facial model processing unit 320 may register the 3D form model previously registered and stored in the 2D input image. The 3D facial model processing unit 320 can adjust the pose and facial expression by adjusting parameters of the 3D form model based on the facial feature points detected in the 2D input image. The model 650 represents a 3D shape model of the user's face stored in advance and the model 660 is a 3D shape model in which the pose and the facial expression are adjusted based on the feature points 640 of the face detected in the image 610. [ . The 3D facial model processing unit 320 may adjust a pose of a 3D model previously stored in the same manner as a pose of a user face displayed in a 2D input image. In the 2D input image 610, the user takes a pose rotated to the side of the face, and the 3D form model whose pose is adjusted by the 3D face model processing unit 320 is the same as the user pose in the image 610 The face is taking a pose rotated to the side.

도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다. 얼굴 인식 장치(300)의 3D 얼굴 모델 처리부(320)는 얼굴 인식을 위한 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 조정된 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용하여, 3D 텍스쳐 모델의 포즈 및 표정을 3D 형태 모델과 동일하게 조정할 수 있다. 그 후, 3D 얼굴 모델 처리부(320)는 3D 텍스쳐 모델을 영상 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도에 기초하여 얼굴 인식을 수행하고, 얼굴 인식 결과를 출력할 수 있다.FIG. 7 is a diagram for explaining a process of performing face recognition by comparing a 2D input image and a 2D projection image according to an embodiment. The 3D face model processing unit 320 of the face recognition apparatus 300 can adjust the pose parameters and the facial expression parameters of the 3D form model based on the facial feature points detected in the 2D input image for face recognition. The 3D facial model processing unit 320 may apply the pose parameters and facial parameters of the adjusted 3D shape model to the 3D texture model so that the pose and expression of the 3D texture model may be adjusted in the same manner as the 3D shape model. Thereafter, the 3D facial model processing unit 320 may generate a 2D projected image by projecting the 3D texture model onto the image plane. The face recognition unit 350 can perform face recognition based on the similarity between the 2D input image and the 2D projection image, and output the face recognition result.

도 7을 참조하면, 영상(710)은 얼굴 인식을 위해 이용되는 2D 입력 영상을 나타낸다. 영상(720)은 얼굴 인식부(350)가 얼굴 인식을 수행하기 위해 2D 입력 영상인 영상(710)과 비교되는 기준 영상이다. 영상(720)에 포함된 영역(730)은 3D 텍스쳐 모델로부터 생성된 2D 투영 영상이 반영된 영역을 나타낸다. 예를 들어, 영역(730)은 도 6의 형태 모델(660)에 텍스쳐가 맵핑된 텍스쳐 모델이 영상 평면으로 투영된 얼굴 영역일 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 사용자의 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역만을 비교하여 얼굴 인식을 수행할 수 있다. 또는, 얼굴 인식부(350)는 도 7에서와 같이 2D 입력 영상인 영상(710)과 2D 입력 영상에 2D 투영 영상이 반영된 결과 영상인 영상(720)의 전체 영역을 비교하여 얼굴 인식을 수행할 수도 있다.Referring to FIG. 7, an image 710 represents a 2D input image used for face recognition. The image 720 is a reference image that is compared with the image 710, which is a 2D input image, for the face recognition unit 350 to perform face recognition. An area 730 included in the image 720 represents an area where the 2D projection image generated from the 3D texture model is reflected. For example, region 730 may be a face region projected onto the image plane by the texture model to which the texture is mapped in shape model 660 of FIG. The face recognizing unit 350 can perform face recognition by comparing only the face region displayed on the 2D projection image with the face region of the user displayed on the 2D input image. Alternatively, the face recognizing unit 350 may perform face recognition by comparing the entire region of the image 720, which is the 2D input image, with the 2D image, and the image 720, which is the result image of the 2D projection image, It is possible.

도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.FIG. 8 is a flowchart illustrating an operation of a 3D face model generation method according to an embodiment.

단계(810)에서, 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 사용자의 얼굴을 등록하는데 이용될 수 있다. 2D 얼굴 영상들은, 예를 들어, 정면 영상 및 측면 영상과 같이 다양한 얼굴 포즈로 촬영된 영상들을 포함할 수 있다.In step 810, the 3D face model generation apparatus may acquire 2D face images of the user photographed at a plurality of points of view through the camera. 2D facial images can be used to register a user's face. 2D facial images may include images photographed in various facial pose such as, for example, a frontal image and a lateral image.

단계(820)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 관련 기술 분아야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등을 이용하여 2D 얼굴 영상들로부터 눈썹, 눈, 코, 입 등의 윤곽에 위치한 얼굴의 특징점들을 검출할 수 있다.In step 820, the 3D facial model generation apparatus may detect facial feature points from the 2D facial images. For example, the 3D facial model generation device detects facial feature points located on the contours of eyebrows, eyes, nose, and mouth from 2D facial images using ASM, AAM, or SDM, which are commonly known in related technology fields can do.

단계(830)에서, 3D 얼굴 모델 생성 장치는 검출된 특징점에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및 턱 등의 특징점들과 3D 표준 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다.In step 830, the 3D face model generation device may generate a 3D shape model based on the detected feature points. The 3D facial model generating apparatus can generate a 3D form model by matching the feature points of the eyebrow, eye, nose, mouth, and jaw detected in the 2D facial images with the feature points of the 3D standard model. The 3D facial model generation apparatus can determine the parameters for mapping the feature points detected from the 2D facial images and the feature points of the 3D standard model, and apply the determined parameters to the 3D standard model to generate the 3D model.

단계(840)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상으로부터 추출한 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 적어도 하나의 2D 얼굴 영상으로부터 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 사용자 얼굴에 대한 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 텍스쳐 모델의 파라미터가 적용되어 3D 텍스쳐 모델과 동일한 포즈 및 표정을 나타낼 수 있다.In step 840, the 3D face model generation device may generate a 3D texture model based on the texture information extracted from the 2D face image and the 3D shape model. The 3D facial model generation apparatus may generate a 3D texture model for a user's face by mapping a texture extracted from at least one 2D facial image to a 3D model. The 3D texture model can apply the parameters of the 3D texture model to represent the same pose and expression as the 3D texture model.

단계(850)에서, 3D 얼굴 모델 생성 장치는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고 저장할 수 있다. 저장된 3D 형태 모델 및 3D 텍스쳐 모델은 사용자 인증 과정에서 2D 입력 영상에 나타난 사용자를 인증하기 위해 이용될 수 있다.In step 850, the 3D face model generation device may register and store the 3D shape model and the 3D texture model as a user's 3D face model. The stored 3D shape model and 3D texture model can be used to authenticate the user appearing in the 2D input image during the user authentication process.

도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.FIG. 9 is a flowchart illustrating an operation of the face recognition method according to an embodiment.

단계(910)에서, 얼굴 인식 장치는 얼굴 인식을 위한 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 얼굴 인식 장치는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 턱, 입 등의 윤곽에 위치한 얼굴의 특징점을 검출할 수 있다. 예를 들어, 얼굴 인식 장치는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출하고, ASM, AAM, 또는 SDM 등을 이용하여 얼굴 영역 내에서 얼굴의 특징점을 검출할 수 있다.In step 910, the face recognition apparatus can detect the feature points of the face from the 2D input image for face recognition. The face recognition apparatus can detect the face region from the 2D input image and detect the feature points of the face located in the outline of the eye, eyebrow, nose, jaw, mouth, etc. within the detected face region. For example, the facial recognition system can detect the facial region in 2D input image using Haar-like based Adaboost classifier, and detect facial feature points in facial region using ASM, AAM, or SDM.

단계(920)에서, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 사용자의 3D 얼굴 모델을 조정할 수 있다. 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 3D 얼굴 모델을 변형할 수 있다.In step 920, the face recognition apparatus may adjust the 3D face model of the user registered in advance based on the detected feature points in the 2D input image. The face recognition apparatus can match the 3D face model previously registered based on the feature points detected in the 2D input image to the 2D input image. The face recognition device can transform the 3D face model so that it matches the facial pose and facial expression shown in the 2D input image.

3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점들에 기초하여 3D 형태 모델의 포즈를 조정하고, 포즈가 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 얼굴 인식 장치 2D 입력 영상으로부터 검출된 특징점들에 기초하여 3D형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하고, 3D 형태 모델의 조정된 파라미터들을 3D 텍스쳐 모델에 적용할 수 있다. 파라미터들의 적용 결과, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정으로 조정될 수 있다.The 3D face model may include a 3D shape model and a 3D texture model. The face recognition apparatus adjusts the pose of the 3D shape model based on the detected feature points in the 2D input image, The 3D texture model can be adjusted based on the information. The pose parameter and the facial expression parameter of the 3D shape model can be adjusted based on the feature points detected from the 2D input image of the face recognition apparatus, and the adjusted parameters of the 3D shape model can be applied to the 3D texture model. As a result of applying the parameters, the 3D texture model can be adjusted to the same pose and expression as the pose and expression of the 3D shape model.

단계(930)에서, 얼굴 인식 장치는 3D 텍스쳐 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치는 단계(920)에서 3D 형태 모델에 기초하여 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 얼굴 포즈와 동일할 수 있다. 예를 들어, 2D 입력 영상에서 나타난 사용자의 얼굴 포즈가 측면을 바라보는 포즈라고 하면, 단계(910) 내지 단계(930)을 통해 생성된 2D 투영 영상도 2D 입력 영상에서와 동일하게 3D 텍스쳐 모델이 측면을 바라보는 얼굴 포즈를 나타낼 수 있다.In step 930, the face recognition apparatus may generate a 2D projection image from the 3D texture model. The face recognition apparatus may generate a 2D projection image by projecting the adjusted 3D texture model on a plane based on the 3D shape model in step 920. [ The facial pose in the 2D projection image may be the same as the facial pose in the 2D input image. For example, if the face pose of the user shown in the 2D input image is a pose facing the side, the 2D projection image generated through steps 910 to 930 may be the same as the 2D input image, It is possible to show a face pose that looks to the side.

단계(940)에서, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.In step 940, the face recognition apparatus may perform face recognition by comparing the 2D input image and the 2D projection image. The face recognition apparatus can perform face recognition based on the degree of similarity between the face region represented in the 2D input image and the face region represented in the 2D projection image. The face recognition apparatus may determine the similarity between the 2D input image and the 2D projection image, and output the face recognition result based on whether the similarity satisfies a predetermined condition. For example, when the similarity between the 2D input image and the 2D projection image satisfies a predetermined condition, the face recognition apparatus outputs the recognition result of "face recognition success ", and if not, Can be output.

도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(1000)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(1000)는 다양한 방향에서 촬영된 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 도 10을 참조하면, 3D 얼굴 모델 생성 장치(1000)는 영상 획득부(1010), 모션 센싱부(1020), 3D 얼굴 모델 생성부(1030) 및 3D 얼굴 모델 등록부(1040)를 포함할 수 있다.10 is a diagram showing a detailed configuration of a 3D face model generation apparatus according to another embodiment. The 3D facial model generation apparatus 1000 can generate a 3D facial model for a user's face from a plurality of 2D facial images for face registration. The 3D facial model generating apparatus 1000 can generate a 3D facial model for a user using 2D facial images photographed in various directions, motion data for 2D facial images, and a 3D standard model. 10, the 3D face model generation apparatus 1000 may include an image acquisition unit 1010, a motion sensing unit 1020, a 3D face model generation unit 1030, and a 3D face model registration unit 1040 .

영상 획득부(1010)는 얼굴 등록을 위한 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 영상 획득부(1010)는 카메라를 통해 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다. 예를 들어, 영상 획득부(1010)는 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다.The image acquisition unit 1010 can acquire 2D face images photographed at a plurality of viewpoints for face registration. The image obtaining unit 1010 can obtain 2D face images of the user's face in various directions through the camera. For example, the image acquisition unit 1010 may acquire 2D face images photographed at a plurality of time points, such as a front image and a side image.

모션 센싱부(1020)는 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 모션 센싱부(1020)는 다양한 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 결정할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다. 예를 들어, 모션 센싱부(1020)는 가속도 센서(accelerometer), 각속도 센서(gyroscope) 및 자기 센서(magnetometer)를 포함하는 관성 측정 장치(inertial measurement unit; IMU)를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 결정할 수 있다.The motion sensing unit 1020 may acquire orientation data of 2D face images. The motion sensing unit 1020 can determine the orientation data of 2D face images using motion data sensed through various sensors. The orientation data of 2D face images may include information about the direction in which each 2D face image is captured. For example, the motion sensing unit 1020 may use an inertial measurement unit (IMU) including an accelerometer, a gyroscope, and a magnetometer to measure each 2D facial image The directional data can be determined.

예를 들어, 사용자는 카메라를 다양한 위치로 회전하여 얼굴을 촬영할 수 있고, 촬영 결과로서 다양한 시점에서 촬영된 2D 얼굴 영상들이 획득될 수 있다. 2D 얼굴 영상들이 촬영될 때, 모션 센싱부(1020)는 관성 측정 장치로부터 출력된 센싱 정보에 기초하여 2D 얼굴 영상들을 촬영한 카메라의 속도, 방향, 롤(roll), 피치(pitch) 및/또는 요(yaw)의 변화 등과 같은 모션 데이터를 계산하고, 모션 데이터로부터 2D 얼굴 영상들이 촬영된 방향에 관한 방향 데이터를 결정할 수 있다.For example, the user can photograph the face by rotating the camera to various positions, and 2D face images photographed at various points in time as the photographing result can be obtained. When the 2D face images are photographed, the motion sensing unit 1020 calculates the speed, direction, roll, pitch and / or the like of the camera that photographed the 2D face images based on the sensing information output from the inertial measurement device. Such as a change in yaw, and determine direction data on the direction in which 2D face images were taken from the motion data.

3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에 나타난 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 3D 얼굴 모델 생성부(1030) 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다.The 3D facial model generation unit 1030 may generate a 3D facial model for the user represented by the 2D facial images. The 3D face model generation unit 1030 may detect feature points (or landmarks) of the face from 2D face images. For example, the 3D facial model generation unit 1030 may detect feature points located on the contours of eyebrows, eyes, noses, mouths, and / or jaws in 2D face images. 3D face model generation unit 1030 can determine correspondence point information between 2D face images based on the feature points of the face detected from the 2D face images.

3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는, 예를 들어, 기존의 스테레오 매칭(stereo matching) 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 내지 표면을 구성하는 3D 포인트들의 집합일 수 있다.The 3D face model generation unit 1030 can generate 3D data related to the user's face based on the feature point information of the face detected from the 2D face images, the corresponding point information between the 2D face images, and the orientation data of the 2D face images . The 3D facial model generation unit 1030 may generate 3D data related to a user's face using, for example, a conventional stereo matching technique. The 3D data on the user's face may be a collection of 3D points that form the shape or surface of the user's face.

3D 얼굴 모델 생성부(1030)는 사용자의 얼굴에 관한 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 변형이 가능한(deformable) 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 사용자에 대한 3D 얼굴 모델은 사용자 얼굴의 형태에 관한 3D 형상 모델 및/또는 텍스쳐 정보를 포함하는 3D 텍스쳐 모델을 포함할 수 있다.The 3D face model generation unit 1030 may transform the 3D standard model into a 3D face model for the user by using the 3D data related to the user's face. The 3D face model generation unit 1030 may transform the 3D standard model into a 3D face model for the user by matching the deformable 3D standard model with the 3D data related to the user's face. The 3D face model generation unit 1030 may transform the 3D standard model into a 3D face model for the user by matching the feature points on the 3D data with the feature points on the 3D standard model. The 3D face model for the user may include a 3D texture model that includes a 3D shape model and / or texture information about the shape of the user's face.

3D 얼굴 모델 등록부(1040)는 3D 얼굴 모델 생성부(1030)에 의해 생성된 사용자에 대한 3D 얼굴 모델을 등록하고 저장할 수 있다. 저장된 사용자에 대한 3D 얼굴 모델은 사용자의 얼굴을 인식하기 위해 이용되고, 얼굴 인식 과정에서 형태가 변형될 수 있다.The 3D face model registration unit 1040 can register and store the 3D face model for the user generated by the 3D face model generation unit 1030. [ The 3D face model for the stored user is used to recognize the user's face, and the shape can be modified in the face recognition process.

도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation of a 3D face model generation method according to another embodiment.

단계(1110)에서, 3D 얼굴 모델 생성 장치는 얼굴 등록을 위한 복수의 2D 얼굴 영상들 및 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 3D 얼굴 모델 생성 장치는 정면 영상 및 측면 영상 등과 같이 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다.In step 1110, the 3D facial model generation apparatus may acquire orientation data of a plurality of 2D facial images and 2D facial images for face registration. The 3D face model generation apparatus can acquire 2D face images of a user photographed at a plurality of viewpoints through a camera. The 3D facial model generation apparatus can acquire 2D facial images of a user's face in various directions such as a front image and a side image.

3D 얼굴 모델 생성 장치는 모션 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 가속도 센서, 각속도 센서 및 자기 센서를 포함하는 관성 측정 장치를 통해 센싱된 모션 데이터를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 획득할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다.The 3D facial model generating apparatus can acquire direction data of 2D facial images using motion data sensed through a motion sensor. For example, the 3D face model generation apparatus can acquire direction data for each 2D face image using motion data sensed through an inertial measurement device including an acceleration sensor, an angular velocity sensor, and a magnetic sensor. The orientation data of 2D face images may include information about the direction in which each 2D face image is captured.

단계(1120)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 검출된 특징점들에 기초하여 2D 얼굴 영상들 사이에서 서로 대응되는 대응점을 검출할 수 있다.In step 1120, the 3D facial model generation apparatus may determine correspondence point information between the 2D facial images. The 3D facial model generation apparatus detects feature points of a face from 2D face images and detects corresponding points corresponding to each other between the 2D face images based on the detected feature points.

단계(1130)에서, 3D 얼굴 모델 생성 장치는 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 예를 들어, 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 또는 얼굴 표면을 구성하는 3D 포인트들의 집합으로서, 복수의 버텍스(vertex)들로 구성될 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성 장치는 기존의 스테레오 매칭 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.In step 1130, the 3D facial model generation device may generate 3D data relating to the user's face. For example, the 3D data about the user's face may be composed of a plurality of vertices as a collection of 3D points constituting the shape of the user's face or the face of the user. The 3D facial model generation apparatus can generate 3D data related to the user's face based on the feature point information of the face detected from the 2D facial images, the corresponding point information between the 2D facial images, and the orientation data of the 2D facial images. The 3D facial model generating apparatus can generate 3D data related to the user's face using the existing stereo matching technique.

단계(1140)에서, 3D 얼굴 모델 생성 장치는 단계(1130)에서 생성된 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 사용자에 대한 3D 얼굴 모델로서 3D 형상 모델 및/또는 3D 텍스쳐 모델을 생성할 수 있다. 생성된 사용자에 대한 3D 얼굴 모델은 저장 및 등록되고, 사용자의 얼굴을 인식하기 위해 이용될 수 있다.In step 1140, the 3D facial model generation apparatus may transform the 3D standard model into a 3D facial model for the user using the 3D data generated in step 1130. The 3D facial model generating device can transform the 3D standard model into a 3D facial model for the user by matching the 3D standard model with the 3D data related to the user's face. The 3D face model generation apparatus can generate a 3D face model for the user by matching feature points on the 3D data with feature points on the 3D standard model. The 3D face model generation device may generate a 3D shape model and / or a 3D texture model as a 3D face model for the user. The 3D face model for the created user is stored and registered, and can be used to recognize the user's face.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for an embodiment or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (32)

2D(dimensional) 입력 영상으로부터 얼굴의 특징점을 검출하는 단계;
상기 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계;
상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계
를 포함하는 얼굴 인식 방법.
Detecting a feature point of a face from a 2D input image;
Adjusting a pre-stored 3D face model based on the detected feature points;
Generating a 2D projection image from the adjusted 3D face model; And
Comparing the 2D input image with the 2D projection image to perform face recognition
And a face recognition unit.
제1항에 있어서,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑(mapping)하여 상기 3D 얼굴 모델의 포즈 및 표정을 조정하는 단계
를 포함하는 얼굴 인식 방법.
The method according to claim 1,
Wherein adjusting the 3D face model comprises:
Mapping the detected minutiae to the 3D facial model to adjust the pose and facial expression of the 3D facial model
And a face recognition unit.
제1항에 있어서,
상기 3D 얼굴 모델은, 3D 형태 모델(shape model) 및 3D 텍스쳐 모델(texture model)을 포함하고,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 2D 입력 영상으로부터 검출된 특징점에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및
상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계
를 포함하는 얼굴 인식 방법.
The method according to claim 1,
The 3D face model includes a 3D shape model and a 3D texture model,
Wherein adjusting the 3D face model comprises:
Adjusting the 3D shape model based on the feature points detected from the 2D input image; And
Adjusting the 3D texture model based on the parameter information of the adjusted 3D shape model
And a face recognition unit.
제3항에 있어서,
상기 3D 형태 모델을 조정하는 단계는,
상기 검출된 특징점에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계
를 포함하는 얼굴 인식 방법.
The method of claim 3,
Wherein adjusting the 3D shape model comprises:
Adjusting a pose parameter and a facial expression parameter of the 3D morphological model based on the detected feature point
And a face recognition unit.
제3항에 있어서,
상기 2D 투영 영상을 생성하는 단계는,
상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계
를 포함하는 얼굴 인식 방법.
The method of claim 3,
Wherein the generating the 2D projection image comprises:
Generating a 2D projection image from the adjusted 3D texture model
And a face recognition unit.
제1항에 있어서,
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은,
3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델인, 얼굴 인식 방법.
The method according to claim 1,
Wherein the 3D shape model and the 3D texture model include
A method for recognizing a face, wherein the shape of the 3D model is fixed, and a pose and a facial expression can be changed.
제1항에 있어서,
상기 2D 투영 영상은,
상기 2D 입력 영상에 나타난 얼굴 포즈와 동일한 얼굴 포즈를 나타내는, 얼굴 인식 방법.
The method according to claim 1,
The 2D projection image may include:
And a face pose that is the same as a face pose represented in the 2D input image.
제1항에 있어서,
상기 얼굴 인식을 수행하는 단계는,
상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및
상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계
를 포함하는 얼굴 인식 방법.
The method according to claim 1,
Wherein the step of performing face recognition comprises:
Determining a degree of similarity between the 2D input image and the 2D projection image; And
Outputting a face recognition result based on whether the similarity satisfies a predetermined condition
And a face recognition unit.
제1항에 있어서,
상기 얼굴의 특징점을 검출하는 단계는,
상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및
상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점을 검출하는 단계
를 포함하는 얼굴 인식 방법.
The method according to claim 1,
The step of detecting the feature points of the face includes:
Extracting a face region from the 2D input image; And
Detecting feature points contained in at least one of eyebrows, eyes, nose, mouth, jaw, ear, and face contour from the face region;
And a face recognition unit.
복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 단계;
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
Obtaining 2D face images of a user photographed at a plurality of viewpoints;
Detecting facial feature points from the 2D facial images;
Generating a deformable 3D shape model and a 3D texture model based on the detected feature points; And
Registering the 3D model and the 3D texture model as the 3D model of the user,
/ RTI > to generate a 3D face model.
제10항에 있어서,
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐(texture) 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
Wherein the generating the 3D shape model and the 3D texture model comprises:
Generating texture information based on texture information extracted from at least one of the 2D facial images and the 3D texture model,
/ RTI > to generate a 3D face model.
제10항에 있어서,
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑(mapping)하기 위한 파라미터를 결정하는 단계; 및
상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
Wherein the generating the 3D shape model and the 3D texture model comprises:
Determining parameters for mapping the detected minutiae points to minutiae points of the 3D standard model; And
Applying the determined parameter to the 3D standard model to generate the 3D shape model
/ RTI > to generate a 3D face model.
제10항에 있어서,
상기 3D 텍스쳐 모델은,
상기 3D 형태 모델의 버텍스(vertex)들을 포함하는, 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
In the 3D texture model,
Wherein the 3D model includes vertices of the 3D model.
제10항에 있어서,
상기 2D 얼굴 영상들은,
상기 사용자의 얼굴을 서로 다른 시점에서 촬영한 영상들을 포함하는, 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
The 2D facial images,
And the images of the face of the user are photographed at different viewpoints.
사용자의 얼굴을 촬영한 2D 얼굴 영상들 및 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계;
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계;
상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및
상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
Obtaining 2D face images of a user's face and orientation data of the 2D face images;
Determining corresponding point information between the 2D facial images;
Generating 3D data on the face of the user based on the orientation data of the 2D face images and corresponding point information between the 2D face images; And
Transforming a 3D standard model into a 3D face model for the user using the 3D data
/ RTI > to generate a 3D face model.
제15항에 있어서,
상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
Wherein transforming the 3D standard model into a 3D face model for the user comprises:
Wherein the 3D standard model is transformed into a 3D face model for the user by matching the 3D standard model with 3D data relating to the face of the user.
제15항에 있어서,
상기 사용자의 얼굴에 관한 3D 데이터는,
상기 사용자의 얼굴의 형태(shape)를 구성하는 3D 포인트들의 집합인, 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
The 3D data relating to the face of the user,
Wherein the 3D model is a set of 3D points constituting a shape of a face of the user.
제15항에 있어서,
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는,
모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득하는, 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
Wherein the obtaining of the orientation data of the 2D facial images comprises:
And acquiring orientation data of the 2D face images using motion data sensed by the motion sensor.
제15항에 있어서,
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 및
상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
Wherein the step of determining corresponding point information between the 2D face images comprises:
Detecting facial feature points from the 2D facial images; And
Determining corresponding point information between the 2D facial images based on the detected minutiae points
/ RTI > to generate a 3D face model.
제1항 내지 제19항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium on which a program for executing the method according to any one of claims 1 to 19 is recorded. 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하는 영상 획득부;
상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈(pose)에 따라 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 상기 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부
를 포함하는 얼굴 인식 장치.
An image acquiring unit acquiring a 2D input image including a face region of a user;
A 3D face model processing unit for adjusting a pose of a 3D face model previously stored according to a pose of a user's face displayed on the 2D input image and generating a 2D projection image from the 3D face model; And
A face recognition unit for comparing the 2D input image with the 2D projection image to perform face recognition,
The face recognition apparatus comprising:
제21항에 있어서,
상기 3D 얼굴 모델 처리부는,
상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및
상기 얼굴 영역으로부터 얼굴의 특징점을 검출하는 특징점 검출부
를 포함하는 얼굴 인식 장치.
22. The method of claim 21,
Wherein the 3D face model processing unit comprises:
A face region detection unit for detecting a face region from the 2D input image; And
A feature point detector for detecting a feature point of the face from the face region;
The face recognition apparatus comprising:
제22항에 있어서,
상기 3D 얼굴 모델 처리부는,
상기 검출된 특징점과 상기 미리 저장된 3D 얼굴 모델의 특징점을 매칭시키는 것에 의해 상기 3D 얼굴 모델의 포즈를 조정하는, 얼굴 인식 장치.
23. The method of claim 22,
Wherein the 3D face model processing unit comprises:
And adjusts the pose of the 3D face model by matching the detected feature point with a feature point of the previously stored 3D face model.
제21항에 있어서,
상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 상기 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는, 얼굴 인식 장치.
22. The method of claim 21,
Wherein the 3D face model includes a 3D shape model and a 3D texture model,
Wherein the 3D face model processing unit comprises:
Adjusts a pose of the 3D model according to a face pose of a user displayed on the input image, and adjusts the 3D texture model based on parameter information of the adjusted 3D model.
제24항에 있어서,
상기 3D 얼굴 모델 처리부는,
상기 조정된 3D 텍스쳐 모델을 평면으로 투영하여 상기 2D 투영 영상을 생성하는, 얼굴 인식 장치.
25. The method of claim 24,
Wherein the 3D face model processing unit comprises:
And projecting the adjusted 3D texture model to a plane to generate the 2D projection image.
제21항에 있어서,
상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부
를 더 포함하는 얼굴 인식 장치.
22. The method of claim 21,
And a display unit for displaying at least one of the 2D input image, the 2D projection image,
Further comprising:
복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부;
상기 2D 얼굴 영상들로부터 얼굴의 특징점을 검출하는 특징점 검출부;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하는 3D 얼굴 모델 생성 장치.
An image acquiring unit for acquiring 2D face images of a user photographed at a plurality of viewpoints;
A feature point detector for detecting a feature point of a face from the 2D face images;
A 3D face model generation unit for generating a 3D shape model and a 3D texture model that can be transformed based on the detected minutiae; And
A 3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the 3D face model of the user,
And a 3D face model generation unit.
제27항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는, 3D 얼굴 모델 생성 장치.
28. The method of claim 27,
Wherein the 3D facial model generation unit comprises:
Determining parameters for mapping the detected minutiae points and minutiae points of the 3D standard model, and applying the determined parameters to the 3D standard model to generate the 3D morph model.
제27항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부
를 포함하는 3D 얼굴 모델 생성 장치.
28. The method of claim 27,
Wherein the 3D facial model generation unit comprises:
A 3D shape model generation unit for generating a 3D shape model of the face of the user based on the detected feature points of the face; And
A 3D texture model generating unit for generating a 3D texture model based on the texture information extracted from at least one of the 2D face images and the 3D shape model,
And a 3D face model generation unit.
복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부;
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부;
상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부;
상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하는 3D 얼굴 모델 생성 장치.
An image acquiring unit for acquiring 2D face images of a user photographed at a plurality of viewpoints;
A motion sensing unit for acquiring orientation data of the 2D face images;
Generating 3D data relating to the face of the user based on corresponding point information between the 2D face images and direction data of the 2D face images and transforming the 3D standard model into a 3D face model for the user using the 3D data A 3D facial model generating unit;
A 3D face model registration unit for registering and storing a 3D face model for the user,
And a 3D face model generation unit.
제30항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는, 3D 얼굴 모델 생성 장치.
31. The method of claim 30,
Wherein the 3D facial model generation unit comprises:
Detecting feature points of the face from the 2D face images, and determining correspondence point information between the 2D face images based on the detected feature points.
제30항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 장치.
31. The method of claim 30,
Wherein the 3D facial model generation unit comprises:
Wherein the 3D standard model is matched to 3D data relating to the user's face to transform the 3D standard model into a 3D face model for the user.
KR1020150001850A 2014-09-05 2015-01-07 Method and apparatus for face recognition KR102357340B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/796,224 US20160070952A1 (en) 2014-09-05 2015-07-10 Method and apparatus for facial recognition
EP19200425.7A EP3614303A1 (en) 2014-09-05 2015-07-15 Method and apparatus for facial recognition
EP15176898.3A EP2993614B1 (en) 2014-09-05 2015-07-15 Method and device for facial recognition
CN202210474282.3A CN114627543A (en) 2014-09-05 2015-07-24 Method and apparatus for face recognition
CN201510441052.7A CN106203248A (en) 2014-09-05 2015-07-24 Method and apparatus for face recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140118828 2014-09-05
KR1020140118828 2014-09-05

Publications (2)

Publication Number Publication Date
KR20160029629A true KR20160029629A (en) 2016-03-15
KR102357340B1 KR102357340B1 (en) 2022-02-03

Family

ID=55542177

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150001850A KR102357340B1 (en) 2014-09-05 2015-01-07 Method and apparatus for face recognition

Country Status (2)

Country Link
KR (1) KR102357340B1 (en)
CN (1) CN106203248A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170136691A (en) * 2016-06-01 2017-12-12 가천대학교 산학협력단 Method of facial recognition in camera image
CN108858201A (en) * 2018-08-15 2018-11-23 深圳市烽焌信息科技有限公司 It is a kind of for nursing the robot and storage medium of children
CN111310512A (en) * 2018-12-11 2020-06-19 杭州海康威视数字技术股份有限公司 User identity authentication method and device
KR102145517B1 (en) * 2019-05-31 2020-08-18 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for registration of 3-dimentional measured data
CN112384928A (en) * 2018-08-01 2021-02-19 三星电子株式会社 Method and apparatus for performing object illumination manipulation on an image
KR20210047920A (en) * 2019-05-15 2021-04-30 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Creation of a face model
WO2024048960A1 (en) * 2022-08-29 2024-03-07 삼성전자 주식회사 Electronic device for providing avatar based on user face and operating method thereof

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11010595B2 (en) * 2017-03-23 2021-05-18 Samsung Electronics Co., Ltd. Facial verification method and apparatus
CN108932459B (en) * 2017-05-26 2021-12-10 富士通株式会社 Face recognition model training method and device and face recognition method
CN108171182B (en) * 2017-12-29 2022-01-21 Oppo广东移动通信有限公司 Electronic device, face recognition method and related product
CN108470186A (en) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 A kind of matching process and device of image characteristic point
KR102543656B1 (en) * 2018-03-16 2023-06-15 삼성전자주식회사 Screen controlling method and electronic device supporting the same
CN109255327A (en) * 2018-09-07 2019-01-22 北京相貌空间科技有限公司 Acquisition methods, face's plastic operation evaluation method and the device of face characteristic information
EP3674974A1 (en) * 2018-12-31 2020-07-01 Samsung Electronics Co., Ltd. Apparatus and method with user verification
CN110097035A (en) * 2019-05-15 2019-08-06 成都电科智达科技有限公司 A kind of facial feature points detection method based on 3D human face rebuilding
KR20240025320A (en) * 2022-08-18 2024-02-27 슈퍼랩스 주식회사 Method, computer device, and computer program to create 3d avatar based on multi-angle image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115847A (en) * 2003-10-10 2005-04-28 Babcock Hitachi Kk Method for collating objects reflected in two-dimensional image and specific three-dimensional image
JP2010128742A (en) * 2008-11-27 2010-06-10 Casio Computer Co Ltd Three-dimensional data creation device
JP2011039869A (en) * 2009-08-13 2011-02-24 Nippon Hoso Kyokai <Nhk> Face image processing apparatus and computer program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100412885C (en) * 2005-05-23 2008-08-20 株式会社东芝 Image recognition apparatus and method
CN101159015B (en) * 2007-11-08 2010-12-08 清华大学 Two-dimensional human face image recognizing method
JP4569670B2 (en) * 2008-06-11 2010-10-27 ソニー株式会社 Image processing apparatus, image processing method, and program
CN101499132B (en) * 2009-03-12 2013-05-01 广东药学院 Three-dimensional transformation search method for extracting characteristic points in human face image
CN102156537B (en) * 2010-02-11 2016-01-13 三星电子株式会社 A kind of head pose checkout equipment and method
CN102271241A (en) * 2011-09-02 2011-12-07 北京邮电大学 Image communication method and system based on facial expression/action recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115847A (en) * 2003-10-10 2005-04-28 Babcock Hitachi Kk Method for collating objects reflected in two-dimensional image and specific three-dimensional image
JP2010128742A (en) * 2008-11-27 2010-06-10 Casio Computer Co Ltd Three-dimensional data creation device
JP2011039869A (en) * 2009-08-13 2011-02-24 Nippon Hoso Kyokai <Nhk> Face image processing apparatus and computer program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170136691A (en) * 2016-06-01 2017-12-12 가천대학교 산학협력단 Method of facial recognition in camera image
CN112384928A (en) * 2018-08-01 2021-02-19 三星电子株式会社 Method and apparatus for performing object illumination manipulation on an image
CN108858201A (en) * 2018-08-15 2018-11-23 深圳市烽焌信息科技有限公司 It is a kind of for nursing the robot and storage medium of children
CN111310512A (en) * 2018-12-11 2020-06-19 杭州海康威视数字技术股份有限公司 User identity authentication method and device
CN111310512B (en) * 2018-12-11 2023-08-22 杭州海康威视数字技术股份有限公司 User identity authentication method and device
KR20210047920A (en) * 2019-05-15 2021-04-30 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Creation of a face model
US11836943B2 (en) 2019-05-15 2023-12-05 Beijing Sensetime Technology Development Co., Ltd. Virtual face model creation based on key point
KR102145517B1 (en) * 2019-05-31 2020-08-18 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for registration of 3-dimentional measured data
WO2024048960A1 (en) * 2022-08-29 2024-03-07 삼성전자 주식회사 Electronic device for providing avatar based on user face and operating method thereof

Also Published As

Publication number Publication date
KR102357340B1 (en) 2022-02-03
CN106203248A (en) 2016-12-07

Similar Documents

Publication Publication Date Title
KR102357340B1 (en) Method and apparatus for face recognition
EP2993614B1 (en) Method and device for facial recognition
KR102290392B1 (en) Method and apparatus for registering face, method and apparatus for recognizing face
KR101997500B1 (en) Method and apparatus for generating personalized 3d face model
US9881204B2 (en) Method for determining authenticity of a three-dimensional object
JP4653606B2 (en) Image recognition apparatus, method and program
EP3147827A1 (en) Face recognition method and apparatus
WO2015165365A1 (en) Facial recognition method and system
KR101647803B1 (en) Face recognition method through 3-dimension face model projection and Face recognition system thereof
KR20190097640A (en) Device and method for matching image
WO2009128784A1 (en) Face expressions identification
EP3825905A1 (en) Method and apparatus with liveness test and/or biometric authentication, computer program therefore and medium storing the same
KR102476016B1 (en) Apparatus and method for determining position of eyes
US11238271B2 (en) Detecting artificial facial images using facial landmarks
Han et al. 3D face texture modeling from uncalibrated frontal and profile images
JP6351243B2 (en) Image processing apparatus and image processing method
KR20210069404A (en) Liveness test method and liveness test apparatus
JP6410450B2 (en) Object identification device, object identification method, and program
Segundo et al. Real-time scale-invariant face detection on range images
US11048926B2 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
Bauer et al. 4D Photogeometric face recognition with time-of-flight sensors
Sun et al. Dual camera based feature for face spoofing detection
Vankayalapati et al. Extraction of facial features for the real-time human gender classification
Bottino et al. A fast and robust method for the identification of face landmarks in profile images
Moridani et al. Powerful processing to three-dimensional facial recognition using triple information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant