KR20160029629A - Method and apparatus for face recognition - Google Patents
Method and apparatus for face recognition Download PDFInfo
- Publication number
- KR20160029629A KR20160029629A KR1020150001850A KR20150001850A KR20160029629A KR 20160029629 A KR20160029629 A KR 20160029629A KR 1020150001850 A KR1020150001850 A KR 1020150001850A KR 20150001850 A KR20150001850 A KR 20150001850A KR 20160029629 A KR20160029629 A KR 20160029629A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- model
- user
- facial
- images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G06K9/00241—
-
- G06K9/00208—
-
- G06K9/00268—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
Description
아래의 설명은 사용자의 얼굴을 식별하는 얼굴 인식 기술에 관한 것이다.The following description relates to a face recognition technique for identifying a user's face.
생체 인식 기술 중 하나인 얼굴 인식 기술은, 지문 인식, 홍채 인식 등 사용자의 특별한 동작이나 행위를 요구하는 인식 기술과 다르게, 대상자를 비접촉식으로 확인할 수 있는 장점 때문에 편리하고 경쟁력 있는 생체 인식 기술로 평가 받고 있다. 최근에는, 편리함과 효율성 때문에 얼굴 인식 기술이 보안 시스템, 모바일 인증, 멀티미디어 데이터 검색 등의 다양한 응용 분야에 활발하게 적용되고 있다.Face recognition technology, which is one of the biometrics technologies, is evaluated as convenient and competitive biometrics technology because it has the advantages of non-contact recognition of the subject, unlike recognition technology which requires user's special action or action such as fingerprint recognition and iris recognition have. In recent years, face recognition technology has been actively applied to various applications such as security system, mobile authentication, and multimedia data search because of convenience and efficiency.
일 실시예에 따른 얼굴 인식 방법은, 2D 입력 영상으로부터 얼굴의 특징점을 검출하는 단계; 상기 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계; 상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a face recognition method comprising: detecting a feature point of a face from a 2D input image; Adjusting a pre-stored 3D face model based on the detected feature points; Generating a 2D projection image from the adjusted 3D face model; And performing face recognition by comparing the 2D input image and the 2D projection image.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑하여 상기 3D 얼굴 모델의 포즈 및 표정을 조정하는 단계를 포함할 수 있다.In the method of recognizing a face according to an exemplary embodiment, the step of adjusting the 3D face model may include a step of mapping the detected feature points to the 3D face model to adjust a pose and a facial expression of the 3D face model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은, 3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델일 수 있다.In the face recognition method, the 3D face model may include a 3D shape model and a 3D texture model. In the 3D shape model and the 3D texture model, the shape of the 3D model is fixed, And a model in which the expression can be changed.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 2D 입력 영상으로부터 검출된 특징점에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an exemplary embodiment, adjusting the 3D face model may include adjusting the 3D shape model based on the feature points detected from the 2D input image; And adjusting the 3D texture model based on parameter information of the adjusted 3D shape model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 형태 모델을 조정하는 단계는, 상기 검출된 특징점에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계를 포함할 수 있다.In the face recognition method according to an exemplary embodiment, adjusting the 3D shape model may include adjusting a pose parameter and a facial expression parameter of the 3D shape model based on the detected feature point.
일 실시예에 따른 얼굴 인식 방법에서, 상기 2D 투영 영상을 생성하는 단계는, 상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계를 포함할 수 있다.In the face recognition method according to an exemplary embodiment, the step of generating the 2D projection image may include generating a 2D projection image from the adjusted 3D texture model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 미리 저장된 3D 얼굴 모델은, 복수의 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 생성될 수 있고, 상기 2D 얼굴 영상들은, 사용자의 얼굴을 복수의 시점들에서 촬영한 영상들일 수 있다.In the face recognition method according to an embodiment, the pre-stored 3D face model may be generated based on the feature points detected from the plurality of 2D face images, and the 2D face images may be generated from a plurality of viewpoints May be images photographed by the user.
일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴 인식을 수행하는 단계는, 상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및 상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계를 포함할 수 있다.In the method of recognizing a face according to an exemplary embodiment, performing the face recognition may include determining a degree of similarity between the 2D input image and the 2D projection image; And outputting a face recognition result based on whether or not the similarity satisfies a predetermined condition.
일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴의 특징점을 검출하는 단계는, 상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및 상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점을 검출하는 단계를 포함할 수 있다.In the method of detecting a face according to an exemplary embodiment, the step of detecting a feature point of the face may include extracting a face region from the 2D input image; And detecting feature points included in at least one of an eyebrow, an eye, a nose, a mouth, a jaw, an ear, and an outline of a face from the face region.
일 실시예에 따른 3D 얼굴 모델 생성 방법은, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 단계; 상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계를 포함할 수 있다.A 3D face model generation method according to an embodiment includes: obtaining 2D face images of a user photographed at a plurality of view points; Detecting facial feature points from the 2D facial images; Generating a deformable 3D shape model and a 3D texture model based on the detected feature points; And registering and storing the 3D model and the 3D texture model as the 3D model of the user.
일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계를 포함할 수 있다.In the 3D face model generation method according to an exemplary embodiment, the step of generating the 3D shape model and the 3D texture model may include generating texture information based on the texture information extracted from at least one of the 2D face images, And generating a model.
일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하는 단계; 및 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계를 포함할 수 있다.In the 3D face model generation method according to an exemplary embodiment, the step of generating the 3D shape model and the 3D texture model may include: determining parameters for mapping the detected feature points and the feature points of the 3D standard model; And applying the determined parameter to the 3D standard model to generate the 3D shape model.
다른 실시예에 따른 3D 얼굴 모델 생성 방법은, 사용자의 얼굴을 촬영한 2D 얼굴 영상들 및 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계; 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계; 상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a 3D face model generation method comprising: obtaining 2D face images of a user's face and orientation data of the 2D face images; Determining corresponding point information between the 2D facial images; Generating 3D data on the face of the user based on the orientation data of the 2D face images and corresponding point information between the 2D face images; And transforming the 3D standard model into the 3D face model for the user using the 3D data.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는, 모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다.In the 3D face model generation method according to another embodiment, the direction data of the 2D face images may be obtained by using the motion data sensed by the motion sensor.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 사용자의 얼굴에 관한 3D 데이터는, 상기 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다.In the 3D face model generation method according to another embodiment, the 3D data on the face of the user may be a set of 3D points constituting the shape of the face of the user.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는, 상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.In the 3D face model generation method according to another exemplary embodiment, the step of transforming the 3D standard model into the 3D face model for the user includes matching the 3D standard model with 3D data related to the face of the user, To the 3D face model for the user.
일 실시예에 따른 얼굴 인식 장치는, 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하는 영상 획득부; 상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈에 따라 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 상기 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부를 포함할 수 있다.According to an embodiment of the present invention, there is provided a face recognition apparatus including an image acquisition unit for acquiring a 2D input image including a face region of a user; A 3D face model processing unit for adjusting a pose of a 3D face model previously stored according to a pose of a user's face displayed on the 2D input image and generating a 2D projection image from the 3D face model; And a face recognition unit for performing face recognition by comparing the 2D input image and the 2D projection image.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및 상기 얼굴 영역으로부터 얼굴의 특징점을 검출하는 특징점 검출부를 포함할 수 있다.In the face recognition apparatus, the 3D face model processing unit may include: a face region detecting unit that detects a face region from the 2D input image; And a feature point detection unit for detecting feature points of the face from the face region.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 검출된 특징점과 상기 미리 저장된 3D 얼굴 모델의 특징점을 매칭시키는 것에 의해 상기 3D 얼굴 모델의 포즈를 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit can adjust the pose of the 3D face model by matching the detected feature points with the minutiae points of the previously stored 3D face model.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다.In the face recognition apparatus, the 3D face model processing unit adjusts the pose of the 3D model according to the face pose of the user displayed on the 2D input image, and based on the parameter information of the adjusted 3D model, You can adjust the 3D texture model.
일 실시예에 따른 얼굴 인식 장치는, 상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부를 더 포함할 수 있다.The face recognition apparatus may further include a display unit for displaying at least one of the 2D input image, the 2D projection image, and the face recognition result.
일 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들로부터 얼굴의 특징점을 검출하는 특징점 검출부; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.An apparatus for generating a 3D face model according to an exemplary embodiment includes an image obtaining unit that obtains 2D face images of a user photographed at a plurality of time points; A feature point detector for detecting a feature point of a face from the 2D face images; A 3D face model generation unit for generating a 3D shape model and a 3D texture model that can be transformed based on the detected minutiae; And a 3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the 3D face model of the user.
일 실시예에 따른 3D 얼굴 모델 생성 장치에서, 상기 3D 얼굴 모델 생성부는, 상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부를 포함할 수 있다.In the apparatus for generating a 3D facial model according to an exemplary embodiment, the 3D facial model generating unit may include a 3D form model generating unit for generating a 3D form model for the user's face based on the detected feature points of the face; And a 3D texture model generation unit for generating a 3D texture model based on the 3D shape model and texture information extracted from at least one of the 2D face images.
다른 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부; 상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부; 상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for generating a 3D facial model, comprising: an image acquiring unit for acquiring 2D face images of a user photographed at a plurality of points of time; A motion sensing unit for acquiring orientation data of the 2D face images; Generating 3D data relating to the face of the user based on corresponding point information between the 2D face images and direction data of the 2D face images and transforming the 3D standard model into a 3D face model for the user using the 3D data A 3D facial model generating unit; And a 3D face model registration unit for registering and storing the 3D face model for the user.
도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다.
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.1 is a diagram for explaining an overall operation of a face recognition system according to an embodiment.
2 is a diagram showing a detailed configuration of a 3D facial model generating apparatus according to an embodiment.
3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an embodiment.
4 is a diagram for explaining a process of detecting feature points in a plurality of 2D facial images according to an exemplary embodiment of the present invention.
FIG. 5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an embodiment.
6 is a diagram illustrating a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment.
FIG. 7 is a diagram for explaining a process of performing face recognition by comparing a 2D input image and a 2D projection image according to an embodiment.
FIG. 8 is a flowchart illustrating an operation of a 3D face model generation method according to an embodiment.
FIG. 9 is a flowchart illustrating an operation of the face recognition method according to an embodiment.
10 is a diagram showing a detailed configuration of a 3D face model generation apparatus according to another embodiment.
11 is a flowchart illustrating an operation of a 3D face model generation method according to another embodiment.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The specific structural or functional descriptions below are illustrated for purposes of illustration only and are not to be construed as limiting the scope of the embodiments to those described in the text. Those skilled in the art will appreciate that various modifications and changes may be made thereto without departing from the scope of the present invention. In addition, the same reference numerals shown in the drawings denote the same members, and the well-known functions and structures are omitted.
도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다. 얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상에서 사용자의 얼굴을 인식할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상을 분석하여 2D 입력 영상에 나타난 사용자의 얼굴을 추출하고, 식별할 수 있다. 얼굴 인식 시스템(100)은 감시/보안 시스템, 모바일 인증, 또는 멀티미디어 데이터 검색 등의 다양한 어플리케이션 영역에서 활용될 수 있다.1 is a diagram for explaining an overall operation of a face recognition system according to an embodiment. The
얼굴 인식 시스템(100)은 사용자에 대한 3D(dimensional) 얼굴 모델을 등록하고, 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 수행할 수 있다. 3D 얼굴 모델은 변형이 가능한(deformable) 3D 모델로서 2D 입력 영상에 나타난 사용자의 얼굴 포즈 또는 얼굴 표정에 따라 변형될 수 있다. 예를 들어, 2D 입력 영상에 나타난 얼굴 포즈가 왼쪽 측면을 바라보고 있는 포즈인 경우, 얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델을 왼쪽 측면을 바라보도록 회전시킬 수 있다. 또한, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 사용자 얼굴의 표정에 따라 3D 얼굴 모델의 표정을 조정할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에서 검출된 얼굴의 특징점에 기초하여 사용자 얼굴의 표정을 분석하고, 분석된 얼굴 표정에 대응되도록 3D 얼굴 모델의 눈, 입, 코 등의 형태를 조정할 수 있다.The
얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델로부터 2D 투영 영상(projection image)을 생성하고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 2D 영상들을 이용함으로써 실시간으로 얼굴 인식이 수행될 수 있다. 2D 투영 영상은 3D 얼굴 모델을 평면으로 투영하여 나타낸 2D 영상이다. 예를 들어, 2D 투영 영상은 2D 입력 영상과 정합(matching)된 3D 얼굴 모델을 2D 입력 영상에서의 시점(viewpoint)과 동일한 시점에서 투영한 2D 영상으로, 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일할 수 있다. 미리 저장된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합시키고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행하는 것에 의해 얼굴 인식을 수행할 수 있다. 2D 입력 영상에 나타난 사용자의 얼굴 포즈가 정면이 아니라 하더라도 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써 포즈 변화에 따른 인식률이 개선될 수 있다.The
이하에서는, 위에 설명된 얼굴 인식 시스템(100)의 동작을 보다 자세히 설명하도록 한다. 얼굴 인식 시스템(100)에 의해 수행되는 얼굴 인식 동작은 크게, 사용자의 3D 얼굴 모델을 등록하는 과정(110) 및 등록된 3D 얼굴 모델을 이용하여 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)을 포함할 수 있다.Hereinafter, the operation of the above-described
사용자의 3D 얼굴 모델을 등록하는 과정(110)에서, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 동일 사용자에 대한 복수의 2D 얼굴 영상들을 획득(130)할 수 있다. 복수의 2D 얼굴 영상들은 사용자의 얼굴을 다양한 시점에서 촬영한 영상들을 포함할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴을 정면 및 측면에서 촬영한 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상은 사용자의 얼굴 영역을 포함하는 영상을 나타내나, 얼굴의 전체 영역이 포함되어야 할 필요는 없다. 얼굴 인식 시스템(100)은 획득된 복수의 2D 얼굴 영상들에서 얼굴의 특징점(또는, 랜드마크(landmark))을 검출(140)할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다.In the
얼굴 인식 시스템(100)은 얼굴 등록을 위한 2D 얼굴 영상들에서 추출된 특징점들을 미리 결정된 3D 표준 모델에 적용하여 3D 모델 개인화를 수행(150)할 수 있다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델일 수 있다. 3D 표준 모델은 3D 형태와 텍스쳐(texture)로 구성될 수 있고, 3D 형태를 표현하는 파라미터들을 포함할 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델의 특징점들과 2D 얼굴 영상들로부터 추출된 특징점들을 서로 매칭시켜 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로 등록되어 저장될 수 있다.The
다른 실시예에 따르면, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 복수의 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 얼굴 영상들과 함께 모션 센서(motion sensor)를 통해 2D 얼굴 영상들의 방향 데이터를 획득할 수 있고, 2D 얼굴 영상들의 매칭 정보 및 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델에 사용자의 얼굴에 관한 3D 데이터를 정합하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 저장되고, 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로서 등록될 수 있다.According to another embodiment, the
2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)에서, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득할 수 있다. 얼굴 인식 시스템(100)은 하나의 2D 입력 영상만으로도 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈 또는 표정에 따라 미리 저장된 3D 얼굴 모델을 조정(160)할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈에 매칭되도록 3D 얼굴 모델의 포즈를 조정하고, 2D 입력 영상에 나타난 얼굴 표정에 매칭되도록 3D 얼굴 모델의 표정을 조정할 수 있다.In the
얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상과 정합된 3D 얼굴 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상과 2D 투영 영상을 서로 비교하여 얼굴 인식을 수행(170)하고, 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.The
얼굴 인식 시스템(100)은 도 2의 3D 얼굴 모델 생성 장치(200) 및 도 10의 3D 얼굴 모델 생성 장치(1000) 중 어느 하나와 도 3의 얼굴 인식 장치(300)를 포함할 수 있다. 사용자의 3D 얼굴 모델을 등록하는 과정(110)은, 도 2의 얼굴 모델 생성 장치(200) 또는 도 10의 얼굴 모델 생성 장치(1000)에 의해 수행될 수 있다. 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)은 얼굴 인식 장치(300)에 의해 수행될 수 있다.The
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(200)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(200)는 3D 얼굴 모델로서 3D 형태 모델 및 3D 텍스쳐 모델을 생성하고, 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 사용자에 대한 3D 얼굴 모델로 등록할 수 있다. 도 2를 참조하면, 3D 얼굴 모델 생성 장치(200)는 영상 획득부(210), 특징점 검출부(220), 3D 얼굴 모델 생성부(230) 및 3D 얼굴 모델 등록부(260)를 포함할 수 있다.2 is a diagram showing a configuration of a 3D face model generation apparatus according to an embodiment. The 3D facial
영상 획득부(210)는 얼굴 등록을 위한 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 다양한 얼굴 포즈로 촬영된 사용자의 얼굴 영역을 포함할 수 있다. 영상 획득부(210)는 카메라를 통해 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 정면 영상으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있고, 측면 영상으로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 정면 영상과 측면 영상에 나타난 사용자의 얼굴 영역 간의 비교 처리를 통해 사용자 얼굴의 입체적 형태에 관한 정보가 결정될 수 있다. 일 실시예에 따르면, 사용자는 3D 얼굴 모델을 등록하기 위해 카메라를 통해 복수의 2D 얼굴 영상을 촬영할 수 있고, 영상 획득부(210)는 카메라를 통해 촬영된 2D 얼굴 영상들을 저장할 수 있다.The
특징점 검출부(220)는 2D 얼굴 영상에서 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 특징점 검출부(220)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(220)는 능동적 형태 모델(ASM, Active Shape Model), 능동적 외양 모델(AAM, Active Appearance model), 또는 SDM(Supervised Descent Method) 등을 이용하여 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다.The feature
3D 얼굴 모델 생성부(230)는 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 사용자의 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델로서, 사용자 얼굴에 대한 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델이 생성될 수 있다. 3D 얼굴 모델 생성부(230)는 3D 형태 모델 생성부(240) 및 3D 텍스쳐 모델 생성부(250)를 포함할 수 있다.The 3D facial
3D 형태 모델 생성부(240)는 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다. 3D 형태 모델은 모델의 형태는 있으나 텍스쳐가 없는 3D 모델이다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다. 예를 들어, 3D 형태 모델 생성부(240)는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및/또는 턱 등의 특징점들과 3D 표준 모델의 특징점을 매칭시키는 것에 의해 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.The 3D shape
다른 시점에서 촬영된 2D 얼굴 영상을 이용하여 3D 형태 모델을 생성함으로써, 보다 정교한 형태의 3D 형태 모델이 생성될 수 있다. 사용자 얼굴을 정면에서 촬영한 정면 영상만을 이용하여 3D 형태 모델을 생성하는 경우, 3D 형태 모델에서 코의 높이, 광대의 형태 등과 같은 입체적인 형상을 결정하기가 어려울 수 있다. 그러나, 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 3D 형태 모델을 생성하는 경우에는, 코의 높이, 광대의 형태 등에 대한 정보를 추가적으로 반영할 수 있으므로 3D 형태 모델을 보다 정교하게 형성할 수 있다.A more detailed 3D form model can be generated by generating a 3D form model using the 2D facial image photographed at another point in time. When a 3D shape model is created using only the front image captured from the front of the user's face, it may be difficult to determine a stereoscopic shape such as the height of the nose, the shape of the clown, etc. in the 3D shape model. However, in the case of creating a 3D shape model using a plurality of 2D face images photographed at different viewpoints, it is possible to additionally reflect information on the height of the nose, shape of the clown, etc., have.
3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 예를 들어, 3D 텍스쳐 모델 생성부(250)는 정면 영상에서 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 모델의 형태와 텍스쳐가 모두 존재하는 모델이다. 3D 텍스쳐 모델은 정밀도(level of detail)가 3D 형태 모델보다 높으며, 3D 형태 모델의 버텍스(vertex)들을 포함할 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 3D 모델의 형태가 고정되어 있고, 포즈 및 표정이 변화될 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 동일한 파라미터에 의해 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D texture
3D 얼굴 모델 등록부(260)는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고, 저장할 수 있다. 예를 들어, 영상 획득부(210)가 획득한 2D 얼굴 영상의 사용자가 "A"라고 하면, 3D 얼굴 모델 등록부(350)는 "A"에 대해 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 "A"의 3D 얼굴 모델로 등록하고, 3D 얼굴 모델 저장부(미도시)에 "A"의 3D 형태 모델 및 3D 텍스쳐 모델을 저장할 수 있다.The 3D face
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 위한 2D 입력 영상에 나타난 사용자에 대해 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 3D 얼굴 모델을 2D 입력 영상에 나타난 사용자의 얼굴 포즈와 동일한 포즈로 회전한 후, 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치(300)는 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써, 사용자의 포즈 변화에 강인한 얼굴 인식 방법을 제공한다. 도 3을 참조하면, 얼굴 인식 장치(300)는 영상 획득부(310), 3D 얼굴 모델 처리부(320), 및 얼굴 인식부(350)를 포함할 수 있다. 3D 얼굴 모델 처리부(320)는 얼굴 영역 검출부(330) 및 특징점 검출부(340)를 포함할 수 있다.3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an embodiment. The
영상 획득부(310)는 사용자의 얼굴 영역이 포함된 얼굴 인식을 위한 2D 입력 영상을 획득할 수 있다. 영상 획득부(310)는 카메라 등을 통해 사용자 인식 또는 사용자 인증을 위한 2D 입력 영상을 획득할 수 있다. 얼굴 인식 장치(300)는 하나의 2D 입력 영상을 이용하여 사용자에 대해 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다.The
얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출할 수 있다. 얼굴 영역 검출부(330)는 2D 입력 영상 내 밝기 분포, 오브젝트의 움직임, 색상 분포, 또는 눈 위치 등의 정보를 이용하여 2D 입력 영상에서 얼굴 영역을 식별하고, 얼굴 영역의 위치 정보를 추출할 수 있다. 예를 들어, 얼굴 영역 검출부(330)는 관련 기술 분야에서 일반적으로 이용되는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출할 수 있다.The face
특징점 검출부(340)는 2D 입력 영상 내 얼굴 영역으로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(340)는 Active Shape Model, Active Appearance Model, 또는 Supervised Descent Method 등을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. The feature
3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 정합 결과, 3D 얼굴 모델은 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 변형될 수 있다. 3D 얼굴 모델 처리부(320)는 3D 얼굴 모델에 2D 입력 영상으로부터 검출된 특징점들을 맵핑(mapping)하여 3D 얼굴 모델의 포즈 및 표정을 조정할 수 있다. 3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있다. 3D 형태 모델은 2D 입력 영상에 나타난 얼굴 포즈와 빠른 속도로 정합되는데 이용될 수 있고, 3D 텍스쳐 모델은 고해상도의 2D 투영 영상을 생성하는데 이용될 수 있다.The 3D facial
3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 포즈에 따라 3D 형태 모델의 포즈를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 특징점들과 3D 형태 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델의 포즈를 2D 입력 영상에 나타난 포즈에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상으로부터 검출된 특징점에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다.The 3D facial
또한, 3D 얼굴 모델 처리부(320)는 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상과 3D 형태 모델의 정합 과정에서 결정된 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용할 수 있다. 적용 결과로서, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정을 가지도록 조정될 수 있다. 3D 텍스쳐 모델을 조정한 후, 3D 얼굴 모델 처리부(320)는 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다.In addition, the 3D facial
얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. The
얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하기 위해 얼굴 인식 기술 분야에서 일반적으로 이용되는 특징 값 결정 방법을 이용할 수 있다. 예를 들어, 얼굴 인식부(350)는 Gabor 필터, LBP(Local Binary Pattern), HOG(Histogram of Oriented Gradient), PCA(Principal component analysis), 또는 LDA(Linear Discriminant Analysis) 등과 같은 특징 추출용 필터를 이용하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다. Gabor 필터는 다양한 크기와 각도를 갖는 다중 필터를 이용하여 영상으로부터 특징을 추출하는 필터이고, LBP는 영상에서 현재 픽셀과 주변 픽셀과의 차이를 특징으로 추출하는 필터이다. 일 실시예에 따르면, 얼굴 인식부(350)는 2D 입력 영상 및 2D 투영 영상에 나타난 얼굴 영역을 일정한 크기의 셀(cell)로 분할한 후, 각 셀마다 LBP에 대한 히스토그램(해당 셀에 속하는 LBP 인덱스 값들에 대한 히스토그램)을 계산할 수 있다. 얼굴 인식부(350)는 계산된 히스토그램들을 일렬로 연결한 벡터를 최종 특징 값으로 결정하고, 2D 입력 영상의 최종 특징 값과 2D 투영 영상의 최종 특징 값을 비교하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다.The
일 실시예에 따르면, 얼굴 인식 장치(300)는 디스플레이부(360)를 더 포함할 수 있다. 디스플레이부(360)는 2D 입력 영상, 2D 투영 영상 및/또는 얼굴 인식 결과를 디스플레이할 수 있다. 사용자가 디스플레이된 2D 입력 영상에 기초하여 얼굴이 제대로 촬영되지 않다고 판단한 경우, 또는 최종적으로 얼굴 인식이 실패하였다고 디스플레이된 경우, 사용자는 얼굴을 다시 촬영할 수 있고, 얼굴 인식 장치(300)는 재촬영되어 생성된 2D 입력 영상에 대해 얼굴 인식을 다시 수행할 수 있다.According to one embodiment, the
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다. 도 4를 참조하면, 영상(420)은 사용자의 얼굴을 정면에서 촬영하여 획득된 2D 얼굴 영상을 나타내고, 영상들(410, 430)은 사용자의 얼굴을 측면에서 촬영하여 획득된 2D 얼굴 영상들을 나타낸다. 정면에서 촬영된 영상(420)으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있다. 측면에서 촬영된 영상들(410, 430)로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 영상(420)으로부터 추출된 사용자의 얼굴 형태에 기초하여 사용자 얼굴에 관한 기본 모델을 설정하고, 영상들(410, 430)로부터 추출된 사용자의 얼굴 형태에 기초하여 해당 기본 모델의 입체적 형태를 결정할 수 있다.4 is a diagram for explaining a process of detecting feature points in a plurality of 2D facial images according to an exemplary embodiment of the present invention. Referring to FIG. 4, an
3D 얼굴 모델 생성 장치(200)의 특징점 검출부(220)는 영상들(410, 420, 430)과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들에서 얼굴의 특징점들을 검출할 수 있다. 얼굴의 특징점은 눈썹, 눈, 코, 입, 턱 등의 윤곽 영역에 위치하는 특징점을 나타낸다. 특징점 검출부(220)는 관련 기술 분야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등의 방식을 이용하여 영상들(410, 420, 430)에서 얼굴의 특징점을 검출할 수 있다. ASM 모델(또는, AAM 모델, SDM 모델)의 포즈, 스케일, 또는 위치에 대한 초기화는 얼굴 검출 결과에 기초하여 수행될 수 있다.The feature
영상(440)은 영상(410)의 얼굴 영역(442) 내에서 특징점(444)들이 검출된 결과 영상을 나타내고, 영상 (450)은 영상(420)의 얼굴 영역(452) 내에서 특징점(454)들이 검출된 결과 영상을 나타낸다. 마찬가지로, 영상(460)은 영상(430)의 얼굴 영역(462) 내에서 특징점(464)들이 검출된 결과 영상을 나타낸다.The
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다. 도 5를 참조하면, 모델(510)은 3D 표준 모델을 나타낸다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델로서, 평균 형태와 파라미터를 통해 사용자 얼굴의 신원(identity)을 나타낼 수 있는 파라메트릭 모델(parametric model)일 수 있다.FIG. 5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an embodiment. Referring to FIG. 5, the
3D 표준 모델은 다음의 수학식 1과 같이, 평균 형태와 형태 변화량으로 구성될 수 있다. 형태 변화량은 형태 파라미터와 형태 벡터의 가중합(weighted sum)이다.The 3D standard model may be composed of an average shape and a shape change amount as shown in the following Equation (1). The shape change amount is a weighted sum of a shape parameter and a shape vector.
여기서, 는 3D 표준 모델의 3D 형태를 구성하는 엘리먼트들을 나타내고, 는 3D 표준 모델의 평균 형태에 관한 엘리먼트들을 나타낸다. 는 인덱스 계수 i에 대응하는 형태 엘리먼트들을 나타내고, 는 인덱스 계수 i에 대응하는 형태 엘리먼트에 적용되는 형태 파라미터를 나타낸다.here, Represents the elements constituting the 3D form of the 3D standard model, Represent elements relating to the average shape of the 3D standard model. Represents the shape elements corresponding to the index coefficient i, Represents a shape parameter applied to a shape element corresponding to the index coefficient i.
3D 표준 모델의 3D 형태를 구성하는 엘리먼트들 는 다음의 수학식 2와 같이 3차원 점들의 좌표로 구성될 수 있다.Elements that make up the 3D form of the 3D standard model Can be configured as coordinates of three-dimensional points as shown in the following Equation (2).
여기서, 는 는 3차원 점(, , )의 인덱스를 나타내는 변수이고, T는 트랜스포즈(transpose)를 나타낸다.here, The Is a three-dimensional point ( , , ), And T represents a transpose.
3D 얼굴 모델 생성 장치(200)의 3D 형태 모델 생성부(240)는 사용자의 얼굴을 등록하기 위해, 복수의 시점들에서 촬영된 2D 얼굴 영상들에 기초하여 3D 표준 모델을 개인화할 수 있다. 3D 형태 모델 생성부(240)는 3D 표준 모델에 포함된 특징점들과 2D 얼굴 영상들에서 검출된 얼굴의 특징점들을 매칭시킬 수 있는 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.The 3D
모델들(520, 530)은 3D 표준 모델(510)로부터 생성된 사용자 얼굴에 대한 3D 형태 모델들을 나타낸다. 모델(520)은 정면에서 바라본 3D 형태 모델을 나타내고, 모델(530)은 측면에서 바라본 3D 형태 모델을 나타낸다. 3D 형태 모델은 형태 정보는 존재하나, 텍스쳐 정보가 존재하지 않는 모델로서, 사용자 인증 과정에서 2D 입력 영상과 고속으로 정합하는데 이용될 수 있다.The
3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나의 2D 얼굴 영상에서 추출한 텍스쳐를 3D 형태 모델의 표면에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 형태 모델의 표면에 텍스쳐를 맵핑한다는 것은, 예를 들어, 정면에서 촬영된 2D 얼굴 영상에서 추출한 텍스쳐 정보에 3D 형태 모델로부터 획득된 깊이 정보를 추가한다는 것을 나타낼 수 있다.The 3D texture
모델들(540, 550)는 3D 형태 모델에 기초하여 생성된 3D 텍스쳐 모델들을 나타낸다. 모델(540)은 정면에서 바라본 3D 텍스쳐 모델을 나타내고, 모델(550)은 대각 방향에서 바라본 3D 텍스쳐 모델을 나타낸다. 3D 텍스쳐 모델은 형태 정보와 텍스쳐 정보가 모두 존재하는 모델로서, 사용자 인증 과정에서 2D 투영 영상을 생성하는데 이용될 수 있다. The
3D 형태 모델 및 3D 텍스쳐 모델은 사용자의 고유 특징을 나타내는 얼굴의 형태는 고정되어 있고, 포즈 또는 표정이 변형될 수 있는 3D 모델이다. 3D 텍스쳐 모델은 3D 형태 모델보다 정밀도가 높으며, 보다 많은 버텍스를 포함하고 있다. 3D 형태 모델을 구성하는 버텍스들은 3D 텍스쳐 모델을 구성하는 버텍스들의 하위 집합(subset)으로, 동일한 파라미터에 의해 3D 형태 모델과 3D 텍스쳐 모델은 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D shape model and the 3D texture model are 3D models in which the shape of the face representing the characteristic of the user is fixed and the pose or expression can be deformed. The 3D texture model is more accurate than the 3D shape model and contains more vertices. The vertices constituting the 3D shape model are a subset of the vertices constituting the 3D texture model, and the 3D shape model and the 3D texture model can represent the same pose and expression by the same parameters.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다. 도 6을 참조하면, 영상(610)은 얼굴 인식 또는 사용자 인증을 위해 얼굴 인식 장치에 입력되는 2D 입력 영상으로서, 카메라를 통해 촬영된 얼굴 포즈 영상을 나타낸다.6 is a diagram illustrating a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment. Referring to FIG. 6, an
얼굴 인식 장치(300)의 얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 특징점 검출부(340)는 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 입, 또는 턱 등의 윤곽에 위치하는 특징점들을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 ASM, AAM, 또는 SDM 등의 방식을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 영상(620)는 얼굴 영역 검출부(330)에 의해 영상(610)에서 얼굴 영역(630)이 검출되고, 특징점 검출부(340)에 의해 얼굴 영역(630) 내에서 특징점(640)들이 검출된 결과 영상을 나타낸다.The face
3D 얼굴 모델 처리부(320)는 미리 등록되어 저장된 3D 형태 모델을 2D 입력 영상에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 파라미터를 조절하여 포즈 및 표정을 조정할 수 있다. 모델(650)은 미리 등륵되어 저장된 사용자 얼굴에 대한 3D 형태 모델을 나타내고, 모델(660)은 영상(610)에서 검출된 얼굴의 특징점(640)들에 기초하여 포즈 및 표정이 조정된 3D 형태 모델을 나타낸다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일하게 미리 저장된 3D 형태 모델의 포즈를 조정할 수 있다. 2D 입력 영상인 영상(610)에서, 사용자는 얼굴을 측면으로 회전한 포즈를 취하고 있고, 3D 얼굴 모델 처리부(320)에 의해 포즈가 조정된 3D 형태 모델도 영상(610)에서의 사용자 포즈와 동일하게 얼굴이 측면으로 회전한 포즈를 취하고 있다.The 3D facial
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다. 얼굴 인식 장치(300)의 3D 얼굴 모델 처리부(320)는 얼굴 인식을 위한 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 조정된 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용하여, 3D 텍스쳐 모델의 포즈 및 표정을 3D 형태 모델과 동일하게 조정할 수 있다. 그 후, 3D 얼굴 모델 처리부(320)는 3D 텍스쳐 모델을 영상 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도에 기초하여 얼굴 인식을 수행하고, 얼굴 인식 결과를 출력할 수 있다.FIG. 7 is a diagram for explaining a process of performing face recognition by comparing a 2D input image and a 2D projection image according to an embodiment. The 3D face
도 7을 참조하면, 영상(710)은 얼굴 인식을 위해 이용되는 2D 입력 영상을 나타낸다. 영상(720)은 얼굴 인식부(350)가 얼굴 인식을 수행하기 위해 2D 입력 영상인 영상(710)과 비교되는 기준 영상이다. 영상(720)에 포함된 영역(730)은 3D 텍스쳐 모델로부터 생성된 2D 투영 영상이 반영된 영역을 나타낸다. 예를 들어, 영역(730)은 도 6의 형태 모델(660)에 텍스쳐가 맵핑된 텍스쳐 모델이 영상 평면으로 투영된 얼굴 영역일 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 사용자의 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역만을 비교하여 얼굴 인식을 수행할 수 있다. 또는, 얼굴 인식부(350)는 도 7에서와 같이 2D 입력 영상인 영상(710)과 2D 입력 영상에 2D 투영 영상이 반영된 결과 영상인 영상(720)의 전체 영역을 비교하여 얼굴 인식을 수행할 수도 있다.Referring to FIG. 7, an
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.FIG. 8 is a flowchart illustrating an operation of a 3D face model generation method according to an embodiment.
단계(810)에서, 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 사용자의 얼굴을 등록하는데 이용될 수 있다. 2D 얼굴 영상들은, 예를 들어, 정면 영상 및 측면 영상과 같이 다양한 얼굴 포즈로 촬영된 영상들을 포함할 수 있다.In
단계(820)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 관련 기술 분아야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등을 이용하여 2D 얼굴 영상들로부터 눈썹, 눈, 코, 입 등의 윤곽에 위치한 얼굴의 특징점들을 검출할 수 있다.In
단계(830)에서, 3D 얼굴 모델 생성 장치는 검출된 특징점에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및 턱 등의 특징점들과 3D 표준 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다.In
단계(840)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상으로부터 추출한 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 적어도 하나의 2D 얼굴 영상으로부터 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 사용자 얼굴에 대한 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 텍스쳐 모델의 파라미터가 적용되어 3D 텍스쳐 모델과 동일한 포즈 및 표정을 나타낼 수 있다.In
단계(850)에서, 3D 얼굴 모델 생성 장치는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고 저장할 수 있다. 저장된 3D 형태 모델 및 3D 텍스쳐 모델은 사용자 인증 과정에서 2D 입력 영상에 나타난 사용자를 인증하기 위해 이용될 수 있다.In
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.FIG. 9 is a flowchart illustrating an operation of the face recognition method according to an embodiment.
단계(910)에서, 얼굴 인식 장치는 얼굴 인식을 위한 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 얼굴 인식 장치는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 턱, 입 등의 윤곽에 위치한 얼굴의 특징점을 검출할 수 있다. 예를 들어, 얼굴 인식 장치는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출하고, ASM, AAM, 또는 SDM 등을 이용하여 얼굴 영역 내에서 얼굴의 특징점을 검출할 수 있다.In
단계(920)에서, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 사용자의 3D 얼굴 모델을 조정할 수 있다. 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 3D 얼굴 모델을 변형할 수 있다.In
3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점들에 기초하여 3D 형태 모델의 포즈를 조정하고, 포즈가 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 얼굴 인식 장치 2D 입력 영상으로부터 검출된 특징점들에 기초하여 3D형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하고, 3D 형태 모델의 조정된 파라미터들을 3D 텍스쳐 모델에 적용할 수 있다. 파라미터들의 적용 결과, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정으로 조정될 수 있다.The 3D face model may include a 3D shape model and a 3D texture model. The face recognition apparatus adjusts the pose of the 3D shape model based on the detected feature points in the 2D input image, The 3D texture model can be adjusted based on the information. The pose parameter and the facial expression parameter of the 3D shape model can be adjusted based on the feature points detected from the 2D input image of the face recognition apparatus, and the adjusted parameters of the 3D shape model can be applied to the 3D texture model. As a result of applying the parameters, the 3D texture model can be adjusted to the same pose and expression as the pose and expression of the 3D shape model.
단계(930)에서, 얼굴 인식 장치는 3D 텍스쳐 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치는 단계(920)에서 3D 형태 모델에 기초하여 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 얼굴 포즈와 동일할 수 있다. 예를 들어, 2D 입력 영상에서 나타난 사용자의 얼굴 포즈가 측면을 바라보는 포즈라고 하면, 단계(910) 내지 단계(930)을 통해 생성된 2D 투영 영상도 2D 입력 영상에서와 동일하게 3D 텍스쳐 모델이 측면을 바라보는 얼굴 포즈를 나타낼 수 있다.In
단계(940)에서, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.In
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(1000)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(1000)는 다양한 방향에서 촬영된 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 도 10을 참조하면, 3D 얼굴 모델 생성 장치(1000)는 영상 획득부(1010), 모션 센싱부(1020), 3D 얼굴 모델 생성부(1030) 및 3D 얼굴 모델 등록부(1040)를 포함할 수 있다.10 is a diagram showing a detailed configuration of a 3D face model generation apparatus according to another embodiment. The 3D facial
영상 획득부(1010)는 얼굴 등록을 위한 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 영상 획득부(1010)는 카메라를 통해 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다. 예를 들어, 영상 획득부(1010)는 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다.The
모션 센싱부(1020)는 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 모션 센싱부(1020)는 다양한 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 결정할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다. 예를 들어, 모션 센싱부(1020)는 가속도 센서(accelerometer), 각속도 센서(gyroscope) 및 자기 센서(magnetometer)를 포함하는 관성 측정 장치(inertial measurement unit; IMU)를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 결정할 수 있다.The
예를 들어, 사용자는 카메라를 다양한 위치로 회전하여 얼굴을 촬영할 수 있고, 촬영 결과로서 다양한 시점에서 촬영된 2D 얼굴 영상들이 획득될 수 있다. 2D 얼굴 영상들이 촬영될 때, 모션 센싱부(1020)는 관성 측정 장치로부터 출력된 센싱 정보에 기초하여 2D 얼굴 영상들을 촬영한 카메라의 속도, 방향, 롤(roll), 피치(pitch) 및/또는 요(yaw)의 변화 등과 같은 모션 데이터를 계산하고, 모션 데이터로부터 2D 얼굴 영상들이 촬영된 방향에 관한 방향 데이터를 결정할 수 있다.For example, the user can photograph the face by rotating the camera to various positions, and 2D face images photographed at various points in time as the photographing result can be obtained. When the 2D face images are photographed, the
3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에 나타난 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 3D 얼굴 모델 생성부(1030) 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다.The 3D facial
3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는, 예를 들어, 기존의 스테레오 매칭(stereo matching) 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 내지 표면을 구성하는 3D 포인트들의 집합일 수 있다.The 3D face
3D 얼굴 모델 생성부(1030)는 사용자의 얼굴에 관한 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 변형이 가능한(deformable) 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 사용자에 대한 3D 얼굴 모델은 사용자 얼굴의 형태에 관한 3D 형상 모델 및/또는 텍스쳐 정보를 포함하는 3D 텍스쳐 모델을 포함할 수 있다.The 3D face
3D 얼굴 모델 등록부(1040)는 3D 얼굴 모델 생성부(1030)에 의해 생성된 사용자에 대한 3D 얼굴 모델을 등록하고 저장할 수 있다. 저장된 사용자에 대한 3D 얼굴 모델은 사용자의 얼굴을 인식하기 위해 이용되고, 얼굴 인식 과정에서 형태가 변형될 수 있다.The 3D face
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation of a 3D face model generation method according to another embodiment.
단계(1110)에서, 3D 얼굴 모델 생성 장치는 얼굴 등록을 위한 복수의 2D 얼굴 영상들 및 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 3D 얼굴 모델 생성 장치는 정면 영상 및 측면 영상 등과 같이 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다.In
3D 얼굴 모델 생성 장치는 모션 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 가속도 센서, 각속도 센서 및 자기 센서를 포함하는 관성 측정 장치를 통해 센싱된 모션 데이터를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 획득할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다.The 3D facial model generating apparatus can acquire direction data of 2D facial images using motion data sensed through a motion sensor. For example, the 3D face model generation apparatus can acquire direction data for each 2D face image using motion data sensed through an inertial measurement device including an acceleration sensor, an angular velocity sensor, and a magnetic sensor. The orientation data of 2D face images may include information about the direction in which each 2D face image is captured.
단계(1120)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 검출된 특징점들에 기초하여 2D 얼굴 영상들 사이에서 서로 대응되는 대응점을 검출할 수 있다.In
단계(1130)에서, 3D 얼굴 모델 생성 장치는 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 예를 들어, 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 또는 얼굴 표면을 구성하는 3D 포인트들의 집합으로서, 복수의 버텍스(vertex)들로 구성될 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성 장치는 기존의 스테레오 매칭 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.In
단계(1140)에서, 3D 얼굴 모델 생성 장치는 단계(1130)에서 생성된 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 사용자에 대한 3D 얼굴 모델로서 3D 형상 모델 및/또는 3D 텍스쳐 모델을 생성할 수 있다. 생성된 사용자에 대한 3D 얼굴 모델은 저장 및 등록되고, 사용자의 얼굴을 인식하기 위해 이용될 수 있다.In
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for an embodiment or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (32)
상기 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계;
상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계
를 포함하는 얼굴 인식 방법.Detecting a feature point of a face from a 2D input image;
Adjusting a pre-stored 3D face model based on the detected feature points;
Generating a 2D projection image from the adjusted 3D face model; And
Comparing the 2D input image with the 2D projection image to perform face recognition
And a face recognition unit.
상기 3D 얼굴 모델을 조정하는 단계는,
상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑(mapping)하여 상기 3D 얼굴 모델의 포즈 및 표정을 조정하는 단계
를 포함하는 얼굴 인식 방법.The method according to claim 1,
Wherein adjusting the 3D face model comprises:
Mapping the detected minutiae to the 3D facial model to adjust the pose and facial expression of the 3D facial model
And a face recognition unit.
상기 3D 얼굴 모델은, 3D 형태 모델(shape model) 및 3D 텍스쳐 모델(texture model)을 포함하고,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 2D 입력 영상으로부터 검출된 특징점에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및
상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계
를 포함하는 얼굴 인식 방법.The method according to claim 1,
The 3D face model includes a 3D shape model and a 3D texture model,
Wherein adjusting the 3D face model comprises:
Adjusting the 3D shape model based on the feature points detected from the 2D input image; And
Adjusting the 3D texture model based on the parameter information of the adjusted 3D shape model
And a face recognition unit.
상기 3D 형태 모델을 조정하는 단계는,
상기 검출된 특징점에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계
를 포함하는 얼굴 인식 방법.The method of claim 3,
Wherein adjusting the 3D shape model comprises:
Adjusting a pose parameter and a facial expression parameter of the 3D morphological model based on the detected feature point
And a face recognition unit.
상기 2D 투영 영상을 생성하는 단계는,
상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계
를 포함하는 얼굴 인식 방법.The method of claim 3,
Wherein the generating the 2D projection image comprises:
Generating a 2D projection image from the adjusted 3D texture model
And a face recognition unit.
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은,
3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델인, 얼굴 인식 방법.The method according to claim 1,
Wherein the 3D shape model and the 3D texture model include
A method for recognizing a face, wherein the shape of the 3D model is fixed, and a pose and a facial expression can be changed.
상기 2D 투영 영상은,
상기 2D 입력 영상에 나타난 얼굴 포즈와 동일한 얼굴 포즈를 나타내는, 얼굴 인식 방법.The method according to claim 1,
The 2D projection image may include:
And a face pose that is the same as a face pose represented in the 2D input image.
상기 얼굴 인식을 수행하는 단계는,
상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및
상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계
를 포함하는 얼굴 인식 방법.The method according to claim 1,
Wherein the step of performing face recognition comprises:
Determining a degree of similarity between the 2D input image and the 2D projection image; And
Outputting a face recognition result based on whether the similarity satisfies a predetermined condition
And a face recognition unit.
상기 얼굴의 특징점을 검출하는 단계는,
상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및
상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점을 검출하는 단계
를 포함하는 얼굴 인식 방법.The method according to claim 1,
The step of detecting the feature points of the face includes:
Extracting a face region from the 2D input image; And
Detecting feature points contained in at least one of eyebrows, eyes, nose, mouth, jaw, ear, and face contour from the face region;
And a face recognition unit.
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.Obtaining 2D face images of a user photographed at a plurality of viewpoints;
Detecting facial feature points from the 2D facial images;
Generating a deformable 3D shape model and a 3D texture model based on the detected feature points; And
Registering the 3D model and the 3D texture model as the 3D model of the user,
/ RTI > to generate a 3D face model.
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐(texture) 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.11. The method of claim 10,
Wherein the generating the 3D shape model and the 3D texture model comprises:
Generating texture information based on texture information extracted from at least one of the 2D facial images and the 3D texture model,
/ RTI > to generate a 3D face model.
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑(mapping)하기 위한 파라미터를 결정하는 단계; 및
상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.11. The method of claim 10,
Wherein the generating the 3D shape model and the 3D texture model comprises:
Determining parameters for mapping the detected minutiae points to minutiae points of the 3D standard model; And
Applying the determined parameter to the 3D standard model to generate the 3D shape model
/ RTI > to generate a 3D face model.
상기 3D 텍스쳐 모델은,
상기 3D 형태 모델의 버텍스(vertex)들을 포함하는, 3D 얼굴 모델 생성 방법.11. The method of claim 10,
In the 3D texture model,
Wherein the 3D model includes vertices of the 3D model.
상기 2D 얼굴 영상들은,
상기 사용자의 얼굴을 서로 다른 시점에서 촬영한 영상들을 포함하는, 3D 얼굴 모델 생성 방법.11. The method of claim 10,
The 2D facial images,
And the images of the face of the user are photographed at different viewpoints.
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계;
상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및
상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.Obtaining 2D face images of a user's face and orientation data of the 2D face images;
Determining corresponding point information between the 2D facial images;
Generating 3D data on the face of the user based on the orientation data of the 2D face images and corresponding point information between the 2D face images; And
Transforming a 3D standard model into a 3D face model for the user using the 3D data
/ RTI > to generate a 3D face model.
상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 방법.16. The method of claim 15,
Wherein transforming the 3D standard model into a 3D face model for the user comprises:
Wherein the 3D standard model is transformed into a 3D face model for the user by matching the 3D standard model with 3D data relating to the face of the user.
상기 사용자의 얼굴에 관한 3D 데이터는,
상기 사용자의 얼굴의 형태(shape)를 구성하는 3D 포인트들의 집합인, 3D 얼굴 모델 생성 방법.16. The method of claim 15,
The 3D data relating to the face of the user,
Wherein the 3D model is a set of 3D points constituting a shape of a face of the user.
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는,
모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득하는, 3D 얼굴 모델 생성 방법.16. The method of claim 15,
Wherein the obtaining of the orientation data of the 2D facial images comprises:
And acquiring orientation data of the 2D face images using motion data sensed by the motion sensor.
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 및
상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.16. The method of claim 15,
Wherein the step of determining corresponding point information between the 2D face images comprises:
Detecting facial feature points from the 2D facial images; And
Determining corresponding point information between the 2D facial images based on the detected minutiae points
/ RTI > to generate a 3D face model.
상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈(pose)에 따라 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 상기 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부
를 포함하는 얼굴 인식 장치.An image acquiring unit acquiring a 2D input image including a face region of a user;
A 3D face model processing unit for adjusting a pose of a 3D face model previously stored according to a pose of a user's face displayed on the 2D input image and generating a 2D projection image from the 3D face model; And
A face recognition unit for comparing the 2D input image with the 2D projection image to perform face recognition,
The face recognition apparatus comprising:
상기 3D 얼굴 모델 처리부는,
상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및
상기 얼굴 영역으로부터 얼굴의 특징점을 검출하는 특징점 검출부
를 포함하는 얼굴 인식 장치.22. The method of claim 21,
Wherein the 3D face model processing unit comprises:
A face region detection unit for detecting a face region from the 2D input image; And
A feature point detector for detecting a feature point of the face from the face region;
The face recognition apparatus comprising:
상기 3D 얼굴 모델 처리부는,
상기 검출된 특징점과 상기 미리 저장된 3D 얼굴 모델의 특징점을 매칭시키는 것에 의해 상기 3D 얼굴 모델의 포즈를 조정하는, 얼굴 인식 장치.23. The method of claim 22,
Wherein the 3D face model processing unit comprises:
And adjusts the pose of the 3D face model by matching the detected feature point with a feature point of the previously stored 3D face model.
상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 상기 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는, 얼굴 인식 장치.22. The method of claim 21,
Wherein the 3D face model includes a 3D shape model and a 3D texture model,
Wherein the 3D face model processing unit comprises:
Adjusts a pose of the 3D model according to a face pose of a user displayed on the input image, and adjusts the 3D texture model based on parameter information of the adjusted 3D model.
상기 3D 얼굴 모델 처리부는,
상기 조정된 3D 텍스쳐 모델을 평면으로 투영하여 상기 2D 투영 영상을 생성하는, 얼굴 인식 장치.25. The method of claim 24,
Wherein the 3D face model processing unit comprises:
And projecting the adjusted 3D texture model to a plane to generate the 2D projection image.
상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부
를 더 포함하는 얼굴 인식 장치.22. The method of claim 21,
And a display unit for displaying at least one of the 2D input image, the 2D projection image,
Further comprising:
상기 2D 얼굴 영상들로부터 얼굴의 특징점을 검출하는 특징점 검출부;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하는 3D 얼굴 모델 생성 장치.An image acquiring unit for acquiring 2D face images of a user photographed at a plurality of viewpoints;
A feature point detector for detecting a feature point of a face from the 2D face images;
A 3D face model generation unit for generating a 3D shape model and a 3D texture model that can be transformed based on the detected minutiae; And
A 3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the 3D face model of the user,
And a 3D face model generation unit.
상기 3D 얼굴 모델 생성부는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는, 3D 얼굴 모델 생성 장치.28. The method of claim 27,
Wherein the 3D facial model generation unit comprises:
Determining parameters for mapping the detected minutiae points and minutiae points of the 3D standard model, and applying the determined parameters to the 3D standard model to generate the 3D morph model.
상기 3D 얼굴 모델 생성부는,
상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부
를 포함하는 3D 얼굴 모델 생성 장치.28. The method of claim 27,
Wherein the 3D facial model generation unit comprises:
A 3D shape model generation unit for generating a 3D shape model of the face of the user based on the detected feature points of the face; And
A 3D texture model generating unit for generating a 3D texture model based on the texture information extracted from at least one of the 2D face images and the 3D shape model,
And a 3D face model generation unit.
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부;
상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부;
상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하는 3D 얼굴 모델 생성 장치.An image acquiring unit for acquiring 2D face images of a user photographed at a plurality of viewpoints;
A motion sensing unit for acquiring orientation data of the 2D face images;
Generating 3D data relating to the face of the user based on corresponding point information between the 2D face images and direction data of the 2D face images and transforming the 3D standard model into a 3D face model for the user using the 3D data A 3D facial model generating unit;
A 3D face model registration unit for registering and storing a 3D face model for the user,
And a 3D face model generation unit.
상기 3D 얼굴 모델 생성부는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는, 3D 얼굴 모델 생성 장치.31. The method of claim 30,
Wherein the 3D facial model generation unit comprises:
Detecting feature points of the face from the 2D face images, and determining correspondence point information between the 2D face images based on the detected feature points.
상기 3D 얼굴 모델 생성부는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 장치.31. The method of claim 30,
Wherein the 3D facial model generation unit comprises:
Wherein the 3D standard model is matched to 3D data relating to the user's face to transform the 3D standard model into a 3D face model for the user.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/796,224 US20160070952A1 (en) | 2014-09-05 | 2015-07-10 | Method and apparatus for facial recognition |
EP19200425.7A EP3614303A1 (en) | 2014-09-05 | 2015-07-15 | Method and apparatus for facial recognition |
EP15176898.3A EP2993614B1 (en) | 2014-09-05 | 2015-07-15 | Method and device for facial recognition |
CN202210474282.3A CN114627543A (en) | 2014-09-05 | 2015-07-24 | Method and apparatus for face recognition |
CN201510441052.7A CN106203248A (en) | 2014-09-05 | 2015-07-24 | Method and apparatus for face recognition |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140118828 | 2014-09-05 | ||
KR1020140118828 | 2014-09-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160029629A true KR20160029629A (en) | 2016-03-15 |
KR102357340B1 KR102357340B1 (en) | 2022-02-03 |
Family
ID=55542177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150001850A KR102357340B1 (en) | 2014-09-05 | 2015-01-07 | Method and apparatus for face recognition |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102357340B1 (en) |
CN (1) | CN106203248A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170136691A (en) * | 2016-06-01 | 2017-12-12 | 가천대학교 산학협력단 | Method of facial recognition in camera image |
CN108858201A (en) * | 2018-08-15 | 2018-11-23 | 深圳市烽焌信息科技有限公司 | It is a kind of for nursing the robot and storage medium of children |
CN111310512A (en) * | 2018-12-11 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | User identity authentication method and device |
KR102145517B1 (en) * | 2019-05-31 | 2020-08-18 | 주식회사 모르페우스 | Method, system and non-transitory computer-readable recording medium for registration of 3-dimentional measured data |
CN112384928A (en) * | 2018-08-01 | 2021-02-19 | 三星电子株式会社 | Method and apparatus for performing object illumination manipulation on an image |
KR20210047920A (en) * | 2019-05-15 | 2021-04-30 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Creation of a face model |
WO2024048960A1 (en) * | 2022-08-29 | 2024-03-07 | 삼성전자 주식회사 | Electronic device for providing avatar based on user face and operating method thereof |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11010595B2 (en) * | 2017-03-23 | 2021-05-18 | Samsung Electronics Co., Ltd. | Facial verification method and apparatus |
CN108932459B (en) * | 2017-05-26 | 2021-12-10 | 富士通株式会社 | Face recognition model training method and device and face recognition method |
CN108171182B (en) * | 2017-12-29 | 2022-01-21 | Oppo广东移动通信有限公司 | Electronic device, face recognition method and related product |
CN108470186A (en) * | 2018-02-14 | 2018-08-31 | 天目爱视(北京)科技有限公司 | A kind of matching process and device of image characteristic point |
KR102543656B1 (en) * | 2018-03-16 | 2023-06-15 | 삼성전자주식회사 | Screen controlling method and electronic device supporting the same |
CN109255327A (en) * | 2018-09-07 | 2019-01-22 | 北京相貌空间科技有限公司 | Acquisition methods, face's plastic operation evaluation method and the device of face characteristic information |
EP3674974A1 (en) * | 2018-12-31 | 2020-07-01 | Samsung Electronics Co., Ltd. | Apparatus and method with user verification |
CN110097035A (en) * | 2019-05-15 | 2019-08-06 | 成都电科智达科技有限公司 | A kind of facial feature points detection method based on 3D human face rebuilding |
KR20240025320A (en) * | 2022-08-18 | 2024-02-27 | 슈퍼랩스 주식회사 | Method, computer device, and computer program to create 3d avatar based on multi-angle image |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115847A (en) * | 2003-10-10 | 2005-04-28 | Babcock Hitachi Kk | Method for collating objects reflected in two-dimensional image and specific three-dimensional image |
JP2010128742A (en) * | 2008-11-27 | 2010-06-10 | Casio Computer Co Ltd | Three-dimensional data creation device |
JP2011039869A (en) * | 2009-08-13 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | Face image processing apparatus and computer program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100412885C (en) * | 2005-05-23 | 2008-08-20 | 株式会社东芝 | Image recognition apparatus and method |
CN101159015B (en) * | 2007-11-08 | 2010-12-08 | 清华大学 | Two-dimensional human face image recognizing method |
JP4569670B2 (en) * | 2008-06-11 | 2010-10-27 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
CN101499132B (en) * | 2009-03-12 | 2013-05-01 | 广东药学院 | Three-dimensional transformation search method for extracting characteristic points in human face image |
CN102156537B (en) * | 2010-02-11 | 2016-01-13 | 三星电子株式会社 | A kind of head pose checkout equipment and method |
CN102271241A (en) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | Image communication method and system based on facial expression/action recognition |
-
2015
- 2015-01-07 KR KR1020150001850A patent/KR102357340B1/en active IP Right Grant
- 2015-07-24 CN CN201510441052.7A patent/CN106203248A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115847A (en) * | 2003-10-10 | 2005-04-28 | Babcock Hitachi Kk | Method for collating objects reflected in two-dimensional image and specific three-dimensional image |
JP2010128742A (en) * | 2008-11-27 | 2010-06-10 | Casio Computer Co Ltd | Three-dimensional data creation device |
JP2011039869A (en) * | 2009-08-13 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | Face image processing apparatus and computer program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170136691A (en) * | 2016-06-01 | 2017-12-12 | 가천대학교 산학협력단 | Method of facial recognition in camera image |
CN112384928A (en) * | 2018-08-01 | 2021-02-19 | 三星电子株式会社 | Method and apparatus for performing object illumination manipulation on an image |
CN108858201A (en) * | 2018-08-15 | 2018-11-23 | 深圳市烽焌信息科技有限公司 | It is a kind of for nursing the robot and storage medium of children |
CN111310512A (en) * | 2018-12-11 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | User identity authentication method and device |
CN111310512B (en) * | 2018-12-11 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | User identity authentication method and device |
KR20210047920A (en) * | 2019-05-15 | 2021-04-30 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Creation of a face model |
US11836943B2 (en) | 2019-05-15 | 2023-12-05 | Beijing Sensetime Technology Development Co., Ltd. | Virtual face model creation based on key point |
KR102145517B1 (en) * | 2019-05-31 | 2020-08-18 | 주식회사 모르페우스 | Method, system and non-transitory computer-readable recording medium for registration of 3-dimentional measured data |
WO2024048960A1 (en) * | 2022-08-29 | 2024-03-07 | 삼성전자 주식회사 | Electronic device for providing avatar based on user face and operating method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102357340B1 (en) | 2022-02-03 |
CN106203248A (en) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102357340B1 (en) | Method and apparatus for face recognition | |
EP2993614B1 (en) | Method and device for facial recognition | |
KR102290392B1 (en) | Method and apparatus for registering face, method and apparatus for recognizing face | |
KR101997500B1 (en) | Method and apparatus for generating personalized 3d face model | |
US9881204B2 (en) | Method for determining authenticity of a three-dimensional object | |
JP4653606B2 (en) | Image recognition apparatus, method and program | |
EP3147827A1 (en) | Face recognition method and apparatus | |
WO2015165365A1 (en) | Facial recognition method and system | |
KR101647803B1 (en) | Face recognition method through 3-dimension face model projection and Face recognition system thereof | |
KR20190097640A (en) | Device and method for matching image | |
WO2009128784A1 (en) | Face expressions identification | |
EP3825905A1 (en) | Method and apparatus with liveness test and/or biometric authentication, computer program therefore and medium storing the same | |
KR102476016B1 (en) | Apparatus and method for determining position of eyes | |
US11238271B2 (en) | Detecting artificial facial images using facial landmarks | |
Han et al. | 3D face texture modeling from uncalibrated frontal and profile images | |
JP6351243B2 (en) | Image processing apparatus and image processing method | |
KR20210069404A (en) | Liveness test method and liveness test apparatus | |
JP6410450B2 (en) | Object identification device, object identification method, and program | |
Segundo et al. | Real-time scale-invariant face detection on range images | |
US11048926B2 (en) | Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms | |
Bauer et al. | 4D Photogeometric face recognition with time-of-flight sensors | |
Sun et al. | Dual camera based feature for face spoofing detection | |
Vankayalapati et al. | Extraction of facial features for the real-time human gender classification | |
Bottino et al. | A fast and robust method for the identification of face landmarks in profile images | |
Moridani et al. | Powerful processing to three-dimensional facial recognition using triple information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |