KR102357340B1 - Method and apparatus for face recognition - Google Patents
Method and apparatus for face recognition Download PDFInfo
- Publication number
- KR102357340B1 KR102357340B1 KR1020150001850A KR20150001850A KR102357340B1 KR 102357340 B1 KR102357340 B1 KR 102357340B1 KR 1020150001850 A KR1020150001850 A KR 1020150001850A KR 20150001850 A KR20150001850 A KR 20150001850A KR 102357340 B1 KR102357340 B1 KR 102357340B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- model
- user
- feature points
- input image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
얼굴 인식 방법 및 장치가 개시된다. 얼굴 인식 장치는 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하고, 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 얼굴 인식 장치는 검출된 특징점에 기초하여 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역을 비교하여 얼굴 인식을 수행하고, 얼굴 인식 결과를 출력할 수 있다.A face recognition method and apparatus are disclosed. The face recognition apparatus may obtain a 2D input image including the user's face region, and detect feature points of the face from the 2D input image. The face recognition apparatus may adjust a pose of a pre-stored 3D face model based on the detected feature points, and may generate a 2D projection image from the adjusted 3D face model. The face recognition apparatus may perform face recognition by comparing the face region shown in the 2D input image with the face region shown in the 2D projection image, and output a face recognition result.
Description
아래의 설명은 사용자의 얼굴을 식별하는 얼굴 인식 기술에 관한 것이다.The description below relates to a face recognition technology that identifies a user's face.
생체 인식 기술 중 하나인 얼굴 인식 기술은, 지문 인식, 홍채 인식 등 사용자의 특별한 동작이나 행위를 요구하는 인식 기술과 다르게, 대상자를 비접촉식으로 확인할 수 있는 장점 때문에 편리하고 경쟁력 있는 생체 인식 기술로 평가 받고 있다. 최근에는, 편리함과 효율성 때문에 얼굴 인식 기술이 보안 시스템, 모바일 인증, 멀티미디어 데이터 검색 등의 다양한 응용 분야에 활발하게 적용되고 있다.Face recognition technology, one of the biometric technologies, is evaluated as a convenient and competitive biometric recognition technology because of the advantage of being able to identify the subject in a non-contact manner, unlike recognition technologies that require special actions or actions of the user, such as fingerprint recognition and iris recognition. have. Recently, because of convenience and efficiency, face recognition technology has been actively applied to various application fields such as security systems, mobile authentication, and multimedia data search.
일 실시예에 따른 얼굴 인식 방법은, 2D 입력 영상으로부터 얼굴의 특징점을 검출하는 단계; 상기 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계; 상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계를 포함할 수 있다.A face recognition method according to an embodiment includes: detecting feature points of a face from a 2D input image; adjusting a pre-stored 3D face model based on the detected feature points; generating a 2D projection image from the adjusted 3D face model; and comparing the 2D input image with the 2D projection image to perform face recognition.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑하여 상기 3D 얼굴 모델의 포즈 및 표정을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D face model may include adjusting a pose and an expression of the 3D face model by mapping the detected feature points to the 3D face model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은, 3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델일 수 있다.In the face recognition method according to an embodiment, the 3D face model may include a 3D shape model and a 3D texture model, and the 3D shape model and the 3D texture model have a fixed shape of the 3D model, and pose And it may be a model in which the expression can be changed.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 2D 입력 영상으로부터 검출된 특징점에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D face model may include: adjusting the 3D shape model based on feature points detected from the 2D input image; and adjusting the 3D texture model based on parameter information of the adjusted 3D shape model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 형태 모델을 조정하는 단계는, 상기 검출된 특징점에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D shape model may include adjusting a pose parameter and an expression parameter of the 3D shape model based on the detected feature points.
일 실시예에 따른 얼굴 인식 방법에서, 상기 2D 투영 영상을 생성하는 단계는, 상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, generating the 2D projection image may include generating a 2D projection image from the adjusted 3D texture model.
일 실시예에 따른 얼굴 인식 방법에서, 상기 미리 저장된 3D 얼굴 모델은, 복수의 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 생성될 수 있고, 상기 2D 얼굴 영상들은, 사용자의 얼굴을 복수의 시점들에서 촬영한 영상들일 수 있다.In the face recognition method according to an embodiment, the pre-stored 3D face model may be generated based on feature points detected from a plurality of 2D face images, and the 2D face images include a user's face from a plurality of viewpoints. They may be videos taken in the fields.
일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴 인식을 수행하는 단계는, 상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및 상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the performing of the face recognition may include: determining a degree of similarity between the 2D input image and the 2D projection image; and outputting a face recognition result based on whether the degree of similarity satisfies a predetermined condition.
일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴의 특징점을 검출하는 단계는, 상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및 상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점을 검출하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the detecting of the feature point of the face may include: extracting a face region from the 2D input image; and detecting a feature point included in at least one of eyebrows, eyes, nose, mouth, chin, ears, and an outline of a face from the face region.
일 실시예에 따른 3D 얼굴 모델 생성 방법은, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 단계; 상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계를 포함할 수 있다.A method of generating a 3D face model according to an embodiment includes: acquiring 2D face images of a user photographed at a plurality of viewpoints; detecting feature points of a face from the 2D face images; generating a deformable 3D shape model and a 3D texture model based on the detected feature points; and registering the 3D shape model and the 3D texture model as the user's 3D face model, and storing the 3D face model.
일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계를 포함할 수 있다.In the method of generating a 3D face model according to an embodiment, the generating of the 3D shape model and the 3D texture model includes: the 3D texture based on the 3D shape model and texture information extracted from at least one of the 2D face images. It may include generating a model.
일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하는 단계; 및 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계를 포함할 수 있다.In the method for generating a 3D face model according to an embodiment, the generating of the 3D shape model and the 3D texture model may include: determining a parameter for mapping the detected feature points and feature points of the 3D standard model; and generating the 3D shape model by applying the determined parameter to the 3D standard model.
다른 실시예에 따른 3D 얼굴 모델 생성 방법은, 사용자의 얼굴을 촬영한 2D 얼굴 영상들 및 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계; 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계; 상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계를 포함할 수 있다.According to another embodiment, a method for generating a 3D face model includes: acquiring 2D face images obtained by photographing a user's face and direction data of the 2D face images; determining correspondence point information between the 2D face images; generating 3D data about the user's face based on direction data of the 2D face images and information on correspondence points between the 2D face images; and transforming a 3D standard model into a 3D face model for the user by using the 3D data.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는, 모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다.In the method for generating a 3D face model according to another embodiment, the obtaining of direction data of the 2D face images may include obtaining direction data of the 2D face images by using motion data sensed through a motion sensor.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 사용자의 얼굴에 관한 3D 데이터는, 상기 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다.In the method of generating a 3D face model according to another embodiment, the 3D data on the user's face may be a set of 3D points constituting the shape of the user's face.
다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는, 상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.In the method for generating a 3D face model according to another embodiment, the transforming the 3D standard model into a 3D face model for the user may include matching the 3D standard model with 3D data about the user's face to match the 3D standard model to the 3D data about the user's face. may be transformed into a 3D face model for the user.
일 실시예에 따른 얼굴 인식 장치는, 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하는 영상 획득부; 상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈에 따라 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 상기 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부를 포함할 수 있다.A face recognition apparatus according to an embodiment includes: an image acquisition unit configured to acquire a 2D input image including a user's face region; a 3D face model processing unit that adjusts a pose of a pre-stored 3D face model according to a pose of a user's face displayed in the 2D input image, and generates a 2D projection image from the 3D face model; and a face recognition unit configured to perform face recognition by comparing the 2D input image with the 2D projected image.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및 상기 얼굴 영역으로부터 얼굴의 특징점을 검출하는 특징점 검출부를 포함할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processor may include: a face region detector configured to detect a face region from the 2D input image; and a feature point detector configured to detect a feature point of a face from the face region.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 검출된 특징점과 상기 미리 저장된 3D 얼굴 모델의 특징점을 매칭시키는 것에 의해 상기 3D 얼굴 모델의 포즈를 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit may adjust the pose of the 3D face model by matching the detected feature points with the feature points of the 3D face model stored in advance.
일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit adjusts a pose of a 3D shape model according to a face pose of a user displayed in the 2D input image, and based on parameter information of the adjusted 3D shape model You can adjust the 3D texture model.
일 실시예에 따른 얼굴 인식 장치는, 상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부를 더 포함할 수 있다.The face recognition apparatus according to an embodiment may further include a display configured to display at least one of the 2D input image, the 2D projected image, and the face recognition result.
일 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들로부터 얼굴의 특징점을 검출하는 특징점 검출부; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.An apparatus for generating a 3D face model according to an embodiment includes: an image acquisition unit configured to acquire 2D face images of a user photographed at a plurality of viewpoints; a feature point detector for detecting feature points of a face from the 2D face images; a 3D face model generator that generates a deformable 3D shape model and a 3D texture model based on the detected feature points; and a 3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the user's 3D face model.
일 실시예에 따른 3D 얼굴 모델 생성 장치에서, 상기 3D 얼굴 모델 생성부는, 상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부를 포함할 수 있다.In an apparatus for generating a 3D face model according to an embodiment, the 3D face model generator may include: a 3D shape model generator configured to generate a 3D shape model of the user's face based on the detected facial feature points; and a 3D texture model generator configured to generate a 3D texture model based on texture information extracted from at least one of the 2D face images and the 3D shape model.
다른 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부; 상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부; 상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.According to another embodiment, an apparatus for generating a 3D face model includes an image acquisition unit configured to acquire 2D face images of a user photographed at a plurality of viewpoints; a motion sensing unit to obtain direction data of the 2D face images; 3D data about the user's face is generated based on correspondence point information between the 2D face images and direction data of the 2D face images, and a 3D standard model is transformed into a 3D face model for the user using the 3D data 3D face model generation unit; and a 3D face model registration unit for registering and storing a 3D face model for the user.
도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다.
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.1 is a diagram for explaining an overall operation of a face recognition system according to an exemplary embodiment.
2 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to an exemplary embodiment.
3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an exemplary embodiment.
4 is a diagram for describing a process of detecting a feature point from a plurality of 2D face images according to an exemplary embodiment.
5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an exemplary embodiment.
6 is a diagram for explaining a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment.
7 is a diagram for explaining a process of performing face recognition by comparing a 2D input image with a 2D projection image, according to an exemplary embodiment.
8 is a flowchart illustrating an operation of a method for generating a 3D face model according to an exemplary embodiment.
9 is a flowchart illustrating an operation of a face recognition method according to an exemplary embodiment.
10 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to another exemplary embodiment.
11 is a flowchart illustrating an operation of a method for generating a 3D face model according to another exemplary embodiment.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The specific structural and functional descriptions below are only exemplified for the purpose of describing the embodiments, and the scope of the embodiments should not be construed as being limited to the content described in the text. Various modifications and variations are possible from these descriptions by those skilled in the art. In addition, the same reference numerals shown in each drawing indicate the same members, and well-known functions and structures will be omitted.
도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다. 얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상에서 사용자의 얼굴을 인식할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상을 분석하여 2D 입력 영상에 나타난 사용자의 얼굴을 추출하고, 식별할 수 있다. 얼굴 인식 시스템(100)은 감시/보안 시스템, 모바일 인증, 또는 멀티미디어 데이터 검색 등의 다양한 어플리케이션 영역에서 활용될 수 있다.1 is a diagram for explaining an overall operation of a face recognition system according to an exemplary embodiment. The
얼굴 인식 시스템(100)은 사용자에 대한 3D(dimensional) 얼굴 모델을 등록하고, 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 수행할 수 있다. 3D 얼굴 모델은 변형이 가능한(deformable) 3D 모델로서 2D 입력 영상에 나타난 사용자의 얼굴 포즈 또는 얼굴 표정에 따라 변형될 수 있다. 예를 들어, 2D 입력 영상에 나타난 얼굴 포즈가 왼쪽 측면을 바라보고 있는 포즈인 경우, 얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델을 왼쪽 측면을 바라보도록 회전시킬 수 있다. 또한, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 사용자 얼굴의 표정에 따라 3D 얼굴 모델의 표정을 조정할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에서 검출된 얼굴의 특징점에 기초하여 사용자 얼굴의 표정을 분석하고, 분석된 얼굴 표정에 대응되도록 3D 얼굴 모델의 눈, 입, 코 등의 형태를 조정할 수 있다.The
얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델로부터 2D 투영 영상(projection image)을 생성하고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 2D 영상들을 이용함으로써 실시간으로 얼굴 인식이 수행될 수 있다. 2D 투영 영상은 3D 얼굴 모델을 평면으로 투영하여 나타낸 2D 영상이다. 예를 들어, 2D 투영 영상은 2D 입력 영상과 정합(matching)된 3D 얼굴 모델을 2D 입력 영상에서의 시점(viewpoint)과 동일한 시점에서 투영한 2D 영상으로, 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일할 수 있다. 미리 저장된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합시키고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행하는 것에 의해 얼굴 인식을 수행할 수 있다. 2D 입력 영상에 나타난 사용자의 얼굴 포즈가 정면이 아니라 하더라도 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써 포즈 변화에 따른 인식률이 개선될 수 있다.The
이하에서는, 위에 설명된 얼굴 인식 시스템(100)의 동작을 보다 자세히 설명하도록 한다. 얼굴 인식 시스템(100)에 의해 수행되는 얼굴 인식 동작은 크게, 사용자의 3D 얼굴 모델을 등록하는 과정(110) 및 등록된 3D 얼굴 모델을 이용하여 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)을 포함할 수 있다.Hereinafter, the operation of the
사용자의 3D 얼굴 모델을 등록하는 과정(110)에서, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 동일 사용자에 대한 복수의 2D 얼굴 영상들을 획득(130)할 수 있다. 복수의 2D 얼굴 영상들은 사용자의 얼굴을 다양한 시점에서 촬영한 영상들을 포함할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴을 정면 및 측면에서 촬영한 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상은 사용자의 얼굴 영역을 포함하는 영상을 나타내나, 얼굴의 전체 영역이 포함되어야 할 필요는 없다. 얼굴 인식 시스템(100)은 획득된 복수의 2D 얼굴 영상들에서 얼굴의 특징점(또는, 랜드마크(landmark))을 검출(140)할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다.In the
얼굴 인식 시스템(100)은 얼굴 등록을 위한 2D 얼굴 영상들에서 추출된 특징점들을 미리 결정된 3D 표준 모델에 적용하여 3D 모델 개인화를 수행(150)할 수 있다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델일 수 있다. 3D 표준 모델은 3D 형태와 텍스쳐(texture)로 구성될 수 있고, 3D 형태를 표현하는 파라미터들을 포함할 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델의 특징점들과 2D 얼굴 영상들로부터 추출된 특징점들을 서로 매칭시켜 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로 등록되어 저장될 수 있다.The
다른 실시예에 따르면, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 복수의 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 얼굴 영상들과 함께 모션 센서(motion sensor)를 통해 2D 얼굴 영상들의 방향 데이터를 획득할 수 있고, 2D 얼굴 영상들의 매칭 정보 및 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델에 사용자의 얼굴에 관한 3D 데이터를 정합하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 저장되고, 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로서 등록될 수 있다.According to another embodiment, the
2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)에서, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득할 수 있다. 얼굴 인식 시스템(100)은 하나의 2D 입력 영상만으로도 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈 또는 표정에 따라 미리 저장된 3D 얼굴 모델을 조정(160)할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈에 매칭되도록 3D 얼굴 모델의 포즈를 조정하고, 2D 입력 영상에 나타난 얼굴 표정에 매칭되도록 3D 얼굴 모델의 표정을 조정할 수 있다.In the
얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상과 정합된 3D 얼굴 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상과 2D 투영 영상을 서로 비교하여 얼굴 인식을 수행(170)하고, 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.The
얼굴 인식 시스템(100)은 도 2의 3D 얼굴 모델 생성 장치(200) 및 도 10의 3D 얼굴 모델 생성 장치(1000) 중 어느 하나와 도 3의 얼굴 인식 장치(300)를 포함할 수 있다. 사용자의 3D 얼굴 모델을 등록하는 과정(110)은, 도 2의 얼굴 모델 생성 장치(200) 또는 도 10의 얼굴 모델 생성 장치(1000)에 의해 수행될 수 있다. 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)은 얼굴 인식 장치(300)에 의해 수행될 수 있다.The
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(200)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(200)는 3D 얼굴 모델로서 3D 형태 모델 및 3D 텍스쳐 모델을 생성하고, 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 사용자에 대한 3D 얼굴 모델로 등록할 수 있다. 도 2를 참조하면, 3D 얼굴 모델 생성 장치(200)는 영상 획득부(210), 특징점 검출부(220), 3D 얼굴 모델 생성부(230) 및 3D 얼굴 모델 등록부(260)를 포함할 수 있다.2 is a diagram illustrating a configuration of an apparatus for generating a 3D face model according to an exemplary embodiment. The 3D face
영상 획득부(210)는 얼굴 등록을 위한 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 다양한 얼굴 포즈로 촬영된 사용자의 얼굴 영역을 포함할 수 있다. 영상 획득부(210)는 카메라를 통해 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 정면 영상으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있고, 측면 영상으로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 정면 영상과 측면 영상에 나타난 사용자의 얼굴 영역 간의 비교 처리를 통해 사용자 얼굴의 입체적 형태에 관한 정보가 결정될 수 있다. 일 실시예에 따르면, 사용자는 3D 얼굴 모델을 등록하기 위해 카메라를 통해 복수의 2D 얼굴 영상을 촬영할 수 있고, 영상 획득부(210)는 카메라를 통해 촬영된 2D 얼굴 영상들을 저장할 수 있다.The
특징점 검출부(220)는 2D 얼굴 영상에서 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 특징점 검출부(220)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(220)는 능동적 형태 모델(ASM, Active Shape Model), 능동적 외양 모델(AAM, Active Appearance model), 또는 SDM(Supervised Descent Method) 등을 이용하여 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다.The
3D 얼굴 모델 생성부(230)는 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 사용자의 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델로서, 사용자 얼굴에 대한 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델이 생성될 수 있다. 3D 얼굴 모델 생성부(230)는 3D 형태 모델 생성부(240) 및 3D 텍스쳐 모델 생성부(250)를 포함할 수 있다.The 3D
3D 형태 모델 생성부(240)는 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다. 3D 형태 모델은 모델의 형태는 있으나 텍스쳐가 없는 3D 모델이다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다. 예를 들어, 3D 형태 모델 생성부(240)는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및/또는 턱 등의 특징점들과 3D 표준 모델의 특징점을 매칭시키는 것에 의해 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.The 3D
다른 시점에서 촬영된 2D 얼굴 영상을 이용하여 3D 형태 모델을 생성함으로써, 보다 정교한 형태의 3D 형태 모델이 생성될 수 있다. 사용자 얼굴을 정면에서 촬영한 정면 영상만을 이용하여 3D 형태 모델을 생성하는 경우, 3D 형태 모델에서 코의 높이, 광대의 형태 등과 같은 입체적인 형상을 결정하기가 어려울 수 있다. 그러나, 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 3D 형태 모델을 생성하는 경우에는, 코의 높이, 광대의 형태 등에 대한 정보를 추가적으로 반영할 수 있으므로 3D 형태 모델을 보다 정교하게 형성할 수 있다.By generating a 3D shape model using a 2D face image captured at a different viewpoint, a more sophisticated 3D shape model may be generated. When a 3D shape model is generated using only a frontal image of a user's face taken from the front, it may be difficult to determine a three-dimensional shape such as the height of the nose and the shape of the cheeks from the 3D shape model. However, when a 3D shape model is generated using a plurality of 2D face images taken from different viewpoints, information on the height of the nose and the shape of the cheeks can be additionally reflected, so that the 3D shape model can be formed more precisely. have.
3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 예를 들어, 3D 텍스쳐 모델 생성부(250)는 정면 영상에서 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 모델의 형태와 텍스쳐가 모두 존재하는 모델이다. 3D 텍스쳐 모델은 정밀도(level of detail)가 3D 형태 모델보다 높으며, 3D 형태 모델의 버텍스(vertex)들을 포함할 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 3D 모델의 형태가 고정되어 있고, 포즈 및 표정이 변화될 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 동일한 파라미터에 의해 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D
3D 얼굴 모델 등록부(260)는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고, 저장할 수 있다. 예를 들어, 영상 획득부(210)가 획득한 2D 얼굴 영상의 사용자가 "A"라고 하면, 3D 얼굴 모델 등록부(350)는 "A"에 대해 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 "A"의 3D 얼굴 모델로 등록하고, 3D 얼굴 모델 저장부(미도시)에 "A"의 3D 형태 모델 및 3D 텍스쳐 모델을 저장할 수 있다.The 3D face
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 위한 2D 입력 영상에 나타난 사용자에 대해 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 3D 얼굴 모델을 2D 입력 영상에 나타난 사용자의 얼굴 포즈와 동일한 포즈로 회전한 후, 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치(300)는 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써, 사용자의 포즈 변화에 강인한 얼굴 인식 방법을 제공한다. 도 3을 참조하면, 얼굴 인식 장치(300)는 영상 획득부(310), 3D 얼굴 모델 처리부(320), 및 얼굴 인식부(350)를 포함할 수 있다. 3D 얼굴 모델 처리부(320)는 얼굴 영역 검출부(330) 및 특징점 검출부(340)를 포함할 수 있다.3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an exemplary embodiment. The
영상 획득부(310)는 사용자의 얼굴 영역이 포함된 얼굴 인식을 위한 2D 입력 영상을 획득할 수 있다. 영상 획득부(310)는 카메라 등을 통해 사용자 인식 또는 사용자 인증을 위한 2D 입력 영상을 획득할 수 있다. 얼굴 인식 장치(300)는 하나의 2D 입력 영상을 이용하여 사용자에 대해 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다.The
얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출할 수 있다. 얼굴 영역 검출부(330)는 2D 입력 영상 내 밝기 분포, 오브젝트의 움직임, 색상 분포, 또는 눈 위치 등의 정보를 이용하여 2D 입력 영상에서 얼굴 영역을 식별하고, 얼굴 영역의 위치 정보를 추출할 수 있다. 예를 들어, 얼굴 영역 검출부(330)는 관련 기술 분야에서 일반적으로 이용되는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출할 수 있다.The
특징점 검출부(340)는 2D 입력 영상 내 얼굴 영역으로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(340)는 Active Shape Model, Active Appearance Model, 또는 Supervised Descent Method 등을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. The
3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 정합 결과, 3D 얼굴 모델은 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 변형될 수 있다. 3D 얼굴 모델 처리부(320)는 3D 얼굴 모델에 2D 입력 영상으로부터 검출된 특징점들을 맵핑(mapping)하여 3D 얼굴 모델의 포즈 및 표정을 조정할 수 있다. 3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있다. 3D 형태 모델은 2D 입력 영상에 나타난 얼굴 포즈와 빠른 속도로 정합되는데 이용될 수 있고, 3D 텍스쳐 모델은 고해상도의 2D 투영 영상을 생성하는데 이용될 수 있다.The 3D face
3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 포즈에 따라 3D 형태 모델의 포즈를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 특징점들과 3D 형태 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델의 포즈를 2D 입력 영상에 나타난 포즈에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상으로부터 검출된 특징점에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다.The 3D face
또한, 3D 얼굴 모델 처리부(320)는 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상과 3D 형태 모델의 정합 과정에서 결정된 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용할 수 있다. 적용 결과로서, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정을 가지도록 조정될 수 있다. 3D 텍스쳐 모델을 조정한 후, 3D 얼굴 모델 처리부(320)는 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다.Also, the 3D face
얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. The
얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하기 위해 얼굴 인식 기술 분야에서 일반적으로 이용되는 특징 값 결정 방법을 이용할 수 있다. 예를 들어, 얼굴 인식부(350)는 Gabor 필터, LBP(Local Binary Pattern), HOG(Histogram of Oriented Gradient), PCA(Principal component analysis), 또는 LDA(Linear Discriminant Analysis) 등과 같은 특징 추출용 필터를 이용하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다. Gabor 필터는 다양한 크기와 각도를 갖는 다중 필터를 이용하여 영상으로부터 특징을 추출하는 필터이고, LBP는 영상에서 현재 픽셀과 주변 픽셀과의 차이를 특징으로 추출하는 필터이다. 일 실시예에 따르면, 얼굴 인식부(350)는 2D 입력 영상 및 2D 투영 영상에 나타난 얼굴 영역을 일정한 크기의 셀(cell)로 분할한 후, 각 셀마다 LBP에 대한 히스토그램(해당 셀에 속하는 LBP 인덱스 값들에 대한 히스토그램)을 계산할 수 있다. 얼굴 인식부(350)는 계산된 히스토그램들을 일렬로 연결한 벡터를 최종 특징 값으로 결정하고, 2D 입력 영상의 최종 특징 값과 2D 투영 영상의 최종 특징 값을 비교하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다.The
일 실시예에 따르면, 얼굴 인식 장치(300)는 디스플레이부(360)를 더 포함할 수 있다. 디스플레이부(360)는 2D 입력 영상, 2D 투영 영상 및/또는 얼굴 인식 결과를 디스플레이할 수 있다. 사용자가 디스플레이된 2D 입력 영상에 기초하여 얼굴이 제대로 촬영되지 않다고 판단한 경우, 또는 최종적으로 얼굴 인식이 실패하였다고 디스플레이된 경우, 사용자는 얼굴을 다시 촬영할 수 있고, 얼굴 인식 장치(300)는 재촬영되어 생성된 2D 입력 영상에 대해 얼굴 인식을 다시 수행할 수 있다.According to an embodiment, the
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다. 도 4를 참조하면, 영상(420)은 사용자의 얼굴을 정면에서 촬영하여 획득된 2D 얼굴 영상을 나타내고, 영상들(410, 430)은 사용자의 얼굴을 측면에서 촬영하여 획득된 2D 얼굴 영상들을 나타낸다. 정면에서 촬영된 영상(420)으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있다. 측면에서 촬영된 영상들(410, 430)로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 영상(420)으로부터 추출된 사용자의 얼굴 형태에 기초하여 사용자 얼굴에 관한 기본 모델을 설정하고, 영상들(410, 430)로부터 추출된 사용자의 얼굴 형태에 기초하여 해당 기본 모델의 입체적 형태를 결정할 수 있다.4 is a diagram for describing a process of detecting a feature point from a plurality of 2D face images according to an exemplary embodiment. Referring to FIG. 4 , an
3D 얼굴 모델 생성 장치(200)의 특징점 검출부(220)는 영상들(410, 420, 430)과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들에서 얼굴의 특징점들을 검출할 수 있다. 얼굴의 특징점은 눈썹, 눈, 코, 입, 턱 등의 윤곽 영역에 위치하는 특징점을 나타낸다. 특징점 검출부(220)는 관련 기술 분야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등의 방식을 이용하여 영상들(410, 420, 430)에서 얼굴의 특징점을 검출할 수 있다. ASM 모델(또는, AAM 모델, SDM 모델)의 포즈, 스케일, 또는 위치에 대한 초기화는 얼굴 검출 결과에 기초하여 수행될 수 있다.The
영상(440)은 영상(410)의 얼굴 영역(442) 내에서 특징점(444)들이 검출된 결과 영상을 나타내고, 영상 (450)은 영상(420)의 얼굴 영역(452) 내에서 특징점(454)들이 검출된 결과 영상을 나타낸다. 마찬가지로, 영상(460)은 영상(430)의 얼굴 영역(462) 내에서 특징점(464)들이 검출된 결과 영상을 나타낸다.The
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다. 도 5를 참조하면, 모델(510)은 3D 표준 모델을 나타낸다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델로서, 평균 형태와 파라미터를 통해 사용자 얼굴의 신원(identity)을 나타낼 수 있는 파라메트릭 모델(parametric model)일 수 있다.5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an exemplary embodiment. Referring to FIG. 5 , a
3D 표준 모델은 다음의 수학식 1과 같이, 평균 형태와 형태 변화량으로 구성될 수 있다. 형태 변화량은 형태 파라미터와 형태 벡터의 가중합(weighted sum)이다.The 3D standard model may be composed of an average shape and a shape change amount as shown in Equation 1 below. The shape change amount is a weighted sum of the shape parameter and the shape vector.
여기서, 는 3D 표준 모델의 3D 형태를 구성하는 엘리먼트들을 나타내고, 는 3D 표준 모델의 평균 형태에 관한 엘리먼트들을 나타낸다. 는 인덱스 계수 i에 대응하는 형태 엘리먼트들을 나타내고, 는 인덱스 계수 i에 대응하는 형태 엘리먼트에 적용되는 형태 파라미터를 나타낸다.here, represents the elements constituting the 3D shape of the 3D standard model, denotes elements related to the average shape of the 3D standard model. represents the form elements corresponding to the index coefficient i, denotes a shape parameter applied to a shape element corresponding to the index coefficient i.
3D 표준 모델의 3D 형태를 구성하는 엘리먼트들 는 다음의 수학식 2와 같이 3차원 점들의 좌표로 구성될 수 있다.Elements that make up the 3D shape of the 3D standard model may be composed of coordinates of three-dimensional points as shown in Equation 2 below.
여기서, 는 는 3차원 점(, , )의 인덱스를 나타내는 변수이고, T는 트랜스포즈(transpose)를 나타낸다.here, Is is a three-dimensional point ( , , ) is a variable indicating the index, and T indicates transpose.
3D 얼굴 모델 생성 장치(200)의 3D 형태 모델 생성부(240)는 사용자의 얼굴을 등록하기 위해, 복수의 시점들에서 촬영된 2D 얼굴 영상들에 기초하여 3D 표준 모델을 개인화할 수 있다. 3D 형태 모델 생성부(240)는 3D 표준 모델에 포함된 특징점들과 2D 얼굴 영상들에서 검출된 얼굴의 특징점들을 매칭시킬 수 있는 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.In order to register the user's face, the 3D
모델들(520, 530)은 3D 표준 모델(510)로부터 생성된 사용자 얼굴에 대한 3D 형태 모델들을 나타낸다. 모델(520)은 정면에서 바라본 3D 형태 모델을 나타내고, 모델(530)은 측면에서 바라본 3D 형태 모델을 나타낸다. 3D 형태 모델은 형태 정보는 존재하나, 텍스쳐 정보가 존재하지 않는 모델로서, 사용자 인증 과정에서 2D 입력 영상과 고속으로 정합하는데 이용될 수 있다.The
3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나의 2D 얼굴 영상에서 추출한 텍스쳐를 3D 형태 모델의 표면에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 형태 모델의 표면에 텍스쳐를 맵핑한다는 것은, 예를 들어, 정면에서 촬영된 2D 얼굴 영상에서 추출한 텍스쳐 정보에 3D 형태 모델로부터 획득된 깊이 정보를 추가한다는 것을 나타낼 수 있다.The 3D
모델들(540, 550)는 3D 형태 모델에 기초하여 생성된 3D 텍스쳐 모델들을 나타낸다. 모델(540)은 정면에서 바라본 3D 텍스쳐 모델을 나타내고, 모델(550)은 대각 방향에서 바라본 3D 텍스쳐 모델을 나타낸다. 3D 텍스쳐 모델은 형태 정보와 텍스쳐 정보가 모두 존재하는 모델로서, 사용자 인증 과정에서 2D 투영 영상을 생성하는데 이용될 수 있다. The
3D 형태 모델 및 3D 텍스쳐 모델은 사용자의 고유 특징을 나타내는 얼굴의 형태는 고정되어 있고, 포즈 또는 표정이 변형될 수 있는 3D 모델이다. 3D 텍스쳐 모델은 3D 형태 모델보다 정밀도가 높으며, 보다 많은 버텍스를 포함하고 있다. 3D 형태 모델을 구성하는 버텍스들은 3D 텍스쳐 모델을 구성하는 버텍스들의 하위 집합(subset)으로, 동일한 파라미터에 의해 3D 형태 모델과 3D 텍스쳐 모델은 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D shape model and the 3D texture model are 3D models in which the shape of the face representing the user's unique characteristics is fixed and the pose or expression can be changed. The 3D texture model is more precise than the 3D shape model and contains more vertices. Vertices constituting the 3D shape model are a subset of vertices constituting the 3D texture model, and the 3D shape model and the 3D texture model may exhibit the same pose and expression by the same parameters.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다. 도 6을 참조하면, 영상(610)은 얼굴 인식 또는 사용자 인증을 위해 얼굴 인식 장치에 입력되는 2D 입력 영상으로서, 카메라를 통해 촬영된 얼굴 포즈 영상을 나타낸다.6 is a diagram for describing a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment. Referring to FIG. 6 , an
얼굴 인식 장치(300)의 얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 특징점 검출부(340)는 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 입, 또는 턱 등의 윤곽에 위치하는 특징점들을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 ASM, AAM, 또는 SDM 등의 방식을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 영상(620)는 얼굴 영역 검출부(330)에 의해 영상(610)에서 얼굴 영역(630)이 검출되고, 특징점 검출부(340)에 의해 얼굴 영역(630) 내에서 특징점(640)들이 검출된 결과 영상을 나타낸다.The
3D 얼굴 모델 처리부(320)는 미리 등록되어 저장된 3D 형태 모델을 2D 입력 영상에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 파라미터를 조절하여 포즈 및 표정을 조정할 수 있다. 모델(650)은 미리 등륵되어 저장된 사용자 얼굴에 대한 3D 형태 모델을 나타내고, 모델(660)은 영상(610)에서 검출된 얼굴의 특징점(640)들에 기초하여 포즈 및 표정이 조정된 3D 형태 모델을 나타낸다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일하게 미리 저장된 3D 형태 모델의 포즈를 조정할 수 있다. 2D 입력 영상인 영상(610)에서, 사용자는 얼굴을 측면으로 회전한 포즈를 취하고 있고, 3D 얼굴 모델 처리부(320)에 의해 포즈가 조정된 3D 형태 모델도 영상(610)에서의 사용자 포즈와 동일하게 얼굴이 측면으로 회전한 포즈를 취하고 있다.The 3D face
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다. 얼굴 인식 장치(300)의 3D 얼굴 모델 처리부(320)는 얼굴 인식을 위한 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 조정된 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용하여, 3D 텍스쳐 모델의 포즈 및 표정을 3D 형태 모델과 동일하게 조정할 수 있다. 그 후, 3D 얼굴 모델 처리부(320)는 3D 텍스쳐 모델을 영상 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도에 기초하여 얼굴 인식을 수행하고, 얼굴 인식 결과를 출력할 수 있다.7 is a view for explaining a process of performing face recognition by comparing a 2D input image with a 2D projection image, according to an exemplary embodiment. The 3D face
도 7을 참조하면, 영상(710)은 얼굴 인식을 위해 이용되는 2D 입력 영상을 나타낸다. 영상(720)은 얼굴 인식부(350)가 얼굴 인식을 수행하기 위해 2D 입력 영상인 영상(710)과 비교되는 기준 영상이다. 영상(720)에 포함된 영역(730)은 3D 텍스쳐 모델로부터 생성된 2D 투영 영상이 반영된 영역을 나타낸다. 예를 들어, 영역(730)은 도 6의 형태 모델(660)에 텍스쳐가 맵핑된 텍스쳐 모델이 영상 평면으로 투영된 얼굴 영역일 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 사용자의 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역만을 비교하여 얼굴 인식을 수행할 수 있다. 또는, 얼굴 인식부(350)는 도 7에서와 같이 2D 입력 영상인 영상(710)과 2D 입력 영상에 2D 투영 영상이 반영된 결과 영상인 영상(720)의 전체 영역을 비교하여 얼굴 인식을 수행할 수도 있다.Referring to FIG. 7 , an
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.8 is a flowchart illustrating an operation of a method for generating a 3D face model according to an exemplary embodiment.
단계(810)에서, 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 사용자의 얼굴을 등록하는데 이용될 수 있다. 2D 얼굴 영상들은, 예를 들어, 정면 영상 및 측면 영상과 같이 다양한 얼굴 포즈로 촬영된 영상들을 포함할 수 있다.In
단계(820)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 관련 기술 분아야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등을 이용하여 2D 얼굴 영상들로부터 눈썹, 눈, 코, 입 등의 윤곽에 위치한 얼굴의 특징점들을 검출할 수 있다.In
단계(830)에서, 3D 얼굴 모델 생성 장치는 검출된 특징점에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및 턱 등의 특징점들과 3D 표준 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다.In
단계(840)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상으로부터 추출한 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 적어도 하나의 2D 얼굴 영상으로부터 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 사용자 얼굴에 대한 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 텍스쳐 모델의 파라미터가 적용되어 3D 텍스쳐 모델과 동일한 포즈 및 표정을 나타낼 수 있다.In
단계(850)에서, 3D 얼굴 모델 생성 장치는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고 저장할 수 있다. 저장된 3D 형태 모델 및 3D 텍스쳐 모델은 사용자 인증 과정에서 2D 입력 영상에 나타난 사용자를 인증하기 위해 이용될 수 있다.In
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of a face recognition method according to an exemplary embodiment.
단계(910)에서, 얼굴 인식 장치는 얼굴 인식을 위한 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 얼굴 인식 장치는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 턱, 입 등의 윤곽에 위치한 얼굴의 특징점을 검출할 수 있다. 예를 들어, 얼굴 인식 장치는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출하고, ASM, AAM, 또는 SDM 등을 이용하여 얼굴 영역 내에서 얼굴의 특징점을 검출할 수 있다.In
단계(920)에서, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 사용자의 3D 얼굴 모델을 조정할 수 있다. 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 3D 얼굴 모델을 변형할 수 있다.In
3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점들에 기초하여 3D 형태 모델의 포즈를 조정하고, 포즈가 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 얼굴 인식 장치 2D 입력 영상으로부터 검출된 특징점들에 기초하여 3D형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하고, 3D 형태 모델의 조정된 파라미터들을 3D 텍스쳐 모델에 적용할 수 있다. 파라미터들의 적용 결과, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정으로 조정될 수 있다.The 3D face model may include a 3D shape model and a 3D texture model, and the face recognition apparatus adjusts the pose of the 3D shape model based on feature points detected in the 2D input image, and the parameter of the 3D shape model with the adjusted pose Based on the information, the 3D texture model can be adjusted. A pose parameter and an expression parameter of the 3D shape model may be adjusted based on feature points detected from the 2D input image of the face recognition apparatus, and the adjusted parameters of the 3D shape model may be applied to the 3D texture model. As a result of the application of the parameters, the 3D texture model may be adjusted to the same pose and expression as that of the 3D shape model.
단계(930)에서, 얼굴 인식 장치는 3D 텍스쳐 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치는 단계(920)에서 3D 형태 모델에 기초하여 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 얼굴 포즈와 동일할 수 있다. 예를 들어, 2D 입력 영상에서 나타난 사용자의 얼굴 포즈가 측면을 바라보는 포즈라고 하면, 단계(910) 내지 단계(930)을 통해 생성된 2D 투영 영상도 2D 입력 영상에서와 동일하게 3D 텍스쳐 모델이 측면을 바라보는 얼굴 포즈를 나타낼 수 있다.In
단계(940)에서, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.In
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(1000)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(1000)는 다양한 방향에서 촬영된 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 도 10을 참조하면, 3D 얼굴 모델 생성 장치(1000)는 영상 획득부(1010), 모션 센싱부(1020), 3D 얼굴 모델 생성부(1030) 및 3D 얼굴 모델 등록부(1040)를 포함할 수 있다.10 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to another exemplary embodiment. The 3D face
영상 획득부(1010)는 얼굴 등록을 위한 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 영상 획득부(1010)는 카메라를 통해 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다. 예를 들어, 영상 획득부(1010)는 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다.The
모션 센싱부(1020)는 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 모션 센싱부(1020)는 다양한 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 결정할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다. 예를 들어, 모션 센싱부(1020)는 가속도 센서(accelerometer), 각속도 센서(gyroscope) 및 자기 센서(magnetometer)를 포함하는 관성 측정 장치(inertial measurement unit; IMU)를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 결정할 수 있다.The
예를 들어, 사용자는 카메라를 다양한 위치로 회전하여 얼굴을 촬영할 수 있고, 촬영 결과로서 다양한 시점에서 촬영된 2D 얼굴 영상들이 획득될 수 있다. 2D 얼굴 영상들이 촬영될 때, 모션 센싱부(1020)는 관성 측정 장치로부터 출력된 센싱 정보에 기초하여 2D 얼굴 영상들을 촬영한 카메라의 속도, 방향, 롤(roll), 피치(pitch) 및/또는 요(yaw)의 변화 등과 같은 모션 데이터를 계산하고, 모션 데이터로부터 2D 얼굴 영상들이 촬영된 방향에 관한 방향 데이터를 결정할 수 있다.For example, the user may photograph a face by rotating the camera to various positions, and 2D face images photographed at various viewpoints may be obtained as a result of the photographing. When the 2D face images are captured, the
3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에 나타난 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 3D 얼굴 모델 생성부(1030) 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다.The 3D
3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는, 예를 들어, 기존의 스테레오 매칭(stereo matching) 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 내지 표면을 구성하는 3D 포인트들의 집합일 수 있다.The 3D
3D 얼굴 모델 생성부(1030)는 사용자의 얼굴에 관한 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 변형이 가능한(deformable) 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 사용자에 대한 3D 얼굴 모델은 사용자 얼굴의 형태에 관한 3D 형상 모델 및/또는 텍스쳐 정보를 포함하는 3D 텍스쳐 모델을 포함할 수 있다.The 3D
3D 얼굴 모델 등록부(1040)는 3D 얼굴 모델 생성부(1030)에 의해 생성된 사용자에 대한 3D 얼굴 모델을 등록하고 저장할 수 있다. 저장된 사용자에 대한 3D 얼굴 모델은 사용자의 얼굴을 인식하기 위해 이용되고, 얼굴 인식 과정에서 형태가 변형될 수 있다.The 3D face
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation of a method for generating a 3D face model according to another exemplary embodiment.
단계(1110)에서, 3D 얼굴 모델 생성 장치는 얼굴 등록을 위한 복수의 2D 얼굴 영상들 및 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 3D 얼굴 모델 생성 장치는 정면 영상 및 측면 영상 등과 같이 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다.In
3D 얼굴 모델 생성 장치는 모션 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 가속도 센서, 각속도 센서 및 자기 센서를 포함하는 관성 측정 장치를 통해 센싱된 모션 데이터를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 획득할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다.The 3D face model generating apparatus may obtain direction data of 2D face images by using motion data sensed through a motion sensor. For example, the 3D face model generating apparatus may obtain direction data for each of the 2D face images by using motion data sensed through an inertial measurement device including an acceleration sensor, an angular velocity sensor, and a magnetic sensor. The direction data of the 2D face images may include information about a direction in which each 2D face image is captured.
단계(1120)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 검출된 특징점들에 기초하여 2D 얼굴 영상들 사이에서 서로 대응되는 대응점을 검출할 수 있다.In
단계(1130)에서, 3D 얼굴 모델 생성 장치는 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 예를 들어, 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 또는 얼굴 표면을 구성하는 3D 포인트들의 집합으로서, 복수의 버텍스(vertex)들로 구성될 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성 장치는 기존의 스테레오 매칭 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.In
단계(1140)에서, 3D 얼굴 모델 생성 장치는 단계(1130)에서 생성된 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 사용자에 대한 3D 얼굴 모델로서 3D 형상 모델 및/또는 3D 텍스쳐 모델을 생성할 수 있다. 생성된 사용자에 대한 3D 얼굴 모델은 저장 및 등록되고, 사용자의 얼굴을 인식하기 위해 이용될 수 있다.In
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (32)
상기 검출된 특징점들에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계;
상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계를 포함하고,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 3D 얼굴 모델에 상기 검출된 특징점들을 맵핑(mapping)하여 상기 3D 얼굴 모델의 표정을 조정하는 단계를 포함하고,
상기 2D 투영 영상을 생성하는 단계는,
상기 표정이 조정된 3D 얼굴 모델로부터 상기 2D 투영 영상을 생성하는 단계를 포함하고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는,
얼굴 인식 방법.detecting feature points of a face from a 2D (dimensional) input image;
adjusting a pre-stored 3D face model based on the detected feature points;
generating a 2D projection image from the adjusted 3D face model; and
Comprising the step of performing face recognition by comparing the 2D input image and the 2D projection image,
Adjusting the 3D face model comprises:
adjusting the expression of the 3D face model by mapping the detected feature points to the 3D face model;
The step of generating the 2D projection image comprises:
Generating the 2D projection image from the 3D face model with the expression adjusted,
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image,
How to recognize faces.
상기 3D 얼굴 모델을 조정하는 단계는,
상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑(mapping)하여 상기 3D 얼굴 모델의 포즈를 조정하는 단계
를 포함하는 얼굴 인식 방법.According to claim 1,
Adjusting the 3D face model comprises:
adjusting the pose of the 3D face model by mapping the detected feature points to the 3D face model
A face recognition method comprising
상기 3D 얼굴 모델은, 3D 형태 모델(shape model) 및 3D 텍스쳐 모델(texture model)을 포함하고,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 2D 입력 영상으로부터 검출된 특징점들에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및
상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계
를 포함하는 얼굴 인식 방법.3. The method of claim 2,
The 3D face model includes a 3D shape model and a 3D texture model,
Adjusting the 3D face model comprises:
adjusting the 3D shape model based on feature points detected from the 2D input image; and
adjusting the 3D texture model based on parameter information of the adjusted 3D shape model
A face recognition method comprising
상기 3D 형태 모델을 조정하는 단계는,
상기 검출된 특징점들에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계
를 포함하는 얼굴 인식 방법.4. The method of claim 3,
Adjusting the 3D shape model comprises:
adjusting a pose parameter and an expression parameter of the 3D shape model based on the detected feature points
A face recognition method comprising
상기 2D 투영 영상을 생성하는 단계는,
상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계
를 포함하는 얼굴 인식 방법.4. The method of claim 3,
The step of generating the 2D projection image comprises:
generating a 2D projection image from the adjusted 3D texture model;
A face recognition method comprising
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은,
3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델인, 얼굴 인식 방법.4. The method of claim 3,
The 3D shape model and the 3D texture model are,
A face recognition method, in which the shape of a 3D model is fixed, and a model whose poses and expressions can be changed.
상기 2D 투영 영상은,
상기 2D 입력 영상에 나타난 얼굴 포즈와 동일한 얼굴 포즈를 나타내는, 얼굴 인식 방법.According to claim 1,
The 2D projection image is
A face recognition method representing the same face pose as the face pose shown in the 2D input image.
상기 얼굴 인식을 수행하는 단계는,
상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및
상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계
를 포함하는 얼굴 인식 방법.According to claim 1,
The step of performing the face recognition comprises:
determining a similarity between the 2D input image and the 2D projection image; and
outputting a face recognition result based on whether the degree of similarity satisfies a predetermined condition
A face recognition method comprising
상기 얼굴의 특징점들을 검출하는 단계는,
상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및
상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점들을 검출하는 단계
를 포함하는 얼굴 인식 방법.According to claim 1,
The step of detecting the feature points of the face comprises:
extracting a face region from the 2D input image; and
detecting feature points included in at least one of eyebrows, eyes, nose, mouth, chin, ears, and face contours from the face region;
A face recognition method comprising
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계를 포함하고,
상기 등록된 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는,
3D 얼굴 모델 생성 방법.acquiring 2D face images of a user taken at a plurality of viewpoints;
detecting feature points of a face from the 2D face images;
generating a deformable 3D shape model and a 3D texture model based on the detected feature points; and
Registering the 3D shape model and the 3D texture model as the user's 3D face model, and storing the model,
In the face recognition process using the registered 3D face model,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression shown in the generated 2D projection image corresponds to the facial expression shown in the 2D input image,
How to create a 3D face model.
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐(texture) 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.11. The method of claim 10,
The step of generating the 3D shape model and the 3D texture model comprises:
generating the 3D texture model based on texture information extracted from at least one of the 2D face images and the 3D shape model;
A method of generating a 3D face model, including
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑(mapping)하기 위한 파라미터를 결정하는 단계; 및
상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.11. The method of claim 10,
The step of generating the 3D shape model and the 3D texture model comprises:
determining a parameter for mapping the detected feature points and feature points of a 3D standard model; and
generating the 3D shape model by applying the determined parameter to the 3D standard model
A method of generating a 3D face model, including
상기 3D 텍스쳐 모델은,
상기 3D 형태 모델의 버텍스(vertex)들을 포함하는, 3D 얼굴 모델 생성 방법.11. The method of claim 10,
The 3D texture model is
A method of generating a 3D face model, including vertices of the 3D shape model.
상기 2D 얼굴 영상들은,
상기 사용자의 얼굴을 서로 다른 시점에서 촬영한 영상들을 포함하는, 3D 얼굴 모델 생성 방법.11. The method of claim 10,
The 2D face images are
A method of generating a 3D face model, including images obtained by photographing the user's face from different viewpoints.
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계;
상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및
상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계
를 포함하고,
상기 사용자에 대한 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 3D 얼굴 모델 생성 방법.obtaining 2D face images obtained by photographing a user's face and direction data of the 2D face images;
determining correspondence point information between the 2D face images;
generating 3D data about the user's face based on direction data of the 2D face images and information on correspondence points between the 2D face images; and
transforming a 3D standard model into a 3D face model for the user using the 3D data;
including,
In the face recognition process using the 3D face model for the user,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 방법.16. The method of claim 15,
Transforming the 3D standard model into a 3D face model for the user comprises:
A method for generating a 3D face model, wherein the 3D standard model is matched with 3D data about the user's face to transform the 3D standard model into a 3D face model for the user.
상기 사용자의 얼굴에 관한 3D 데이터는,
상기 사용자의 얼굴의 형태(shape)를 구성하는 3D 포인트들의 집합인, 3D 얼굴 모델 생성 방법.16. The method of claim 15,
3D data about the user's face,
A method of generating a 3D face model, which is a set of 3D points constituting the shape of the user's face.
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는,
모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득하는, 3D 얼굴 모델 생성 방법.16. The method of claim 15,
The step of obtaining direction data of the 2D face images comprises:
A method for generating a 3D face model, comprising obtaining direction data of the 2D face images by using motion data sensed through a motion sensor.
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 및
상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.16. The method of claim 15,
The step of determining correspondence point information between the 2D face images includes:
detecting feature points of a face from the 2D face images; and
determining correspondence point information between the 2D face images based on the detected feature points
A method of generating a 3D face model, including
상기 2D 입력 영상으로부터 검출된 특징점들에 기초하여 미리 저장된 3D 얼굴 모델을 조정하고, 상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부
를 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및
상기 얼굴 영역으로부터 얼굴의 상기 특징점들을 검출하는 특징점 검출부
를 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 3D 얼굴 모델에 상기 검출된 특징점들을 맵핑(mapping)하여 상기 3D 얼굴 모델의 표정을 조정하고, 상기 표정이 조정된 3D 얼굴 모델로부터 상기 2D 투영 영상을 생성하고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 얼굴 인식 장치.an image acquisition unit for acquiring a 2D input image including a user's face region;
a 3D face model processing unit that adjusts a pre-stored 3D face model based on the feature points detected from the 2D input image and generates a 2D projection image from the adjusted 3D face model; and
A face recognition unit that performs face recognition by comparing the 2D input image with the 2D projection image
including,
The 3D face model processing unit,
a face region detector configured to detect a face region from the 2D input image; and
A feature point detection unit for detecting the feature points of the face from the face region
including,
The 3D face model processing unit,
adjusting the expression of the 3D face model by mapping the detected feature points to the 3D face model, and generating the 2D projection image from the 3D face model with the adjusted expression;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
상기 3D 얼굴 모델 처리부는,
상기 검출된 특징점들과 상기 미리 저장된 3D 얼굴 모델의 특징점들을 매칭시키는 것에 의해 상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈(pose)에 따라 상기 3D 얼굴 모델의 포즈를 조정하는, 얼굴 인식 장치.22. The method of claim 21,
The 3D face model processing unit,
and adjusting a pose of the 3D face model according to a pose of a user's face displayed in the 2D input image by matching the detected feature points with the feature points of the 3D face model stored in advance.
상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 상기 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는, 얼굴 인식 장치.24. The method of claim 23,
The 3D face model includes a 3D shape model and a 3D texture model,
The 3D face model processing unit,
A face recognition apparatus for adjusting a pose of the 3D shape model according to a face pose of a user displayed in the input image, and adjusting the 3D texture model based on parameter information of the adjusted 3D shape model.
상기 3D 얼굴 모델 처리부는,
상기 조정된 3D 텍스쳐 모델을 평면으로 투영하여 상기 2D 투영 영상을 생성하는, 얼굴 인식 장치.25. The method of claim 24,
The 3D face model processing unit,
and generating the 2D projection image by projecting the adjusted 3D texture model onto a plane.
상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부
를 더 포함하는 얼굴 인식 장치.22. The method of claim 21,
a display unit configured to display at least one of the 2D input image, the 2D projection image, and a face recognition result
A face recognition device further comprising a.
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 특징점 검출부;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하고,
상기 등록된 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 3D 얼굴 모델 생성 장치.an image acquisition unit for acquiring 2D face images of a user taken at a plurality of viewpoints;
a feature point detector for detecting feature points of a face from the 2D face images;
a 3D face model generator that generates a deformable 3D shape model and a 3D texture model based on the detected feature points; and
3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the user's 3D face model
including,
In the face recognition process using the registered 3D face model,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
상기 3D 얼굴 모델 생성부는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는, 3D 얼굴 모델 생성 장치.28. The method of claim 27,
The 3D face model generation unit,
3D face model generating apparatus, which determines a parameter for mapping the detected feature points and feature points of a 3D standard model, and generates the 3D shape model by applying the determined parameter to the 3D standard model.
상기 3D 얼굴 모델 생성부는,
상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부
를 포함하는 3D 얼굴 모델 생성 장치.28. The method of claim 27,
The 3D face model generation unit,
a 3D shape model generator for generating a 3D shape model of the user's face based on the detected facial feature points; and
A 3D texture model generator that generates a 3D texture model based on the texture information extracted from at least one of the 2D face images and the 3D shape model
A 3D face model generating device comprising a.
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부;
상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부;
상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하고,
상기 저장된 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 3D 얼굴 모델 생성 장치.an image acquisition unit for acquiring 2D face images of a user taken at a plurality of viewpoints;
a motion sensing unit to obtain direction data of the 2D face images;
3D data about the user's face is generated based on correspondence point information between the 2D face images and direction data of the 2D face images, and a 3D standard model is transformed into a 3D face model for the user using the 3D data 3D face model generation unit;
3D face model registration unit for registering and storing 3D face models for the user
including,
In the face recognition process using the stored 3D face model,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
상기 3D 얼굴 모델 생성부는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는, 3D 얼굴 모델 생성 장치.31. The method of claim 30,
The 3D face model generation unit,
and detecting feature points of a face from the 2D face images, and determining correspondence point information between the 2D face images based on the detected feature points.
상기 3D 얼굴 모델 생성부는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 장치.31. The method of claim 30,
The 3D face model generation unit,
and matching the 3D standard model with 3D data about the user's face to transform the 3D standard model into a 3D face model for the user.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/796,224 US20160070952A1 (en) | 2014-09-05 | 2015-07-10 | Method and apparatus for facial recognition |
EP19200425.7A EP3614303A1 (en) | 2014-09-05 | 2015-07-15 | Method and apparatus for facial recognition |
EP15176898.3A EP2993614B1 (en) | 2014-09-05 | 2015-07-15 | Method and device for facial recognition |
CN202210474282.3A CN114627543A (en) | 2014-09-05 | 2015-07-24 | Method and apparatus for face recognition |
CN201510441052.7A CN106203248A (en) | 2014-09-05 | 2015-07-24 | Method and apparatus for face recognition |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140118828 | 2014-09-05 | ||
KR20140118828 | 2014-09-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160029629A KR20160029629A (en) | 2016-03-15 |
KR102357340B1 true KR102357340B1 (en) | 2022-02-03 |
Family
ID=55542177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150001850A KR102357340B1 (en) | 2014-09-05 | 2015-01-07 | Method and apparatus for face recognition |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102357340B1 (en) |
CN (1) | CN106203248A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024039026A1 (en) * | 2022-08-18 | 2024-02-22 | 슈퍼랩스 주식회사 | Method, computer device, and computer program for generating multi-angle image-based 3d avatar |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101998361B1 (en) * | 2016-06-01 | 2019-07-10 | 가천대학교 산학협력단 | Method of facial recognition in camera image |
US11010595B2 (en) * | 2017-03-23 | 2021-05-18 | Samsung Electronics Co., Ltd. | Facial verification method and apparatus |
CN108932459B (en) * | 2017-05-26 | 2021-12-10 | 富士通株式会社 | Face recognition model training method and device and face recognition method |
CN108171182B (en) * | 2017-12-29 | 2022-01-21 | Oppo广东移动通信有限公司 | Electronic device, face recognition method and related product |
CN108470186A (en) * | 2018-02-14 | 2018-08-31 | 天目爱视(北京)科技有限公司 | A kind of matching process and device of image characteristic point |
RU2697627C1 (en) * | 2018-08-01 | 2019-08-15 | Самсунг Электроникс Ко., Лтд. | Method of correcting illumination of an object on an image in a sequence of images and a user's computing device which implements said method |
CN108858201A (en) * | 2018-08-15 | 2018-11-23 | 深圳市烽焌信息科技有限公司 | It is a kind of for nursing the robot and storage medium of children |
CN109255327A (en) * | 2018-09-07 | 2019-01-22 | 北京相貌空间科技有限公司 | Acquisition methods, face's plastic operation evaluation method and the device of face characteristic information |
CN111310512B (en) * | 2018-12-11 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | User identity authentication method and device |
EP3674974A1 (en) * | 2018-12-31 | 2020-07-01 | Samsung Electronics Co., Ltd. | Apparatus and method with user verification |
CN110111418B (en) * | 2019-05-15 | 2022-02-25 | 北京市商汤科技开发有限公司 | Method and device for creating face model and electronic equipment |
CN110097035A (en) * | 2019-05-15 | 2019-08-06 | 成都电科智达科技有限公司 | A kind of facial feature points detection method based on 3D human face rebuilding |
KR102145517B1 (en) * | 2019-05-31 | 2020-08-18 | 주식회사 모르페우스 | Method, system and non-transitory computer-readable recording medium for registration of 3-dimentional measured data |
KR20240030109A (en) * | 2022-08-29 | 2024-03-07 | 삼성전자주식회사 | An electronic apparatus for providing avatar based on an user's face and a method for operating the same |
CN117789272A (en) * | 2023-12-26 | 2024-03-29 | 中邮消费金融有限公司 | Identity verification method, device, equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115847A (en) * | 2003-10-10 | 2005-04-28 | Babcock Hitachi Kk | Method for collating objects reflected in two-dimensional image and specific three-dimensional image |
JP2010128742A (en) * | 2008-11-27 | 2010-06-10 | Casio Computer Co Ltd | Three-dimensional data creation device |
JP2011039869A (en) * | 2009-08-13 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | Face image processing apparatus and computer program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100412885C (en) * | 2005-05-23 | 2008-08-20 | 株式会社东芝 | Image recognition apparatus and method |
CN101159015B (en) * | 2007-11-08 | 2010-12-08 | 清华大学 | Two-dimensional human face image recognizing method |
JP4569670B2 (en) * | 2008-06-11 | 2010-10-27 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
CN101499132B (en) * | 2009-03-12 | 2013-05-01 | 广东药学院 | Three-dimensional transformation search method for extracting characteristic points in human face image |
CN102156537B (en) * | 2010-02-11 | 2016-01-13 | 三星电子株式会社 | A kind of head pose checkout equipment and method |
CN102271241A (en) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | Image communication method and system based on facial expression/action recognition |
-
2015
- 2015-01-07 KR KR1020150001850A patent/KR102357340B1/en active IP Right Grant
- 2015-07-24 CN CN201510441052.7A patent/CN106203248A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115847A (en) * | 2003-10-10 | 2005-04-28 | Babcock Hitachi Kk | Method for collating objects reflected in two-dimensional image and specific three-dimensional image |
JP2010128742A (en) * | 2008-11-27 | 2010-06-10 | Casio Computer Co Ltd | Three-dimensional data creation device |
JP2011039869A (en) * | 2009-08-13 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | Face image processing apparatus and computer program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024039026A1 (en) * | 2022-08-18 | 2024-02-22 | 슈퍼랩스 주식회사 | Method, computer device, and computer program for generating multi-angle image-based 3d avatar |
Also Published As
Publication number | Publication date |
---|---|
KR20160029629A (en) | 2016-03-15 |
CN106203248A (en) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102357340B1 (en) | Method and apparatus for face recognition | |
EP2993614B1 (en) | Method and device for facial recognition | |
KR102290392B1 (en) | Method and apparatus for registering face, method and apparatus for recognizing face | |
US10733422B2 (en) | Face recognition method and apparatus | |
KR101997500B1 (en) | Method and apparatus for generating personalized 3d face model | |
US10331941B2 (en) | Face recognition method and apparatus | |
US9881204B2 (en) | Method for determining authenticity of a three-dimensional object | |
EP3825905A1 (en) | Method and apparatus with liveness test and/or biometric authentication, computer program therefore and medium storing the same | |
KR101647803B1 (en) | Face recognition method through 3-dimension face model projection and Face recognition system thereof | |
KR102476016B1 (en) | Apparatus and method for determining position of eyes | |
US11238271B2 (en) | Detecting artificial facial images using facial landmarks | |
KR20210069404A (en) | Liveness test method and liveness test apparatus | |
CN110647782A (en) | Three-dimensional face reconstruction and multi-pose face recognition method and device | |
US11048926B2 (en) | Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms | |
Bauer et al. | 4D Photogeometric face recognition with time-of-flight sensors | |
Sun et al. | Dual camera based feature for face spoofing detection | |
KR101509934B1 (en) | Device of a front head pose guidance, and method thereof | |
KR20230105986A (en) | Liveness test method and liveness test apparatus | |
Yağcıoğlu | Comparison of 3d facial anchor point localization methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |