KR102357340B1 - Method and apparatus for face recognition - Google Patents

Method and apparatus for face recognition Download PDF

Info

Publication number
KR102357340B1
KR102357340B1 KR1020150001850A KR20150001850A KR102357340B1 KR 102357340 B1 KR102357340 B1 KR 102357340B1 KR 1020150001850 A KR1020150001850 A KR 1020150001850A KR 20150001850 A KR20150001850 A KR 20150001850A KR 102357340 B1 KR102357340 B1 KR 102357340B1
Authority
KR
South Korea
Prior art keywords
face
model
user
feature points
input image
Prior art date
Application number
KR1020150001850A
Other languages
Korean (ko)
Other versions
KR20160029629A (en
Inventor
김정배
이선민
황영규
한재준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/796,224 priority Critical patent/US20160070952A1/en
Priority to EP19200425.7A priority patent/EP3614303A1/en
Priority to EP15176898.3A priority patent/EP2993614B1/en
Priority to CN202210474282.3A priority patent/CN114627543A/en
Priority to CN201510441052.7A priority patent/CN106203248A/en
Publication of KR20160029629A publication Critical patent/KR20160029629A/en
Application granted granted Critical
Publication of KR102357340B1 publication Critical patent/KR102357340B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

얼굴 인식 방법 및 장치가 개시된다. 얼굴 인식 장치는 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하고, 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 얼굴 인식 장치는 검출된 특징점에 기초하여 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역을 비교하여 얼굴 인식을 수행하고, 얼굴 인식 결과를 출력할 수 있다.A face recognition method and apparatus are disclosed. The face recognition apparatus may obtain a 2D input image including the user's face region, and detect feature points of the face from the 2D input image. The face recognition apparatus may adjust a pose of a pre-stored 3D face model based on the detected feature points, and may generate a 2D projection image from the adjusted 3D face model. The face recognition apparatus may perform face recognition by comparing the face region shown in the 2D input image with the face region shown in the 2D projection image, and output a face recognition result.

Description

얼굴 인식 방법 및 장치{METHOD AND APPARATUS FOR FACE RECOGNITION}FACE RECOGNITION METHOD AND APPARATUS FOR FACE RECOGNITION

아래의 설명은 사용자의 얼굴을 식별하는 얼굴 인식 기술에 관한 것이다.The description below relates to a face recognition technology that identifies a user's face.

생체 인식 기술 중 하나인 얼굴 인식 기술은, 지문 인식, 홍채 인식 등 사용자의 특별한 동작이나 행위를 요구하는 인식 기술과 다르게, 대상자를 비접촉식으로 확인할 수 있는 장점 때문에 편리하고 경쟁력 있는 생체 인식 기술로 평가 받고 있다. 최근에는, 편리함과 효율성 때문에 얼굴 인식 기술이 보안 시스템, 모바일 인증, 멀티미디어 데이터 검색 등의 다양한 응용 분야에 활발하게 적용되고 있다.Face recognition technology, one of the biometric technologies, is evaluated as a convenient and competitive biometric recognition technology because of the advantage of being able to identify the subject in a non-contact manner, unlike recognition technologies that require special actions or actions of the user, such as fingerprint recognition and iris recognition. have. Recently, because of convenience and efficiency, face recognition technology has been actively applied to various application fields such as security systems, mobile authentication, and multimedia data search.

일 실시예에 따른 얼굴 인식 방법은, 2D 입력 영상으로부터 얼굴의 특징점을 검출하는 단계; 상기 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계; 상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계를 포함할 수 있다.A face recognition method according to an embodiment includes: detecting feature points of a face from a 2D input image; adjusting a pre-stored 3D face model based on the detected feature points; generating a 2D projection image from the adjusted 3D face model; and comparing the 2D input image with the 2D projection image to perform face recognition.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑하여 상기 3D 얼굴 모델의 포즈 및 표정을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D face model may include adjusting a pose and an expression of the 3D face model by mapping the detected feature points to the 3D face model.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은, 3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델일 수 있다.In the face recognition method according to an embodiment, the 3D face model may include a 3D shape model and a 3D texture model, and the 3D shape model and the 3D texture model have a fixed shape of the 3D model, and pose And it may be a model in which the expression can be changed.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 얼굴 모델을 조정하는 단계는, 상기 2D 입력 영상으로부터 검출된 특징점에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D face model may include: adjusting the 3D shape model based on feature points detected from the 2D input image; and adjusting the 3D texture model based on parameter information of the adjusted 3D shape model.

일 실시예에 따른 얼굴 인식 방법에서, 상기 3D 형태 모델을 조정하는 단계는, 상기 검출된 특징점에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the adjusting of the 3D shape model may include adjusting a pose parameter and an expression parameter of the 3D shape model based on the detected feature points.

일 실시예에 따른 얼굴 인식 방법에서, 상기 2D 투영 영상을 생성하는 단계는, 상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, generating the 2D projection image may include generating a 2D projection image from the adjusted 3D texture model.

일 실시예에 따른 얼굴 인식 방법에서, 상기 미리 저장된 3D 얼굴 모델은, 복수의 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 생성될 수 있고, 상기 2D 얼굴 영상들은, 사용자의 얼굴을 복수의 시점들에서 촬영한 영상들일 수 있다.In the face recognition method according to an embodiment, the pre-stored 3D face model may be generated based on feature points detected from a plurality of 2D face images, and the 2D face images include a user's face from a plurality of viewpoints. They may be videos taken in the fields.

일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴 인식을 수행하는 단계는, 상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및 상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the performing of the face recognition may include: determining a degree of similarity between the 2D input image and the 2D projection image; and outputting a face recognition result based on whether the degree of similarity satisfies a predetermined condition.

일 실시예에 따른 얼굴 인식 방법에서, 상기 얼굴의 특징점을 검출하는 단계는, 상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및 상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점을 검출하는 단계를 포함할 수 있다.In the face recognition method according to an embodiment, the detecting of the feature point of the face may include: extracting a face region from the 2D input image; and detecting a feature point included in at least one of eyebrows, eyes, nose, mouth, chin, ears, and an outline of a face from the face region.

일 실시예에 따른 3D 얼굴 모델 생성 방법은, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 단계; 상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계를 포함할 수 있다.A method of generating a 3D face model according to an embodiment includes: acquiring 2D face images of a user photographed at a plurality of viewpoints; detecting feature points of a face from the 2D face images; generating a deformable 3D shape model and a 3D texture model based on the detected feature points; and registering the 3D shape model and the 3D texture model as the user's 3D face model, and storing the 3D face model.

일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계를 포함할 수 있다.In the method of generating a 3D face model according to an embodiment, the generating of the 3D shape model and the 3D texture model includes: the 3D texture based on the 3D shape model and texture information extracted from at least one of the 2D face images. It may include generating a model.

일 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는, 상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하는 단계; 및 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계를 포함할 수 있다.In the method for generating a 3D face model according to an embodiment, the generating of the 3D shape model and the 3D texture model may include: determining a parameter for mapping the detected feature points and feature points of the 3D standard model; and generating the 3D shape model by applying the determined parameter to the 3D standard model.

다른 실시예에 따른 3D 얼굴 모델 생성 방법은, 사용자의 얼굴을 촬영한 2D 얼굴 영상들 및 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계; 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계; 상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계를 포함할 수 있다.According to another embodiment, a method for generating a 3D face model includes: acquiring 2D face images obtained by photographing a user's face and direction data of the 2D face images; determining correspondence point information between the 2D face images; generating 3D data about the user's face based on direction data of the 2D face images and information on correspondence points between the 2D face images; and transforming a 3D standard model into a 3D face model for the user by using the 3D data.

다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는, 모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다.In the method for generating a 3D face model according to another embodiment, the obtaining of direction data of the 2D face images may include obtaining direction data of the 2D face images by using motion data sensed through a motion sensor.

다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 사용자의 얼굴에 관한 3D 데이터는, 상기 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다.In the method of generating a 3D face model according to another embodiment, the 3D data on the user's face may be a set of 3D points constituting the shape of the user's face.

다른 실시예에 따른 3D 얼굴 모델 생성 방법에서, 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는, 상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형할 수 있다.In the method for generating a 3D face model according to another embodiment, the transforming the 3D standard model into a 3D face model for the user may include matching the 3D standard model with 3D data about the user's face to match the 3D standard model to the 3D data about the user's face. may be transformed into a 3D face model for the user.

일 실시예에 따른 얼굴 인식 장치는, 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하는 영상 획득부; 상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈에 따라 미리 저장된 3D 얼굴 모델의 포즈를 조정하고, 상기 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및 상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부를 포함할 수 있다.A face recognition apparatus according to an embodiment includes: an image acquisition unit configured to acquire a 2D input image including a user's face region; a 3D face model processing unit that adjusts a pose of a pre-stored 3D face model according to a pose of a user's face displayed in the 2D input image, and generates a 2D projection image from the 3D face model; and a face recognition unit configured to perform face recognition by comparing the 2D input image with the 2D projected image.

일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및 상기 얼굴 영역으로부터 얼굴의 특징점을 검출하는 특징점 검출부를 포함할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processor may include: a face region detector configured to detect a face region from the 2D input image; and a feature point detector configured to detect a feature point of a face from the face region.

일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 검출된 특징점과 상기 미리 저장된 3D 얼굴 모델의 특징점을 매칭시키는 것에 의해 상기 3D 얼굴 모델의 포즈를 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit may adjust the pose of the 3D face model by matching the detected feature points with the feature points of the 3D face model stored in advance.

일 실시예에 따른 얼굴 인식 장치에서, 상기 3D 얼굴 모델 처리부는, 상기 2D 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다.In the face recognition apparatus according to an embodiment, the 3D face model processing unit adjusts a pose of a 3D shape model according to a face pose of a user displayed in the 2D input image, and based on parameter information of the adjusted 3D shape model You can adjust the 3D texture model.

일 실시예에 따른 얼굴 인식 장치는, 상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부를 더 포함할 수 있다.The face recognition apparatus according to an embodiment may further include a display configured to display at least one of the 2D input image, the 2D projected image, and the face recognition result.

일 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들로부터 얼굴의 특징점을 검출하는 특징점 검출부; 상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및 상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.An apparatus for generating a 3D face model according to an embodiment includes: an image acquisition unit configured to acquire 2D face images of a user photographed at a plurality of viewpoints; a feature point detector for detecting feature points of a face from the 2D face images; a 3D face model generator that generates a deformable 3D shape model and a 3D texture model based on the detected feature points; and a 3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the user's 3D face model.

일 실시예에 따른 3D 얼굴 모델 생성 장치에서, 상기 3D 얼굴 모델 생성부는, 상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및 상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부를 포함할 수 있다.In an apparatus for generating a 3D face model according to an embodiment, the 3D face model generator may include: a 3D shape model generator configured to generate a 3D shape model of the user's face based on the detected facial feature points; and a 3D texture model generator configured to generate a 3D texture model based on texture information extracted from at least one of the 2D face images and the 3D shape model.

다른 실시예에 따른 3D 얼굴 모델 생성 장치는, 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부; 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부; 상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부; 상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부를 포함할 수 있다.According to another embodiment, an apparatus for generating a 3D face model includes an image acquisition unit configured to acquire 2D face images of a user photographed at a plurality of viewpoints; a motion sensing unit to obtain direction data of the 2D face images; 3D data about the user's face is generated based on correspondence point information between the 2D face images and direction data of the 2D face images, and a 3D standard model is transformed into a 3D face model for the user using the 3D data 3D face model generation unit; and a 3D face model registration unit for registering and storing a 3D face model for the user.

도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다.
도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.
도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.
도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다.
도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.
1 is a diagram for explaining an overall operation of a face recognition system according to an exemplary embodiment.
2 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to an exemplary embodiment.
3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an exemplary embodiment.
4 is a diagram for describing a process of detecting a feature point from a plurality of 2D face images according to an exemplary embodiment.
5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an exemplary embodiment.
6 is a diagram for explaining a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment.
7 is a diagram for explaining a process of performing face recognition by comparing a 2D input image with a 2D projection image, according to an exemplary embodiment.
8 is a flowchart illustrating an operation of a method for generating a 3D face model according to an exemplary embodiment.
9 is a flowchart illustrating an operation of a face recognition method according to an exemplary embodiment.
10 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to another exemplary embodiment.
11 is a flowchart illustrating an operation of a method for generating a 3D face model according to another exemplary embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The specific structural and functional descriptions below are only exemplified for the purpose of describing the embodiments, and the scope of the embodiments should not be construed as being limited to the content described in the text. Various modifications and variations are possible from these descriptions by those skilled in the art. In addition, the same reference numerals shown in each drawing indicate the same members, and well-known functions and structures will be omitted.

도 1은 일 실시예에 따른 얼굴 인식 시스템의 전체적인 동작을 설명하기 위한 도면이다. 얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상에서 사용자의 얼굴을 인식할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상을 분석하여 2D 입력 영상에 나타난 사용자의 얼굴을 추출하고, 식별할 수 있다. 얼굴 인식 시스템(100)은 감시/보안 시스템, 모바일 인증, 또는 멀티미디어 데이터 검색 등의 다양한 어플리케이션 영역에서 활용될 수 있다.1 is a diagram for explaining an overall operation of a face recognition system according to an exemplary embodiment. The face recognition system 100 may recognize a user's face from a 2D input image for face recognition. The face recognition system 100 may analyze the 2D input image to extract and identify the user's face displayed in the 2D input image. The face recognition system 100 may be utilized in various application areas, such as a monitoring/security system, mobile authentication, or multimedia data search.

얼굴 인식 시스템(100)은 사용자에 대한 3D(dimensional) 얼굴 모델을 등록하고, 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 수행할 수 있다. 3D 얼굴 모델은 변형이 가능한(deformable) 3D 모델로서 2D 입력 영상에 나타난 사용자의 얼굴 포즈 또는 얼굴 표정에 따라 변형될 수 있다. 예를 들어, 2D 입력 영상에 나타난 얼굴 포즈가 왼쪽 측면을 바라보고 있는 포즈인 경우, 얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델을 왼쪽 측면을 바라보도록 회전시킬 수 있다. 또한, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 사용자 얼굴의 표정에 따라 3D 얼굴 모델의 표정을 조정할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에서 검출된 얼굴의 특징점에 기초하여 사용자 얼굴의 표정을 분석하고, 분석된 얼굴 표정에 대응되도록 3D 얼굴 모델의 눈, 입, 코 등의 형태를 조정할 수 있다.The face recognition system 100 may register a 3D (dimensional) face model for the user and perform face recognition using the registered 3D face model. The 3D face model is a deformable 3D model and may be deformed according to a user's face pose or facial expression displayed in the 2D input image. For example, when the face pose shown in the 2D input image is a pose facing the left side, the face recognition system 100 may rotate the registered 3D face model to face the left side. Also, the face recognition system 100 may adjust the expression of the 3D face model according to the expression of the user's face displayed in the 2D input image. For example, the face recognition system 100 analyzes the user's facial expression based on the feature points of the face detected from the 2D input image, and the shape of the eyes, mouth, nose, etc. of the 3D face model to correspond to the analyzed facial expression. can be adjusted.

얼굴 인식 시스템(100)은 등록된 3D 얼굴 모델로부터 2D 투영 영상(projection image)을 생성하고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 2D 영상들을 이용함으로써 실시간으로 얼굴 인식이 수행될 수 있다. 2D 투영 영상은 3D 얼굴 모델을 평면으로 투영하여 나타낸 2D 영상이다. 예를 들어, 2D 투영 영상은 2D 입력 영상과 정합(matching)된 3D 얼굴 모델을 2D 입력 영상에서의 시점(viewpoint)과 동일한 시점에서 투영한 2D 영상으로, 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일할 수 있다. 미리 저장된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합시키고, 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행하는 것에 의해 얼굴 인식을 수행할 수 있다. 2D 입력 영상에 나타난 사용자의 얼굴 포즈가 정면이 아니라 하더라도 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써 포즈 변화에 따른 인식률이 개선될 수 있다.The face recognition system 100 may generate a 2D projection image from a registered 3D face model and perform face recognition by comparing the 2D projection image with the 2D input image. Face recognition may be performed in real time by using 2D images. A 2D projection image is a 2D image displayed by projecting a 3D face model onto a plane. For example, a 2D projection image is a 2D image in which a 3D face model matched with a 2D input image is projected from the same viewpoint as a viewpoint in the 2D input image. It may be the same as the pose of the user's face shown in the image. Face recognition may be performed by matching a pre-stored 3D face model to a face pose shown in the 2D input image, and performing face recognition by comparing the 2D projection image with the 2D input image. Even if the user's face pose shown in the 2D input image is not a frontal pose, the recognition rate according to the pose change may be improved by performing face recognition by matching the 3D face model to the face pose shown in the 2D input image.

이하에서는, 위에 설명된 얼굴 인식 시스템(100)의 동작을 보다 자세히 설명하도록 한다. 얼굴 인식 시스템(100)에 의해 수행되는 얼굴 인식 동작은 크게, 사용자의 3D 얼굴 모델을 등록하는 과정(110) 및 등록된 3D 얼굴 모델을 이용하여 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)을 포함할 수 있다.Hereinafter, the operation of the face recognition system 100 described above will be described in more detail. The face recognition operation performed by the face recognition system 100 largely includes a process of registering a user's 3D face model (110) and a process of recognizing a user's face from a 2D input image using the registered 3D face model (120). ) may be included.

사용자의 3D 얼굴 모델을 등록하는 과정(110)에서, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 동일 사용자에 대한 복수의 2D 얼굴 영상들을 획득(130)할 수 있다. 복수의 2D 얼굴 영상들은 사용자의 얼굴을 다양한 시점에서 촬영한 영상들을 포함할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴을 정면 및 측면에서 촬영한 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상은 사용자의 얼굴 영역을 포함하는 영상을 나타내나, 얼굴의 전체 영역이 포함되어야 할 필요는 없다. 얼굴 인식 시스템(100)은 획득된 복수의 2D 얼굴 영상들에서 얼굴의 특징점(또는, 랜드마크(landmark))을 검출(140)할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다.In the process 110 of registering the user's 3D face model, the face recognition system 100 may acquire 130 a plurality of 2D face images of the same user for face registration. The plurality of 2D face images may include images obtained by photographing the user's face from various viewpoints. For example, the face recognition system 100 may acquire 2D face images obtained by photographing the user's face from the front and the side through the camera. The 2D face image represents an image including the user's face region, but it is not necessary to include the entire face region. The face recognition system 100 may detect 140 a feature point (or landmark) of a face from a plurality of obtained 2D face images. For example, the face recognition system 100 may detect a feature point including an eyebrow, eye, nose, mouth, chin, hair, ear, and/or an outline of a face from the 2D face images.

얼굴 인식 시스템(100)은 얼굴 등록을 위한 2D 얼굴 영상들에서 추출된 특징점들을 미리 결정된 3D 표준 모델에 적용하여 3D 모델 개인화를 수행(150)할 수 있다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델일 수 있다. 3D 표준 모델은 3D 형태와 텍스쳐(texture)로 구성될 수 있고, 3D 형태를 표현하는 파라미터들을 포함할 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델의 특징점들과 2D 얼굴 영상들로부터 추출된 특징점들을 서로 매칭시켜 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로 등록되어 저장될 수 있다.The face recognition system 100 may personalize the 3D model by applying feature points extracted from 2D face images for face registration to a predetermined 3D standard model ( 150 ). The 3D standard model may be, for example, a deformable 3D shape model generated based on 3D face learning data. The 3D standard model may be composed of a 3D shape and a texture, and may include parameters representing the 3D shape. The face recognition system 100 may generate a 3D face model of the user's face by matching feature points of the 3D standard model with feature points extracted from 2D face images. The generated 3D face model may be registered and stored as a 3D face model of the user displayed in the 2D face images.

다른 실시예에 따르면, 얼굴 인식 시스템(100)은 얼굴 등록을 위한 복수의 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 얼굴 영상들과 함께 모션 센서(motion sensor)를 통해 2D 얼굴 영상들의 방향 데이터를 획득할 수 있고, 2D 얼굴 영상들의 매칭 정보 및 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태를 구성하는 3D 포인트들의 집합일 수 있다. 얼굴 인식 시스템(100)은 3D 표준 모델에 사용자의 얼굴에 관한 3D 데이터를 정합하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 생성된 3D 얼굴 모델은 저장되고, 2D 얼굴 영상들에 나타난 사용자의 3D 얼굴 모델로서 등록될 수 있다.According to another embodiment, the face recognition system 100 may generate a 3D face model for the user using a plurality of 2D face images for face registration, motion data for the 2D face images, and a 3D standard model. . The face recognition system 100 may acquire direction data of 2D face images through a motion sensor together with the 2D face images, and may relate to the user's face based on matching information and direction data of the 2D face images. 3D data can be created. The 3D data about the user's face may be a set of 3D points constituting the shape of the user's face. The face recognition system 100 may generate a 3D face model of the user by matching 3D data regarding the user's face to the 3D standard model. The generated 3D face model may be stored and registered as a 3D face model of a user displayed in 2D face images.

2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)에서, 얼굴 인식 시스템(100)은 카메라를 통해 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득할 수 있다. 얼굴 인식 시스템(100)은 하나의 2D 입력 영상만으로도 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈 또는 표정에 따라 미리 저장된 3D 얼굴 모델을 조정(160)할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 포즈에 매칭되도록 3D 얼굴 모델의 포즈를 조정하고, 2D 입력 영상에 나타난 얼굴 표정에 매칭되도록 3D 얼굴 모델의 표정을 조정할 수 있다.In the process 120 of recognizing the user's face from the 2D input image, the face recognition system 100 may obtain a 2D input image including the user's face region through the camera. The face recognition system 100 may perform face recognition with only one 2D input image, but the scope of the embodiment is not limited thereto. The face recognition system 100 may adjust 160 the pre-stored 3D face model according to the face pose or expression displayed in the 2D input image. The face recognition system 100 may adjust the pose of the 3D face model to match the facial pose shown in the 2D input image, and adjust the expression of the 3D face model to match the facial expression shown in the 2D input image.

얼굴 인식 시스템(100)은 얼굴 인식을 위한 2D 입력 영상과 정합된 3D 얼굴 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 시스템(100)은 2D 입력 영상과 2D 투영 영상을 서로 비교하여 얼굴 인식을 수행(170)하고, 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 시스템(100)은 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.The face recognition system 100 may generate a 2D projection image from a 3D face model matched with a 2D input image for face recognition. The face recognition system 100 may perform face recognition by comparing the 2D input image and the 2D projection image with each other ( 170 ), and may output a face recognition result. For example, the face recognition system 100 determines the similarity between the face region shown in the 2D input image and the face region shown in the 2D projection image, and when the similarity satisfies a predetermined condition, the recognition result of “successful face recognition” may be output, otherwise, a recognition result of “face recognition failure” may be output.

얼굴 인식 시스템(100)은 도 2의 3D 얼굴 모델 생성 장치(200) 및 도 10의 3D 얼굴 모델 생성 장치(1000) 중 어느 하나와 도 3의 얼굴 인식 장치(300)를 포함할 수 있다. 사용자의 3D 얼굴 모델을 등록하는 과정(110)은, 도 2의 얼굴 모델 생성 장치(200) 또는 도 10의 얼굴 모델 생성 장치(1000)에 의해 수행될 수 있다. 2D 입력 영상으로부터 사용자의 얼굴을 인식하는 과정(120)은 얼굴 인식 장치(300)에 의해 수행될 수 있다.The face recognition system 100 may include any one of the 3D face model generating apparatus 200 of FIG. 2 and the 3D face model generating apparatus 1000 of FIG. 10 , and the face recognition apparatus 300 of FIG. 3 . The process 110 of registering the user's 3D face model may be performed by the face model generating apparatus 200 of FIG. 2 or the face model generating apparatus 1000 of FIG. 10 . The process 120 of recognizing the user's face from the 2D input image may be performed by the face recognition apparatus 300 .

도 2는 일 실시예에 따른 3D 얼굴 모델 생성 장치의 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(200)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(200)는 3D 얼굴 모델로서 3D 형태 모델 및 3D 텍스쳐 모델을 생성하고, 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 사용자에 대한 3D 얼굴 모델로 등록할 수 있다. 도 2를 참조하면, 3D 얼굴 모델 생성 장치(200)는 영상 획득부(210), 특징점 검출부(220), 3D 얼굴 모델 생성부(230) 및 3D 얼굴 모델 등록부(260)를 포함할 수 있다.2 is a diagram illustrating a configuration of an apparatus for generating a 3D face model according to an exemplary embodiment. The 3D face model generating apparatus 200 may generate a 3D face model of the user's face from a plurality of 2D face images for face registration. The 3D face model generating apparatus 200 may generate a 3D shape model and a 3D texture model as a 3D face model, and register the generated 3D shape model and 3D texture model as a 3D face model for the user. Referring to FIG. 2 , the 3D face model generating apparatus 200 may include an image obtaining unit 210 , a feature point detecting unit 220 , a 3D face model generating unit 230 , and a 3D face model registering unit 260 .

영상 획득부(210)는 얼굴 등록을 위한 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 다양한 얼굴 포즈로 촬영된 사용자의 얼굴 영역을 포함할 수 있다. 영상 획득부(210)는 카메라를 통해 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 정면 영상으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있고, 측면 영상으로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 정면 영상과 측면 영상에 나타난 사용자의 얼굴 영역 간의 비교 처리를 통해 사용자 얼굴의 입체적 형태에 관한 정보가 결정될 수 있다. 일 실시예에 따르면, 사용자는 3D 얼굴 모델을 등록하기 위해 카메라를 통해 복수의 2D 얼굴 영상을 촬영할 수 있고, 영상 획득부(210)는 카메라를 통해 촬영된 2D 얼굴 영상들을 저장할 수 있다.The image acquisition unit 210 may acquire 2D face images of the user for face registration. The 2D face images may include a user's face region photographed in various face poses. The image acquisition unit 210 may acquire 2D face images captured at a plurality of viewpoints, such as a front image and a side image, through a camera. Overall 2D shape information and texture information of the user's face may be extracted from the front image, and more specific information about the face shape may be extracted from the side image. For example, information about the three-dimensional shape of the user's face may be determined through comparison processing between the user's face regions displayed in the front image and the side image. According to an embodiment, the user may photograph a plurality of 2D face images through a camera in order to register the 3D face model, and the image acquisition unit 210 may store the 2D face images photographed through the camera.

특징점 검출부(220)는 2D 얼굴 영상에서 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 특징점 검출부(220)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(220)는 능동적 형태 모델(ASM, Active Shape Model), 능동적 외양 모델(AAM, Active Appearance model), 또는 SDM(Supervised Descent Method) 등을 이용하여 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다.The feature point detector 220 may detect a face region from the 2D face image, and detect feature points (or landmarks) of the face within the detected face region. For example, the feature point detector 220 may detect a feature point located in an outline such as eyebrows, eyes, nose, mouth, and/or chin in the 2D face images. According to an embodiment, the feature point detection unit 220 uses an active shape model (ASM), an active appearance model (AAM), or a supervised descent method (SDM) from 2D face images. Facial feature points can be detected.

3D 얼굴 모델 생성부(230)는 2D 얼굴 영상들로부터 검출된 특징점들에 기초하여 사용자의 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델로서, 사용자 얼굴에 대한 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델이 생성될 수 있다. 3D 얼굴 모델 생성부(230)는 3D 형태 모델 생성부(240) 및 3D 텍스쳐 모델 생성부(250)를 포함할 수 있다.The 3D face model generator 230 may generate a 3D face model of the user's face based on feature points detected from the 2D face images. As the 3D face model, a 3D shape model and a 3D texture model that can be deformed for a user's face may be generated. The 3D face model generator 230 may include a 3D shape model generator 240 and a 3D texture model generator 250 .

3D 형태 모델 생성부(240)는 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다. 3D 형태 모델은 모델의 형태는 있으나 텍스쳐가 없는 3D 모델이다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 형태 모델 생성부(240)는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다. 예를 들어, 3D 형태 모델 생성부(240)는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및/또는 턱 등의 특징점들과 3D 표준 모델의 특징점을 매칭시키는 것에 의해 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.The 3D shape model generator 240 may generate a 3D shape model of the user's face by using a plurality of 2D face images captured at different viewpoints. A 3D shape model is a 3D model that has a shape but no texture. The 3D shape model generator 240 may generate a 3D shape model based on feature points of the face detected from the 2D face images. The 3D shape model generator 240 may determine a parameter for mapping the feature points detected from the 2D face images and the feature points of the 3D standard model, and apply the determined parameter to the 3D standard model to generate the 3D shape model. . For example, the 3D shape model generating unit 240 matches the feature points of the 3D standard model with feature points, such as eyebrows, eyes, nose, mouth, and/or chin, detected in 2D face images, to the user's face. You can create a 3D shape model for

다른 시점에서 촬영된 2D 얼굴 영상을 이용하여 3D 형태 모델을 생성함으로써, 보다 정교한 형태의 3D 형태 모델이 생성될 수 있다. 사용자 얼굴을 정면에서 촬영한 정면 영상만을 이용하여 3D 형태 모델을 생성하는 경우, 3D 형태 모델에서 코의 높이, 광대의 형태 등과 같은 입체적인 형상을 결정하기가 어려울 수 있다. 그러나, 다른 시점에서 촬영된 복수의 2D 얼굴 영상들을 이용하여 3D 형태 모델을 생성하는 경우에는, 코의 높이, 광대의 형태 등에 대한 정보를 추가적으로 반영할 수 있으므로 3D 형태 모델을 보다 정교하게 형성할 수 있다.By generating a 3D shape model using a 2D face image captured at a different viewpoint, a more sophisticated 3D shape model may be generated. When a 3D shape model is generated using only a frontal image of a user's face taken from the front, it may be difficult to determine a three-dimensional shape such as the height of the nose and the shape of the cheeks from the 3D shape model. However, when a 3D shape model is generated using a plurality of 2D face images taken from different viewpoints, information on the height of the nose and the shape of the cheeks can be additionally reflected, so that the 3D shape model can be formed more precisely. have.

3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 예를 들어, 3D 텍스쳐 모델 생성부(250)는 정면 영상에서 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 모델의 형태와 텍스쳐가 모두 존재하는 모델이다. 3D 텍스쳐 모델은 정밀도(level of detail)가 3D 형태 모델보다 높으며, 3D 형태 모델의 버텍스(vertex)들을 포함할 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 3D 모델의 형태가 고정되어 있고, 포즈 및 표정이 변화될 수 있다. 3D 형태 모델 및 3D 텍스쳐 모델은 동일한 파라미터에 의해 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D texture model generator 250 may generate a 3D texture model based on the texture information extracted from at least one of the 2D face images and the 3D shape model. For example, the 3D texture model generator 250 may generate a 3D texture model by mapping the texture extracted from the front image to the 3D shape model. The 3D texture model is a model in which both the shape and texture of the 3D model exist. The 3D texture model has a higher level of detail than the 3D shape model, and may include vertices of the 3D shape model. In the 3D shape model and the 3D texture model, the shape of the 3D model is fixed, and poses and expressions can be changed. The 3D shape model and the 3D texture model may represent the same poses and expressions by the same parameters.

3D 얼굴 모델 등록부(260)는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고, 저장할 수 있다. 예를 들어, 영상 획득부(210)가 획득한 2D 얼굴 영상의 사용자가 "A"라고 하면, 3D 얼굴 모델 등록부(350)는 "A"에 대해 생성된 3D 형태 모델 및 3D 텍스쳐 모델을 "A"의 3D 얼굴 모델로 등록하고, 3D 얼굴 모델 저장부(미도시)에 "A"의 3D 형태 모델 및 3D 텍스쳐 모델을 저장할 수 있다.The 3D face model registration unit 260 may register and store the 3D shape model and the 3D texture model as the user's 3D face model. For example, if the user of the 2D face image acquired by the image acquisition unit 210 says “A”, the 3D face model registration unit 350 sets the 3D shape model and 3D texture model generated for “A” to “A”. It is possible to register as a 3D face model of ", and store the 3D shape model and 3D texture model of "A" in the 3D face model storage unit (not shown).

도 3은 일 실시예에 따른 얼굴 인식 장치의 세부 구성을 도시하는 도면이다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 이용하여 얼굴 인식을 위한 2D 입력 영상에 나타난 사용자에 대해 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 3D 얼굴 모델을 2D 입력 영상에 나타난 사용자의 얼굴 포즈와 동일한 포즈로 회전한 후, 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치(300)는 2D 투영 영상과 2D 입력 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치(300)는 등록된 3D 얼굴 모델을 2D 입력 영상에 나타난 얼굴 포즈에 정합하여 얼굴 인식을 수행함으로써, 사용자의 포즈 변화에 강인한 얼굴 인식 방법을 제공한다. 도 3을 참조하면, 얼굴 인식 장치(300)는 영상 획득부(310), 3D 얼굴 모델 처리부(320), 및 얼굴 인식부(350)를 포함할 수 있다. 3D 얼굴 모델 처리부(320)는 얼굴 영역 검출부(330) 및 특징점 검출부(340)를 포함할 수 있다.3 is a diagram illustrating a detailed configuration of a face recognition apparatus according to an exemplary embodiment. The face recognition apparatus 300 may perform face recognition on a user displayed in a 2D input image for face recognition by using the registered 3D face model. The face recognition apparatus 300 may generate a 2D projection image after rotating the 3D face model to the same pose as the user's face pose shown in the 2D input image. The face recognition apparatus 300 may perform face recognition by comparing the 2D projection image with the 2D input image. The face recognition apparatus 300 performs face recognition by matching a registered 3D face model to a face pose displayed in a 2D input image, thereby providing a face recognition method robust to a change in a user's pose. Referring to FIG. 3 , the face recognition apparatus 300 may include an image acquisition unit 310 , a 3D face model processing unit 320 , and a face recognition unit 350 . The 3D face model processing unit 320 may include a face region detection unit 330 and a feature point detection unit 340 .

영상 획득부(310)는 사용자의 얼굴 영역이 포함된 얼굴 인식을 위한 2D 입력 영상을 획득할 수 있다. 영상 획득부(310)는 카메라 등을 통해 사용자 인식 또는 사용자 인증을 위한 2D 입력 영상을 획득할 수 있다. 얼굴 인식 장치(300)는 하나의 2D 입력 영상을 이용하여 사용자에 대해 얼굴 인식을 수행할 수 있으나, 실시예의 범위가 이에 한정되는 것은 아니다.The image acquisition unit 310 may acquire a 2D input image for face recognition including the user's face region. The image acquisition unit 310 may acquire a 2D input image for user recognition or user authentication through a camera or the like. The face recognition apparatus 300 may perform face recognition for a user using one 2D input image, but the scope of the embodiment is not limited thereto.

얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출할 수 있다. 얼굴 영역 검출부(330)는 2D 입력 영상 내 밝기 분포, 오브젝트의 움직임, 색상 분포, 또는 눈 위치 등의 정보를 이용하여 2D 입력 영상에서 얼굴 영역을 식별하고, 얼굴 영역의 위치 정보를 추출할 수 있다. 예를 들어, 얼굴 영역 검출부(330)는 관련 기술 분야에서 일반적으로 이용되는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출할 수 있다.The face region detector 330 may detect a face region from the 2D input image. The face region detector 330 may identify a face region in the 2D input image using information such as brightness distribution, object movement, color distribution, or eye position in the 2D input image, and extract location information of the face region. . For example, the face region detector 330 may detect the face region from the 2D input image by using a Haar-like-based Adaboost classifier generally used in the related art.

특징점 검출부(340)는 2D 입력 영상 내 얼굴 영역으로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 헤어, 귀, 및/또는 얼굴의 윤곽이 포함된 특징점을 검출할 수 있다. 일 실시예에 따르면, 특징점 검출부(340)는 Active Shape Model, Active Appearance Model, 또는 Supervised Descent Method 등을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. The feature point detector 340 may detect the feature point of the face from the face region in the 2D input image. For example, the feature point detector 340 may detect a feature point including the outline of the eyebrows, eyes, nose, mouth, chin, hair, ears, and/or face from the face region. According to an embodiment, the feature point detector 340 may detect the feature point of the face from the 2D input image using an Active Shape Model, an Active Appearance Model, or a Supervised Descent Method.

3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 미리 저장된 3D 얼굴 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 검출된 특징점에 기초하여, 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 정합 결과, 3D 얼굴 모델은 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 변형될 수 있다. 3D 얼굴 모델 처리부(320)는 3D 얼굴 모델에 2D 입력 영상으로부터 검출된 특징점들을 맵핑(mapping)하여 3D 얼굴 모델의 포즈 및 표정을 조정할 수 있다. 3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있다. 3D 형태 모델은 2D 입력 영상에 나타난 얼굴 포즈와 빠른 속도로 정합되는데 이용될 수 있고, 3D 텍스쳐 모델은 고해상도의 2D 투영 영상을 생성하는데 이용될 수 있다.The 3D face model processing unit 320 may adjust a pre-stored 3D face model based on the detected feature points. The 3D face model processing unit 320 may match the 3D face model to the 2D input image based on the detected feature points. As a result of the matching, the 3D face model may be deformed to match the facial pose and expression displayed in the 2D input image. The 3D face model processing unit 320 may adjust the pose and expression of the 3D face model by mapping the feature points detected from the 2D input image to the 3D face model. The 3D face model may include a 3D shape model and a 3D texture model. The 3D shape model can be used to quickly match the facial poses shown in the 2D input image, and the 3D texture model can be used to generate a high-resolution 2D projection image.

3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 포즈에 따라 3D 형태 모델의 포즈를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 특징점들과 3D 형태 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델의 포즈를 2D 입력 영상에 나타난 포즈에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상으로부터 검출된 특징점에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다.The 3D face model processing unit 320 may adjust the pose of the 3D shape model according to the pose shown in the 2D input image. The 3D face model processing unit 320 may match the pose of the 3D shape model to the pose shown in the 2D input image by matching the feature points detected in the 2D input image with the feature points of the 3D shape model. The 3D face model processing unit 320 may adjust a pose parameter and an expression parameter of the 3D shape model based on the feature points detected from the 2D input image.

또한, 3D 얼굴 모델 처리부(320)는 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상과 3D 형태 모델의 정합 과정에서 결정된 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용할 수 있다. 적용 결과로서, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정을 가지도록 조정될 수 있다. 3D 텍스쳐 모델을 조정한 후, 3D 얼굴 모델 처리부(320)는 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다.Also, the 3D face model processing unit 320 may adjust the 3D texture model based on parameter information of the 3D shape model. The 3D face model processing unit 320 may apply the pose parameter and the expression parameter determined in the process of matching the 2D input image and the 3D shape model to the 3D texture model. As a result of the application, the 3D texture model may be adjusted to have the same pose and expression as that of the 3D shape model. After adjusting the 3D texture model, the 3D face model processing unit 320 may generate a 2D projection image by projecting the adjusted 3D texture model onto a plane.

얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. The face recognition unit 350 may perform face recognition by comparing the 2D input image with the 2D projection image. The face recognizer 350 may perform face recognition based on the similarity between the face region shown in the 2D input image and the face region shown in the 2D projection image. The face recognition unit 350 may determine a similarity between the 2D input image and the 2D projected image, and output a face recognition result based on whether the similarity satisfies a predetermined condition.

얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하기 위해 얼굴 인식 기술 분야에서 일반적으로 이용되는 특징 값 결정 방법을 이용할 수 있다. 예를 들어, 얼굴 인식부(350)는 Gabor 필터, LBP(Local Binary Pattern), HOG(Histogram of Oriented Gradient), PCA(Principal component analysis), 또는 LDA(Linear Discriminant Analysis) 등과 같은 특징 추출용 필터를 이용하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다. Gabor 필터는 다양한 크기와 각도를 갖는 다중 필터를 이용하여 영상으로부터 특징을 추출하는 필터이고, LBP는 영상에서 현재 픽셀과 주변 픽셀과의 차이를 특징으로 추출하는 필터이다. 일 실시예에 따르면, 얼굴 인식부(350)는 2D 입력 영상 및 2D 투영 영상에 나타난 얼굴 영역을 일정한 크기의 셀(cell)로 분할한 후, 각 셀마다 LBP에 대한 히스토그램(해당 셀에 속하는 LBP 인덱스 값들에 대한 히스토그램)을 계산할 수 있다. 얼굴 인식부(350)는 계산된 히스토그램들을 일렬로 연결한 벡터를 최종 특징 값으로 결정하고, 2D 입력 영상의 최종 특징 값과 2D 투영 영상의 최종 특징 값을 비교하여 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정할 수 있다.The face recognition unit 350 may use a feature value determination method generally used in the field of face recognition technology to determine the similarity between the 2D input image and the 2D projection image. For example, the face recognition unit 350 uses a filter for feature extraction such as a Gabor filter, a local binary pattern (LBP), a histogram of oriented gradient (HOG), a principal component analysis (PCA), or a linear discriminant analysis (LDA). The similarity between the 2D input image and the 2D projection image may be determined using The Gabor filter is a filter that extracts features from an image using multiple filters having various sizes and angles, and the LBP is a filter that extracts features from the difference between the current pixel and neighboring pixels in the image. According to an embodiment, the face recognition unit 350 divides the face region shown in the 2D input image and the 2D projection image into cells of a certain size, and then a histogram of the LBP for each cell (the LBP belonging to the corresponding cell). Histograms of the index values) can be calculated. The face recognition unit 350 determines a vector obtained by connecting the calculated histograms in a line as a final feature value, compares the final feature value of the 2D input image with the final feature value of the 2D projection image, and then compares the final feature value between the 2D input image and the 2D projection image. similarity can be determined.

일 실시예에 따르면, 얼굴 인식 장치(300)는 디스플레이부(360)를 더 포함할 수 있다. 디스플레이부(360)는 2D 입력 영상, 2D 투영 영상 및/또는 얼굴 인식 결과를 디스플레이할 수 있다. 사용자가 디스플레이된 2D 입력 영상에 기초하여 얼굴이 제대로 촬영되지 않다고 판단한 경우, 또는 최종적으로 얼굴 인식이 실패하였다고 디스플레이된 경우, 사용자는 얼굴을 다시 촬영할 수 있고, 얼굴 인식 장치(300)는 재촬영되어 생성된 2D 입력 영상에 대해 얼굴 인식을 다시 수행할 수 있다.According to an embodiment, the face recognition apparatus 300 may further include a display unit 360 . The display unit 360 may display a 2D input image, a 2D projection image, and/or a face recognition result. When the user determines that the face is not photographed properly based on the displayed 2D input image, or when it is finally displayed that the face recognition has failed, the user may photograph the face again, and the face recognition device 300 is photographed again. Face recognition may be performed again on the generated 2D input image.

도 4는 일 실시예에 따른 복수의 2D 얼굴 영상들에서 특징점을 검출하는 과정을 설명하기 위한 도면이다. 도 4를 참조하면, 영상(420)은 사용자의 얼굴을 정면에서 촬영하여 획득된 2D 얼굴 영상을 나타내고, 영상들(410, 430)은 사용자의 얼굴을 측면에서 촬영하여 획득된 2D 얼굴 영상들을 나타낸다. 정면에서 촬영된 영상(420)으로부터 사용자 얼굴의 전체적인 2D 형태 정보와 텍스쳐 정보가 추출될 수 있다. 측면에서 촬영된 영상들(410, 430)로부터 얼굴 형태에 관한 보다 구체적인 정보가 추출될 수 있다. 예를 들어, 영상(420)으로부터 추출된 사용자의 얼굴 형태에 기초하여 사용자 얼굴에 관한 기본 모델을 설정하고, 영상들(410, 430)로부터 추출된 사용자의 얼굴 형태에 기초하여 해당 기본 모델의 입체적 형태를 결정할 수 있다.4 is a diagram for describing a process of detecting a feature point from a plurality of 2D face images according to an exemplary embodiment. Referring to FIG. 4 , an image 420 represents a 2D face image obtained by photographing a user's face from the front, and images 410 and 430 represent 2D face images obtained by photographing a user's face from the side. . Overall 2D shape information and texture information of the user's face may be extracted from the image 420 taken from the front. More specific information about the face shape may be extracted from the images 410 and 430 taken from the side. For example, a basic model for the user's face is set based on the user's face shape extracted from the image 420 , and a three-dimensional model of the corresponding basic model is set based on the user's face shape extracted from the images 410 and 430 . shape can be determined.

3D 얼굴 모델 생성 장치(200)의 특징점 검출부(220)는 영상들(410, 420, 430)과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들에서 얼굴의 특징점들을 검출할 수 있다. 얼굴의 특징점은 눈썹, 눈, 코, 입, 턱 등의 윤곽 영역에 위치하는 특징점을 나타낸다. 특징점 검출부(220)는 관련 기술 분야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등의 방식을 이용하여 영상들(410, 420, 430)에서 얼굴의 특징점을 검출할 수 있다. ASM 모델(또는, AAM 모델, SDM 모델)의 포즈, 스케일, 또는 위치에 대한 초기화는 얼굴 검출 결과에 기초하여 수행될 수 있다.The feature point detector 220 of the 3D face model generating apparatus 200 may detect feature points of a face from 2D face images captured at a plurality of viewpoints, such as images 410 , 420 , and 430 . The facial feature points represent feature points located in contour regions such as eyebrows, eyes, nose, mouth, and chin. The feature point detector 220 may detect the feature point of the face from the images 410 , 420 , and 430 using a method such as ASM, AAM, or SDM, which is generally known in the related art. Initialization of the pose, scale, or position of the ASM model (or the AAM model or the SDM model) may be performed based on a face detection result.

영상(440)은 영상(410)의 얼굴 영역(442) 내에서 특징점(444)들이 검출된 결과 영상을 나타내고, 영상 (450)은 영상(420)의 얼굴 영역(452) 내에서 특징점(454)들이 검출된 결과 영상을 나타낸다. 마찬가지로, 영상(460)은 영상(430)의 얼굴 영역(462) 내에서 특징점(464)들이 검출된 결과 영상을 나타낸다.The image 440 represents an image as a result of detecting feature points 444 in the face region 442 of the image 410 , and the image 450 shows a feature point 454 in the face region 452 of the image 420 . The detected result image is shown. Similarly, the image 460 represents an image as a result of detecting feature points 464 in the face region 462 of the image 430 .

도 5는 일 실시예에 따른 3D 표준 모델을 이용하여 3D 얼굴 모델을 생성하는 과정을 설명하기 위한 도면이다. 도 5를 참조하면, 모델(510)은 3D 표준 모델을 나타낸다. 3D 표준 모델은, 예를 들어, 3D 얼굴 학습 데이터에 기초하여 생성된 변형 가능한 3D 형태 모델로서, 평균 형태와 파라미터를 통해 사용자 얼굴의 신원(identity)을 나타낼 수 있는 파라메트릭 모델(parametric model)일 수 있다.5 is a diagram for explaining a process of generating a 3D face model using a 3D standard model according to an exemplary embodiment. Referring to FIG. 5 , a model 510 represents a 3D standard model. The 3D standard model is, for example, a deformable 3D shape model generated based on 3D face learning data, and may be a parametric model capable of representing the identity of a user's face through an average shape and parameters. can

3D 표준 모델은 다음의 수학식 1과 같이, 평균 형태와 형태 변화량으로 구성될 수 있다. 형태 변화량은 형태 파라미터와 형태 벡터의 가중합(weighted sum)이다.The 3D standard model may be composed of an average shape and a shape change amount as shown in Equation 1 below. The shape change amount is a weighted sum of the shape parameter and the shape vector.

Figure 112015001357163-pat00001
Figure 112015001357163-pat00001

여기서,

Figure 112015001357163-pat00002
는 3D 표준 모델의 3D 형태를 구성하는 엘리먼트들을 나타내고,
Figure 112015001357163-pat00003
는 3D 표준 모델의 평균 형태에 관한 엘리먼트들을 나타낸다.
Figure 112015001357163-pat00004
는 인덱스 계수 i에 대응하는 형태 엘리먼트들을 나타내고,
Figure 112015001357163-pat00005
는 인덱스 계수 i에 대응하는 형태 엘리먼트에 적용되는 형태 파라미터를 나타낸다.here,
Figure 112015001357163-pat00002
represents the elements constituting the 3D shape of the 3D standard model,
Figure 112015001357163-pat00003
denotes elements related to the average shape of the 3D standard model.
Figure 112015001357163-pat00004
represents the form elements corresponding to the index coefficient i,
Figure 112015001357163-pat00005
denotes a shape parameter applied to a shape element corresponding to the index coefficient i.

3D 표준 모델의 3D 형태를 구성하는 엘리먼트들

Figure 112015001357163-pat00006
는 다음의 수학식 2와 같이 3차원 점들의 좌표로 구성될 수 있다.Elements that make up the 3D shape of the 3D standard model
Figure 112015001357163-pat00006
may be composed of coordinates of three-dimensional points as shown in Equation 2 below.

Figure 112015001357163-pat00007
Figure 112015001357163-pat00007

여기서,

Figure 112015001357163-pat00008
Figure 112015001357163-pat00009
는 3차원 점(
Figure 112015001357163-pat00010
,
Figure 112015001357163-pat00011
,
Figure 112015001357163-pat00012
)의 인덱스를 나타내는 변수이고, T는 트랜스포즈(transpose)를 나타낸다.here,
Figure 112015001357163-pat00008
Is
Figure 112015001357163-pat00009
is a three-dimensional point (
Figure 112015001357163-pat00010
,
Figure 112015001357163-pat00011
,
Figure 112015001357163-pat00012
) is a variable indicating the index, and T indicates transpose.

3D 얼굴 모델 생성 장치(200)의 3D 형태 모델 생성부(240)는 사용자의 얼굴을 등록하기 위해, 복수의 시점들에서 촬영된 2D 얼굴 영상들에 기초하여 3D 표준 모델을 개인화할 수 있다. 3D 형태 모델 생성부(240)는 3D 표준 모델에 포함된 특징점들과 2D 얼굴 영상들에서 검출된 얼굴의 특징점들을 매칭시킬 수 있는 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 사용자 얼굴에 대한 3D 형태 모델을 생성할 수 있다.In order to register the user's face, the 3D shape model generator 240 of the 3D face model generating apparatus 200 may personalize the 3D standard model based on 2D face images captured at a plurality of viewpoints. The 3D shape model generator 240 determines a parameter capable of matching the feature points included in the 3D standard model with the feature points of the face detected from the 2D face images, and applies the determined parameter to the 3D standard model to apply to the user's face. You can create a 3D shape model for

모델들(520, 530)은 3D 표준 모델(510)로부터 생성된 사용자 얼굴에 대한 3D 형태 모델들을 나타낸다. 모델(520)은 정면에서 바라본 3D 형태 모델을 나타내고, 모델(530)은 측면에서 바라본 3D 형태 모델을 나타낸다. 3D 형태 모델은 형태 정보는 존재하나, 텍스쳐 정보가 존재하지 않는 모델로서, 사용자 인증 과정에서 2D 입력 영상과 고속으로 정합하는데 이용될 수 있다.The models 520 and 530 represent 3D shape models of the user's face generated from the 3D standard model 510 . The model 520 represents a 3D shape model viewed from the front, and the model 530 represents a 3D shape model viewed from the side. The 3D shape model is a model in which shape information exists but texture information does not exist, and can be used for high-speed matching with a 2D input image in a user authentication process.

3D 텍스쳐 모델 생성부(250)는 2D 얼굴 영상들 중 적어도 하나의 2D 얼굴 영상에서 추출한 텍스쳐를 3D 형태 모델의 표면에 맵핑하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 형태 모델의 표면에 텍스쳐를 맵핑한다는 것은, 예를 들어, 정면에서 촬영된 2D 얼굴 영상에서 추출한 텍스쳐 정보에 3D 형태 모델로부터 획득된 깊이 정보를 추가한다는 것을 나타낼 수 있다.The 3D texture model generator 250 may generate a 3D texture model by mapping a texture extracted from at least one 2D face image among the 2D face images to the surface of the 3D shape model. Mapping the texture to the surface of the 3D shape model may indicate, for example, adding depth information obtained from the 3D shape model to texture information extracted from a 2D face image photographed from the front.

모델들(540, 550)는 3D 형태 모델에 기초하여 생성된 3D 텍스쳐 모델들을 나타낸다. 모델(540)은 정면에서 바라본 3D 텍스쳐 모델을 나타내고, 모델(550)은 대각 방향에서 바라본 3D 텍스쳐 모델을 나타낸다. 3D 텍스쳐 모델은 형태 정보와 텍스쳐 정보가 모두 존재하는 모델로서, 사용자 인증 과정에서 2D 투영 영상을 생성하는데 이용될 수 있다. The models 540 and 550 represent 3D texture models generated based on the 3D shape model. The model 540 represents a 3D texture model viewed from the front, and the model 550 represents a 3D texture model viewed from a diagonal direction. The 3D texture model is a model in which both shape information and texture information exist, and may be used to generate a 2D projection image in a user authentication process.

3D 형태 모델 및 3D 텍스쳐 모델은 사용자의 고유 특징을 나타내는 얼굴의 형태는 고정되어 있고, 포즈 또는 표정이 변형될 수 있는 3D 모델이다. 3D 텍스쳐 모델은 3D 형태 모델보다 정밀도가 높으며, 보다 많은 버텍스를 포함하고 있다. 3D 형태 모델을 구성하는 버텍스들은 3D 텍스쳐 모델을 구성하는 버텍스들의 하위 집합(subset)으로, 동일한 파라미터에 의해 3D 형태 모델과 3D 텍스쳐 모델은 서로 동일한 포즈 및 표정을 나타낼 수 있다.The 3D shape model and the 3D texture model are 3D models in which the shape of the face representing the user's unique characteristics is fixed and the pose or expression can be changed. The 3D texture model is more precise than the 3D shape model and contains more vertices. Vertices constituting the 3D shape model are a subset of vertices constituting the 3D texture model, and the 3D shape model and the 3D texture model may exhibit the same pose and expression by the same parameters.

도 6은 일 실시예에 따른 2D 입력 영상에서 검출된 특징점에 기초하여 3D 얼굴 모델을 조정하는 과정을 설명하기 위한 도면이다. 도 6을 참조하면, 영상(610)은 얼굴 인식 또는 사용자 인증을 위해 얼굴 인식 장치에 입력되는 2D 입력 영상으로서, 카메라를 통해 촬영된 얼굴 포즈 영상을 나타낸다.6 is a diagram for describing a process of adjusting a 3D face model based on feature points detected in a 2D input image according to an exemplary embodiment. Referring to FIG. 6 , an image 610 is a 2D input image input to a face recognition device for face recognition or user authentication, and represents a face pose image captured by a camera.

얼굴 인식 장치(300)의 얼굴 영역 검출부(330)는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 특징점 검출부(340)는 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 입, 또는 턱 등의 윤곽에 위치하는 특징점들을 검출할 수 있다. 예를 들어, 특징점 검출부(340)는 ASM, AAM, 또는 SDM 등의 방식을 이용하여 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 영상(620)는 얼굴 영역 검출부(330)에 의해 영상(610)에서 얼굴 영역(630)이 검출되고, 특징점 검출부(340)에 의해 얼굴 영역(630) 내에서 특징점(640)들이 검출된 결과 영상을 나타낸다.The face region detector 330 of the face recognition apparatus 300 detects a face region from the 2D input image, and the feature point detector 340 detects the contours of eyes, eyebrows, nose, mouth, or chin within the detected face region. Positioned feature points can be detected. For example, the feature point detector 340 may detect the feature point of the face from the 2D input image using a method such as ASM, AAM, or SDM. The image 620 is a result image in which the face region 630 is detected from the image 610 by the face region detector 330 and feature points 640 are detected in the face region 630 by the feature point detector 340 . indicates

3D 얼굴 모델 처리부(320)는 미리 등록되어 저장된 3D 형태 모델을 2D 입력 영상에 정합시킬 수 있다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 파라미터를 조절하여 포즈 및 표정을 조정할 수 있다. 모델(650)은 미리 등륵되어 저장된 사용자 얼굴에 대한 3D 형태 모델을 나타내고, 모델(660)은 영상(610)에서 검출된 얼굴의 특징점(640)들에 기초하여 포즈 및 표정이 조정된 3D 형태 모델을 나타낸다. 3D 얼굴 모델 처리부(320)는 2D 입력 영상에 나타난 사용자 얼굴의 포즈와 동일하게 미리 저장된 3D 형태 모델의 포즈를 조정할 수 있다. 2D 입력 영상인 영상(610)에서, 사용자는 얼굴을 측면으로 회전한 포즈를 취하고 있고, 3D 얼굴 모델 처리부(320)에 의해 포즈가 조정된 3D 형태 모델도 영상(610)에서의 사용자 포즈와 동일하게 얼굴이 측면으로 회전한 포즈를 취하고 있다.The 3D face model processing unit 320 may match the previously registered and stored 3D shape model to the 2D input image. The 3D face model processing unit 320 may adjust poses and expressions by adjusting parameters of the 3D shape model based on feature points of the face detected in the 2D input image. The model 650 represents a 3D model of the user's face that has been registered and stored in advance, and the model 660 is a 3D model in which poses and expressions are adjusted based on feature points 640 of the face detected in the image 610 . indicates The 3D face model processing unit 320 may adjust the pose of the 3D shape model stored in advance to be the same as the pose of the user's face displayed in the 2D input image. In the image 610 that is the 2D input image, the user is taking a pose in which the face is rotated to the side, and the 3D shape model whose pose is adjusted by the 3D face model processing unit 320 is also the same as the user pose in the image 610 . He is posing with his face turned to the side.

도 7은 일 실시예에 따른 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 과정을 설명하기 위한 도면이다. 얼굴 인식 장치(300)의 3D 얼굴 모델 처리부(320)는 얼굴 인식을 위한 2D 입력 영상에서 검출된 얼굴의 특징점들에 기초하여 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정할 수 있다. 3D 얼굴 모델 처리부(320)는 조정된 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 3D 텍스쳐 모델에 적용하여, 3D 텍스쳐 모델의 포즈 및 표정을 3D 형태 모델과 동일하게 조정할 수 있다. 그 후, 3D 얼굴 모델 처리부(320)는 3D 텍스쳐 모델을 영상 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 얼굴 인식부(350)는 2D 입력 영상과 2D 투영 영상 간의 유사도에 기초하여 얼굴 인식을 수행하고, 얼굴 인식 결과를 출력할 수 있다.7 is a view for explaining a process of performing face recognition by comparing a 2D input image with a 2D projection image, according to an exemplary embodiment. The 3D face model processing unit 320 of the face recognition apparatus 300 may adjust a pose parameter and an expression parameter of the 3D shape model based on facial feature points detected from a 2D input image for face recognition. The 3D face model processing unit 320 may apply the adjusted pose parameters and expression parameters of the 3D shape model to the 3D texture model to adjust the poses and expressions of the 3D texture model to be identical to those of the 3D shape model. Thereafter, the 3D face model processing unit 320 may generate a 2D projection image by projecting the 3D texture model onto the image plane. The face recognition unit 350 may perform face recognition based on the similarity between the 2D input image and the 2D projection image, and may output a face recognition result.

도 7을 참조하면, 영상(710)은 얼굴 인식을 위해 이용되는 2D 입력 영상을 나타낸다. 영상(720)은 얼굴 인식부(350)가 얼굴 인식을 수행하기 위해 2D 입력 영상인 영상(710)과 비교되는 기준 영상이다. 영상(720)에 포함된 영역(730)은 3D 텍스쳐 모델로부터 생성된 2D 투영 영상이 반영된 영역을 나타낸다. 예를 들어, 영역(730)은 도 6의 형태 모델(660)에 텍스쳐가 맵핑된 텍스쳐 모델이 영상 평면으로 투영된 얼굴 영역일 수 있다. 얼굴 인식부(350)는 2D 입력 영상에 나타난 사용자의 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역만을 비교하여 얼굴 인식을 수행할 수 있다. 또는, 얼굴 인식부(350)는 도 7에서와 같이 2D 입력 영상인 영상(710)과 2D 입력 영상에 2D 투영 영상이 반영된 결과 영상인 영상(720)의 전체 영역을 비교하여 얼굴 인식을 수행할 수도 있다.Referring to FIG. 7 , an image 710 represents a 2D input image used for face recognition. The image 720 is a reference image compared with an image 710 that is a 2D input image in order for the face recognition unit 350 to perform face recognition. The region 730 included in the image 720 represents a region in which the 2D projection image generated from the 3D texture model is reflected. For example, the region 730 may be a face region in which a texture model in which a texture is mapped to the shape model 660 of FIG. 6 is projected onto an image plane. The face recognition unit 350 may perform face recognition by comparing only the face region of the user shown in the 2D input image with the face region shown in the 2D projection image. Alternatively, as shown in FIG. 7 , the face recognition unit 350 performs face recognition by comparing the entire area of an image 710 that is a 2D input image and an image 720 that is a result image in which a 2D projection image is reflected in the 2D input image. may be

도 8은 일 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.8 is a flowchart illustrating an operation of a method for generating a 3D face model according to an exemplary embodiment.

단계(810)에서, 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 2D 얼굴 영상들은 사용자의 얼굴을 등록하는데 이용될 수 있다. 2D 얼굴 영상들은, 예를 들어, 정면 영상 및 측면 영상과 같이 다양한 얼굴 포즈로 촬영된 영상들을 포함할 수 있다.In operation 810 , the apparatus for generating a 3D face model may acquire 2D face images of the user captured from a plurality of viewpoints through a camera. 2D face images may be used to register a user's face. The 2D face images may include images captured with various face poses, such as a front image and a side image, for example.

단계(820)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 관련 기술 분아야에서 일반적으로 알려진 ASM, AAM, 또는 SDM 등을 이용하여 2D 얼굴 영상들로부터 눈썹, 눈, 코, 입 등의 윤곽에 위치한 얼굴의 특징점들을 검출할 수 있다.In operation 820 , the 3D face model generating apparatus may detect feature points of the face from the 2D face images. For example, the 3D face model generating apparatus detects facial feature points located in the contours of eyebrows, eyes, nose, mouth, etc. from 2D face images using ASM, AAM, or SDM, which are generally known in the related art field. can do.

단계(830)에서, 3D 얼굴 모델 생성 장치는 검출된 특징점에 기초하여 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들에서 검출된 눈썹, 눈, 코, 입, 및 턱 등의 특징점들과 3D 표준 모델의 특징점들을 매칭시키는 것에 의해 3D 형태 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 결정된 파라미터를 3D 표준 모델에 적용하여 3D 형태 모델을 생성할 수 있다.In operation 830, the 3D face model generating apparatus may generate a 3D shape model based on the detected feature points. The 3D face model generating apparatus may generate a 3D shape model by matching feature points such as eyebrows, eyes, nose, mouth, and chin detected in 2D face images with feature points of the 3D standard model. The 3D face model generating apparatus may determine a parameter for mapping feature points detected from the 2D face images and the feature points of the 3D standard model, and apply the determined parameter to the 3D standard model to generate a 3D shape model.

단계(840)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상으로부터 추출한 텍스쳐 정보와 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 적어도 하나의 2D 얼굴 영상으로부터 추출된 텍스쳐를 3D 형태 모델에 맵핑하여 사용자 얼굴에 대한 3D 텍스쳐 모델을 생성할 수 있다. 3D 텍스쳐 모델은 3D 텍스쳐 모델의 파라미터가 적용되어 3D 텍스쳐 모델과 동일한 포즈 및 표정을 나타낼 수 있다.In operation 840, the 3D face model generating apparatus may generate a 3D texture model based on the texture information extracted from the 2D face image and the 3D shape model. The 3D face model generating apparatus may generate a 3D texture model of the user's face by mapping a texture extracted from at least one 2D face image to a 3D shape model. The 3D texture model may exhibit the same poses and facial expressions as the 3D texture model by applying the parameters of the 3D texture model.

단계(850)에서, 3D 얼굴 모델 생성 장치는 3D 형태 모델 및 3D 텍스쳐 모델을 사용자의 3D 얼굴 모델로 등록하고 저장할 수 있다. 저장된 3D 형태 모델 및 3D 텍스쳐 모델은 사용자 인증 과정에서 2D 입력 영상에 나타난 사용자를 인증하기 위해 이용될 수 있다.In operation 850, the 3D face model generating apparatus may register and store the 3D shape model and the 3D texture model as the user's 3D face model. The stored 3D shape model and 3D texture model may be used to authenticate the user shown in the 2D input image in the user authentication process.

도 9는 일 실시예에 따른 얼굴 인식 방법의 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of a face recognition method according to an exemplary embodiment.

단계(910)에서, 얼굴 인식 장치는 얼굴 인식을 위한 2D 입력 영상으로부터 얼굴의 특징점을 검출할 수 있다. 얼굴 인식 장치는 2D 입력 영상으로부터 얼굴 영역을 검출하고, 검출된 얼굴 영역 내에서 눈, 눈썹, 코, 턱, 입 등의 윤곽에 위치한 얼굴의 특징점을 검출할 수 있다. 예를 들어, 얼굴 인식 장치는 Haar-like 기반 Adaboost 분류기를 이용하여 2D 입력 영상에서 얼굴 영역을 검출하고, ASM, AAM, 또는 SDM 등을 이용하여 얼굴 영역 내에서 얼굴의 특징점을 검출할 수 있다.In operation 910 , the face recognition apparatus may detect a feature point of a face from a 2D input image for face recognition. The face recognition apparatus may detect a face region from the 2D input image, and detect feature points of a face located in outlines of eyes, eyebrows, nose, chin, mouth, etc. within the detected face region. For example, the face recognition apparatus may detect a face region from a 2D input image using a Haar-like-based Adaboost classifier, and may detect a feature point of a face within the face region using ASM, AAM, or SDM.

단계(920)에서, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 사용자의 3D 얼굴 모델을 조정할 수 있다. 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점에 기초하여 미리 등록된 3D 얼굴 모델을 2D 입력 영상에 정합시킬 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 포즈 및 표정에 매칭되도록 3D 얼굴 모델을 변형할 수 있다.In operation 920, the face recognition apparatus may adjust the pre-registered 3D face model of the user based on the feature points detected in the 2D input image. The face recognition apparatus may match a pre-registered 3D face model to the 2D input image based on the feature points detected in the 2D input image. The face recognition apparatus may transform the 3D face model to match the face pose and expression displayed in the 2D input image.

3D 얼굴 모델은 3D 형태 모델 및 3D 텍스쳐 모델을 포함할 수 있고, 얼굴 인식 장치는 2D 입력 영상에서 검출된 특징점들에 기초하여 3D 형태 모델의 포즈를 조정하고, 포즈가 조정된 3D 형태 모델의 파라미터 정보에 기초하여 3D 텍스쳐 모델을 조정할 수 있다. 얼굴 인식 장치 2D 입력 영상으로부터 검출된 특징점들에 기초하여 3D형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하고, 3D 형태 모델의 조정된 파라미터들을 3D 텍스쳐 모델에 적용할 수 있다. 파라미터들의 적용 결과, 3D 텍스쳐 모델은 3D 형태 모델의 포즈 및 표정과 동일한 포즈 및 표정으로 조정될 수 있다.The 3D face model may include a 3D shape model and a 3D texture model, and the face recognition apparatus adjusts the pose of the 3D shape model based on feature points detected in the 2D input image, and the parameter of the 3D shape model with the adjusted pose Based on the information, the 3D texture model can be adjusted. A pose parameter and an expression parameter of the 3D shape model may be adjusted based on feature points detected from the 2D input image of the face recognition apparatus, and the adjusted parameters of the 3D shape model may be applied to the 3D texture model. As a result of the application of the parameters, the 3D texture model may be adjusted to the same pose and expression as that of the 3D shape model.

단계(930)에서, 얼굴 인식 장치는 3D 텍스쳐 모델로부터 2D 투영 영상을 생성할 수 있다. 얼굴 인식 장치는 단계(920)에서 3D 형태 모델에 기초하여 조정된 3D 텍스쳐 모델을 평면으로 투영하여 2D 투영 영상을 생성할 수 있다. 2D 투영 영상에 나타난 얼굴 포즈는 2D 입력 영상에 나타난 얼굴 포즈와 동일할 수 있다. 예를 들어, 2D 입력 영상에서 나타난 사용자의 얼굴 포즈가 측면을 바라보는 포즈라고 하면, 단계(910) 내지 단계(930)을 통해 생성된 2D 투영 영상도 2D 입력 영상에서와 동일하게 3D 텍스쳐 모델이 측면을 바라보는 얼굴 포즈를 나타낼 수 있다.In operation 930, the face recognition apparatus may generate a 2D projection image from the 3D texture model. The face recognition apparatus may generate a 2D projection image by projecting the 3D texture model adjusted based on the 3D shape model to a plane in operation 920 . The face pose shown in the 2D projection image may be the same as the face pose shown in the 2D input image. For example, if the user's face pose shown in the 2D input image is a pose looking to the side, the 2D projection image generated through steps 910 to 930 also has a 3D texture model in the same way as in the 2D input image. It can represent a face pose looking to the side.

단계(940)에서, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상을 비교하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상에 나타난 얼굴 영역과 2D 투영 영상에 나타난 얼굴 영역 간의 유사도에 기초하여 얼굴 인식을 수행할 수 있다. 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도를 결정하고, 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력할 수 있다. 예를 들어, 얼굴 인식 장치는 2D 입력 영상과 2D 투영 영상 간의 유사도가 미리 결정된 조건을 만족하는 경우에는 "얼굴 인식 성공"의 인식 결과를 출력하고, 그렇지 않은 경우에는 "얼굴 인식 실패"의 인식 결과를 출력할 수 있다.In operation 940 , the face recognition apparatus may perform face recognition by comparing the 2D input image with the 2D projection image. The face recognition apparatus may perform face recognition based on a degree of similarity between the face region shown in the 2D input image and the face region shown in the 2D projection image. The face recognition apparatus may determine a similarity between the 2D input image and the 2D projected image, and output a face recognition result based on whether the similarity satisfies a predetermined condition. For example, if the similarity between the 2D input image and the 2D projection image satisfies a predetermined condition, the face recognition device outputs a recognition result of “face recognition success”, and otherwise, a recognition result of “face recognition failure” can be printed out.

도 10은 다른 실시예에 따른 3D 얼굴 모델 생성 장치의 세부 구성을 도시하는 도면이다. 3D 얼굴 모델 생성 장치(1000)는 얼굴 등록을 위한 복수의 2D 얼굴 영상들로부터 사용자 얼굴에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치(1000)는 다양한 방향에서 촬영된 2D 얼굴 영상들, 2D 얼굴 영상들에 대한 모션 데이터 및 3D 표준 모델을 이용하여 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 도 10을 참조하면, 3D 얼굴 모델 생성 장치(1000)는 영상 획득부(1010), 모션 센싱부(1020), 3D 얼굴 모델 생성부(1030) 및 3D 얼굴 모델 등록부(1040)를 포함할 수 있다.10 is a diagram illustrating a detailed configuration of an apparatus for generating a 3D face model according to another exemplary embodiment. The 3D face model generating apparatus 1000 may generate a 3D face model of the user's face from a plurality of 2D face images for face registration. The 3D face model generating apparatus 1000 may generate a 3D face model for the user by using 2D face images photographed in various directions, motion data for the 2D face images, and a 3D standard model. Referring to FIG. 10 , the 3D face model generating apparatus 1000 may include an image obtaining unit 1010 , a motion sensing unit 1020 , a 3D face model generating unit 1030 , and a 3D face model registering unit 1040 . .

영상 획득부(1010)는 얼굴 등록을 위한 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다. 영상 획득부(1010)는 카메라를 통해 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다. 예를 들어, 영상 획득부(1010)는 정면 영상 및 측면 영상 등과 같이 복수의 시점들에서 촬영된 2D 얼굴 영상들을 획득할 수 있다.The image acquisition unit 1010 may acquire 2D face images captured at a plurality of viewpoints for face registration. The image acquisition unit 1010 may acquire 2D face images obtained by photographing the user's face in various directions through a camera. For example, the image acquisition unit 1010 may acquire 2D face images captured from a plurality of viewpoints, such as a front image and a side image.

모션 센싱부(1020)는 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 모션 센싱부(1020)는 다양한 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 결정할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다. 예를 들어, 모션 센싱부(1020)는 가속도 센서(accelerometer), 각속도 센서(gyroscope) 및 자기 센서(magnetometer)를 포함하는 관성 측정 장치(inertial measurement unit; IMU)를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 결정할 수 있다.The motion sensing unit 1020 may obtain direction data of 2D face images. The motion sensing unit 1020 may determine direction data of 2D face images by using motion data sensed through various sensors. The direction data of the 2D face images may include information about a direction in which each 2D face image is captured. For example, the motion sensing unit 1020 uses an inertial measurement unit (IMU) including an accelerometer, a gyroscope, and a magnetometer to obtain respective 2D face images. direction data can be determined.

예를 들어, 사용자는 카메라를 다양한 위치로 회전하여 얼굴을 촬영할 수 있고, 촬영 결과로서 다양한 시점에서 촬영된 2D 얼굴 영상들이 획득될 수 있다. 2D 얼굴 영상들이 촬영될 때, 모션 센싱부(1020)는 관성 측정 장치로부터 출력된 센싱 정보에 기초하여 2D 얼굴 영상들을 촬영한 카메라의 속도, 방향, 롤(roll), 피치(pitch) 및/또는 요(yaw)의 변화 등과 같은 모션 데이터를 계산하고, 모션 데이터로부터 2D 얼굴 영상들이 촬영된 방향에 관한 방향 데이터를 결정할 수 있다.For example, the user may photograph a face by rotating the camera to various positions, and 2D face images photographed at various viewpoints may be obtained as a result of the photographing. When the 2D face images are captured, the motion sensing unit 1020 performs the speed, direction, roll, pitch and/or speed of the camera capturing the 2D face images based on the sensing information output from the inertial measurement device. Motion data such as a change in yaw may be calculated, and direction data regarding a direction in which 2D face images are captured may be determined from the motion data.

3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에 나타난 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 얼굴의 특징점(또는, 랜드마크)들을 검출할 수 있다. 예를 들어, 3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들에서 눈썹, 눈, 코, 입, 및/또는 턱 등의 윤곽에 위치한 특징점을 검출할 수 있다. 3D 얼굴 모델 생성부(1030) 2D 얼굴 영상들로부터 검출된 얼굴의 특징점들에 기초하여 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다.The 3D face model generator 1030 may generate a 3D face model of the user shown in the 2D face images. The 3D face model generator 1030 may detect feature points (or landmarks) of the face from the 2D face images. For example, the 3D face model generator 1030 may detect feature points located in contours such as eyebrows, eyes, nose, mouth, and/or chin from the 2D face images. The 3D face model generator 1030 may determine correspondence point information between 2D face images based on facial feature points detected from the 2D face images.

3D 얼굴 모델 생성부(1030)는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성부(1030)는, 예를 들어, 기존의 스테레오 매칭(stereo matching) 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 내지 표면을 구성하는 3D 포인트들의 집합일 수 있다.The 3D face model generator 1030 may generate 3D data about the user's face based on feature point information of the face detected from the 2D face images, information on correspondence points between the 2D face images, and direction data of the 2D face images. . The 3D face model generator 1030 may generate 3D data about the user's face using, for example, a conventional stereo matching technique. The 3D data about the user's face may be a set of 3D points constituting the shape or surface of the user's face.

3D 얼굴 모델 생성부(1030)는 사용자의 얼굴에 관한 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 변형이 가능한(deformable) 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성부(1030)는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 사용자에 대한 3D 얼굴 모델은 사용자 얼굴의 형태에 관한 3D 형상 모델 및/또는 텍스쳐 정보를 포함하는 3D 텍스쳐 모델을 포함할 수 있다.The 3D face model generator 1030 may transform the 3D standard model into a 3D face model of the user by using 3D data about the user's face. The 3D face model generator 1030 may transform the 3D standard model into a 3D face model for the user by matching a deformable 3D standard model with 3D data about the user's face. The 3D face model generator 1030 may transform the 3D standard model into a 3D face model for the user by matching the feature points on the 3D data with the feature points on the 3D standard model. The 3D face model for the user may include a 3D shape model regarding the shape of the user's face and/or a 3D texture model including texture information.

3D 얼굴 모델 등록부(1040)는 3D 얼굴 모델 생성부(1030)에 의해 생성된 사용자에 대한 3D 얼굴 모델을 등록하고 저장할 수 있다. 저장된 사용자에 대한 3D 얼굴 모델은 사용자의 얼굴을 인식하기 위해 이용되고, 얼굴 인식 과정에서 형태가 변형될 수 있다.The 3D face model registration unit 1040 may register and store the 3D face model for the user generated by the 3D face model generation unit 1030 . The stored 3D face model of the user is used to recognize the user's face, and the shape may be changed in the face recognition process.

도 11은 다른 실시예에 따른 3D 얼굴 모델 생성 방법의 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation of a method for generating a 3D face model according to another exemplary embodiment.

단계(1110)에서, 3D 얼굴 모델 생성 장치는 얼굴 등록을 위한 복수의 2D 얼굴 영상들 및 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 3D 얼굴 모델 생성 장치는 카메라를 통해 복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득할 수 있다. 3D 얼굴 모델 생성 장치는 정면 영상 및 측면 영상 등과 같이 다양한 방향에서 사용자의 얼굴을 촬영한 2D 얼굴 영상들을 획득할 수 있다.In operation 1110, the 3D face model generating apparatus may obtain a plurality of 2D face images for face registration and direction data of the 2D face images. The apparatus for generating a 3D face model may acquire 2D face images of a user captured at a plurality of viewpoints through a camera. The 3D face model generating apparatus may acquire 2D face images obtained by photographing the user's face in various directions, such as a front image and a side image.

3D 얼굴 모델 생성 장치는 모션 센서를 통해 센싱된 모션 데이터를 이용하여 2D 얼굴 영상들의 방향 데이터를 획득할 수 있다. 예를 들어, 3D 얼굴 모델 생성 장치는 가속도 센서, 각속도 센서 및 자기 센서를 포함하는 관성 측정 장치를 통해 센싱된 모션 데이터를 이용하여 각각의 2D 얼굴 영상들에 대한 방향 데이터를 획득할 수 있다. 2D 얼굴 영상들의 방향 데이터는 각각의 2D 얼굴 영상이 촬영된 방향에 관한 정보를 포함할 수 있다.The 3D face model generating apparatus may obtain direction data of 2D face images by using motion data sensed through a motion sensor. For example, the 3D face model generating apparatus may obtain direction data for each of the 2D face images by using motion data sensed through an inertial measurement device including an acceleration sensor, an angular velocity sensor, and a magnetic sensor. The direction data of the 2D face images may include information about a direction in which each 2D face image is captured.

단계(1120)에서, 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들 간의 대응점 정보를 결정할 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 검출된 특징점들에 기초하여 2D 얼굴 영상들 사이에서 서로 대응되는 대응점을 검출할 수 있다.In operation 1120, the 3D face model generating apparatus may determine correspondence point information between 2D face images. The 3D face model generating apparatus may detect feature points of a face from the 2D face images, and detect corresponding points corresponding to each other between the 2D face images based on the detected feature points.

단계(1130)에서, 3D 얼굴 모델 생성 장치는 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 예를 들어, 사용자의 얼굴에 관한 3D 데이터는 사용자의 얼굴의 형태 또는 얼굴 표면을 구성하는 3D 포인트들의 집합으로서, 복수의 버텍스(vertex)들로 구성될 수 있다. 3D 얼굴 모델 생성 장치는 2D 얼굴 영상들로부터 검출된 얼굴의 특징점 정보, 2D 얼굴 영상들 간의 대응점 정보 및 2D 얼굴 영상들의 방향 데이터에 기초하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다. 3D 얼굴 모델 생성 장치는 기존의 스테레오 매칭 기법을 이용하여 사용자의 얼굴에 관한 3D 데이터를 생성할 수 있다.In operation 1130, the 3D face model generating apparatus may generate 3D data about the user's face. For example, 3D data about the user's face is a set of 3D points constituting the shape of the user's face or the face surface, and may include a plurality of vertices. The 3D face model generating apparatus may generate 3D data about the user's face based on facial feature point information detected from 2D face images, correspondence point information between 2D face images, and direction data of the 2D face images. The 3D face model generating apparatus may generate 3D data about the user's face by using an existing stereo matching technique.

단계(1140)에서, 3D 얼굴 모델 생성 장치는 단계(1130)에서 생성된 3D 데이터를 이용하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 표준 모델을 사용자의 얼굴에 관한 3D 데이터에 정합하여 3D 표준 모델을 사용자에 대한 3D 얼굴 모델로 변형할 수 있다. 3D 얼굴 모델 생성 장치는 3D 데이터 상의 특징점들과 3D 표준 모델 상의 특징점들을 매칭시키는 것에 의해 사용자에 대한 3D 얼굴 모델을 생성할 수 있다. 3D 얼굴 모델 생성 장치는 사용자에 대한 3D 얼굴 모델로서 3D 형상 모델 및/또는 3D 텍스쳐 모델을 생성할 수 있다. 생성된 사용자에 대한 3D 얼굴 모델은 저장 및 등록되고, 사용자의 얼굴을 인식하기 위해 이용될 수 있다.In operation 1140 , the 3D face model generating apparatus may transform the 3D standard model into a 3D face model of the user by using the 3D data generated in operation 1130 . The 3D face model generating apparatus may transform the 3D standard model into a 3D face model of the user by matching the 3D standard model to 3D data regarding the user's face. The 3D face model generating apparatus may generate a 3D face model for the user by matching the feature points on the 3D data with the feature points on the 3D standard model. The 3D face model generating apparatus may generate a 3D shape model and/or a 3D texture model as a 3D face model for the user. The generated 3D face model for the user may be stored and registered, and used to recognize the user's face.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (32)

2D(dimensional) 입력 영상으로부터 얼굴의 특징점들을 검출하는 단계;
상기 검출된 특징점들에 기초하여, 미리 저장된 3D 얼굴 모델을 조정하는 단계;
상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 단계; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 단계를 포함하고,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 3D 얼굴 모델에 상기 검출된 특징점들을 맵핑(mapping)하여 상기 3D 얼굴 모델의 표정을 조정하는 단계를 포함하고,
상기 2D 투영 영상을 생성하는 단계는,
상기 표정이 조정된 3D 얼굴 모델로부터 상기 2D 투영 영상을 생성하는 단계를 포함하고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는,
얼굴 인식 방법.
detecting feature points of a face from a 2D (dimensional) input image;
adjusting a pre-stored 3D face model based on the detected feature points;
generating a 2D projection image from the adjusted 3D face model; and
Comprising the step of performing face recognition by comparing the 2D input image and the 2D projection image,
Adjusting the 3D face model comprises:
adjusting the expression of the 3D face model by mapping the detected feature points to the 3D face model;
The step of generating the 2D projection image comprises:
Generating the 2D projection image from the 3D face model with the expression adjusted,
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image,
How to recognize faces.
제1항에 있어서,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 3D 얼굴 모델에 상기 검출된 특징점을 맵핑(mapping)하여 상기 3D 얼굴 모델의 포즈를 조정하는 단계
를 포함하는 얼굴 인식 방법.
According to claim 1,
Adjusting the 3D face model comprises:
adjusting the pose of the 3D face model by mapping the detected feature points to the 3D face model
A face recognition method comprising
제2항에 있어서,
상기 3D 얼굴 모델은, 3D 형태 모델(shape model) 및 3D 텍스쳐 모델(texture model)을 포함하고,
상기 3D 얼굴 모델을 조정하는 단계는,
상기 2D 입력 영상으로부터 검출된 특징점들에 기초하여 상기 3D 형태 모델을 조정하는 단계; 및
상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는 단계
를 포함하는 얼굴 인식 방법.
3. The method of claim 2,
The 3D face model includes a 3D shape model and a 3D texture model,
Adjusting the 3D face model comprises:
adjusting the 3D shape model based on feature points detected from the 2D input image; and
adjusting the 3D texture model based on parameter information of the adjusted 3D shape model
A face recognition method comprising
제3항에 있어서,
상기 3D 형태 모델을 조정하는 단계는,
상기 검출된 특징점들에 기초하여 상기 3D 형태 모델의 포즈 파라미터 및 표정 파라미터를 조정하는 단계
를 포함하는 얼굴 인식 방법.
4. The method of claim 3,
Adjusting the 3D shape model comprises:
adjusting a pose parameter and an expression parameter of the 3D shape model based on the detected feature points
A face recognition method comprising
제3항에 있어서,
상기 2D 투영 영상을 생성하는 단계는,
상기 조정된 3D 텍스쳐 모델로부터 2D 투영 영상을 생성하는 단계
를 포함하는 얼굴 인식 방법.
4. The method of claim 3,
The step of generating the 2D projection image comprises:
generating a 2D projection image from the adjusted 3D texture model;
A face recognition method comprising
제3항에 있어서,
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델은,
3D 모델의 형태는 고정되어 있고, 포즈 및 표정이 변화될 수 있는 모델인, 얼굴 인식 방법.
4. The method of claim 3,
The 3D shape model and the 3D texture model are,
A face recognition method, in which the shape of a 3D model is fixed, and a model whose poses and expressions can be changed.
제1항에 있어서,
상기 2D 투영 영상은,
상기 2D 입력 영상에 나타난 얼굴 포즈와 동일한 얼굴 포즈를 나타내는, 얼굴 인식 방법.
According to claim 1,
The 2D projection image is
A face recognition method representing the same face pose as the face pose shown in the 2D input image.
제1항에 있어서,
상기 얼굴 인식을 수행하는 단계는,
상기 2D 입력 영상과 상기 2D 투영 영상 간의 유사도를 결정하는 단계; 및
상기 유사도가 미리 결정된 조건을 만족하는지 여부에 기초하여 얼굴 인식 결과를 출력하는 단계
를 포함하는 얼굴 인식 방법.
According to claim 1,
The step of performing the face recognition comprises:
determining a similarity between the 2D input image and the 2D projection image; and
outputting a face recognition result based on whether the degree of similarity satisfies a predetermined condition
A face recognition method comprising
제1항에 있어서,
상기 얼굴의 특징점들을 검출하는 단계는,
상기 2D 입력 영상으로부터 얼굴 영역을 추출하는 단계; 및
상기 얼굴 영역으로부터 눈썹, 눈, 코, 입, 턱, 귀, 및 얼굴의 윤곽 중 적어도 하나에 포함된 특징점들을 검출하는 단계
를 포함하는 얼굴 인식 방법.
According to claim 1,
The step of detecting the feature points of the face comprises:
extracting a face region from the 2D input image; and
detecting feature points included in at least one of eyebrows, eyes, nose, mouth, chin, ears, and face contours from the face region;
A face recognition method comprising
복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 단계;
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 단계를 포함하고,
상기 등록된 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는,
3D 얼굴 모델 생성 방법.
acquiring 2D face images of a user taken at a plurality of viewpoints;
detecting feature points of a face from the 2D face images;
generating a deformable 3D shape model and a 3D texture model based on the detected feature points; and
Registering the 3D shape model and the 3D texture model as the user's 3D face model, and storing the model,
In the face recognition process using the registered 3D face model,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression shown in the generated 2D projection image corresponds to the facial expression shown in the 2D input image,
How to create a 3D face model.
제10항에 있어서,
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐(texture) 정보와 상기 3D 형태 모델에 기초하여 상기 3D 텍스쳐 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
The step of generating the 3D shape model and the 3D texture model comprises:
generating the 3D texture model based on texture information extracted from at least one of the 2D face images and the 3D shape model;
A method of generating a 3D face model, including
제10항에 있어서,
상기 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 단계는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑(mapping)하기 위한 파라미터를 결정하는 단계; 및
상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
The step of generating the 3D shape model and the 3D texture model comprises:
determining a parameter for mapping the detected feature points and feature points of a 3D standard model; and
generating the 3D shape model by applying the determined parameter to the 3D standard model
A method of generating a 3D face model, including
제10항에 있어서,
상기 3D 텍스쳐 모델은,
상기 3D 형태 모델의 버텍스(vertex)들을 포함하는, 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
The 3D texture model is
A method of generating a 3D face model, including vertices of the 3D shape model.
제10항에 있어서,
상기 2D 얼굴 영상들은,
상기 사용자의 얼굴을 서로 다른 시점에서 촬영한 영상들을 포함하는, 3D 얼굴 모델 생성 방법.
11. The method of claim 10,
The 2D face images are
A method of generating a 3D face model, including images obtained by photographing the user's face from different viewpoints.
사용자의 얼굴을 촬영한 2D 얼굴 영상들 및 상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계;
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계;
상기 2D 얼굴 영상들의 방향 데이터 및 상기 2D 얼굴 영상들 간의 대응점 정보에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하는 단계; 및
상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계
를 포함하고,
상기 사용자에 대한 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 3D 얼굴 모델 생성 방법.
obtaining 2D face images obtained by photographing a user's face and direction data of the 2D face images;
determining correspondence point information between the 2D face images;
generating 3D data about the user's face based on direction data of the 2D face images and information on correspondence points between the 2D face images; and
transforming a 3D standard model into a 3D face model for the user using the 3D data;
including,
In the face recognition process using the 3D face model for the user,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
제15항에 있어서,
상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 단계는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
Transforming the 3D standard model into a 3D face model for the user comprises:
A method for generating a 3D face model, wherein the 3D standard model is matched with 3D data about the user's face to transform the 3D standard model into a 3D face model for the user.
제15항에 있어서,
상기 사용자의 얼굴에 관한 3D 데이터는,
상기 사용자의 얼굴의 형태(shape)를 구성하는 3D 포인트들의 집합인, 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
3D data about the user's face,
A method of generating a 3D face model, which is a set of 3D points constituting the shape of the user's face.
제15항에 있어서,
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 단계는,
모션 센서를 통해 센싱된 모션 데이터를 이용하여 상기 2D 얼굴 영상들의 방향 데이터를 획득하는, 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
The step of obtaining direction data of the 2D face images comprises:
A method for generating a 3D face model, comprising obtaining direction data of the 2D face images by using motion data sensed through a motion sensor.
제15항에 있어서,
상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 단계; 및
상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는 단계
를 포함하는 3D 얼굴 모델 생성 방법.
16. The method of claim 15,
The step of determining correspondence point information between the 2D face images includes:
detecting feature points of a face from the 2D face images; and
determining correspondence point information between the 2D face images based on the detected feature points
A method of generating a 3D face model, including
제1항 내지 제19항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium in which a program for executing the method of any one of claims 1 to 19 is recorded. 사용자의 얼굴 영역이 포함된 2D 입력 영상을 획득하는 영상 획득부;
상기 2D 입력 영상으로부터 검출된 특징점들에 기초하여 미리 저장된 3D 얼굴 모델을 조정하고, 상기 조정된 3D 얼굴 모델로부터 2D 투영 영상을 생성하는 3D 얼굴 모델 처리부; 및
상기 2D 입력 영상과 상기 2D 투영 영상을 비교하여 얼굴 인식을 수행하는 얼굴 인식부
를 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 2D 입력 영상으로부터 얼굴 영역을 검출하는 얼굴 영역 검출부; 및
상기 얼굴 영역으로부터 얼굴의 상기 특징점들을 검출하는 특징점 검출부
를 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 3D 얼굴 모델에 상기 검출된 특징점들을 맵핑(mapping)하여 상기 3D 얼굴 모델의 표정을 조정하고, 상기 표정이 조정된 3D 얼굴 모델로부터 상기 2D 투영 영상을 생성하고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 얼굴 인식 장치.
an image acquisition unit for acquiring a 2D input image including a user's face region;
a 3D face model processing unit that adjusts a pre-stored 3D face model based on the feature points detected from the 2D input image and generates a 2D projection image from the adjusted 3D face model; and
A face recognition unit that performs face recognition by comparing the 2D input image with the 2D projection image
including,
The 3D face model processing unit,
a face region detector configured to detect a face region from the 2D input image; and
A feature point detection unit for detecting the feature points of the face from the face region
including,
The 3D face model processing unit,
adjusting the expression of the 3D face model by mapping the detected feature points to the 3D face model, and generating the 2D projection image from the 3D face model with the adjusted expression;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
삭제delete 제21항에 있어서,
상기 3D 얼굴 모델 처리부는,
상기 검출된 특징점들과 상기 미리 저장된 3D 얼굴 모델의 특징점들을 매칭시키는 것에 의해 상기 2D 입력 영상에 나타난 사용자 얼굴의 포즈(pose)에 따라 상기 3D 얼굴 모델의 포즈를 조정하는, 얼굴 인식 장치.
22. The method of claim 21,
The 3D face model processing unit,
and adjusting a pose of the 3D face model according to a pose of a user's face displayed in the 2D input image by matching the detected feature points with the feature points of the 3D face model stored in advance.
제23항에 있어서,
상기 3D 얼굴 모델은, 3D 형태 모델 및 3D 텍스쳐 모델을 포함하고,
상기 3D 얼굴 모델 처리부는,
상기 입력 영상에 나타난 사용자의 얼굴 포즈에 따라 상기 3D 형태 모델의 포즈를 조정하고, 상기 조정된 3D 형태 모델의 파라미터 정보에 기초하여 상기 3D 텍스쳐 모델을 조정하는, 얼굴 인식 장치.
24. The method of claim 23,
The 3D face model includes a 3D shape model and a 3D texture model,
The 3D face model processing unit,
A face recognition apparatus for adjusting a pose of the 3D shape model according to a face pose of a user displayed in the input image, and adjusting the 3D texture model based on parameter information of the adjusted 3D shape model.
제24항에 있어서,
상기 3D 얼굴 모델 처리부는,
상기 조정된 3D 텍스쳐 모델을 평면으로 투영하여 상기 2D 투영 영상을 생성하는, 얼굴 인식 장치.
25. The method of claim 24,
The 3D face model processing unit,
and generating the 2D projection image by projecting the adjusted 3D texture model onto a plane.
제21항에 있어서,
상기 2D 입력 영상, 상기 2D 투영 영상, 및 얼굴 인식 결과 중 적어도 하나를 디스플레이하는 디스플레이부
를 더 포함하는 얼굴 인식 장치.
22. The method of claim 21,
a display unit configured to display at least one of the 2D input image, the 2D projection image, and a face recognition result
A face recognition device further comprising a.
복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부;
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하는 특징점 검출부;
상기 검출된 특징점들에 기초하여, 변형이 가능한 3D 형태 모델 및 3D 텍스쳐 모델을 생성하는 3D 얼굴 모델 생성부; 및
상기 3D 형태 모델 및 상기 3D 텍스쳐 모델을 상기 사용자의 3D 얼굴 모델로 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하고,
상기 등록된 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 3D 얼굴 모델 생성 장치.
an image acquisition unit for acquiring 2D face images of a user taken at a plurality of viewpoints;
a feature point detector for detecting feature points of a face from the 2D face images;
a 3D face model generator that generates a deformable 3D shape model and a 3D texture model based on the detected feature points; and
3D face model registration unit for registering and storing the 3D shape model and the 3D texture model as the user's 3D face model
including,
In the face recognition process using the registered 3D face model,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
제27항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 검출된 특징점들과 3D 표준 모델의 특징점들을 맵핑하기 위한 파라미터를 결정하고, 상기 결정된 파라미터를 상기 3D 표준 모델에 적용하여 상기 3D 형태 모델을 생성하는, 3D 얼굴 모델 생성 장치.
28. The method of claim 27,
The 3D face model generation unit,
3D face model generating apparatus, which determines a parameter for mapping the detected feature points and feature points of a 3D standard model, and generates the 3D shape model by applying the determined parameter to the 3D standard model.
제27항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 검출된 얼굴의 특징점들에 기초하여 상기 사용자의 얼굴에 대한 3D 형태 모델을 생성하는 3D 형태 모델 생성부; 및
상기 2D 얼굴 영상들 중 적어도 하나로부터 추출된 텍스쳐 정보와 상기 3D 형태 모델에 기초하여 3D 텍스쳐 모델을 생성하는 3D 텍스쳐 모델 생성부
를 포함하는 3D 얼굴 모델 생성 장치.
28. The method of claim 27,
The 3D face model generation unit,
a 3D shape model generator for generating a 3D shape model of the user's face based on the detected facial feature points; and
A 3D texture model generator that generates a 3D texture model based on the texture information extracted from at least one of the 2D face images and the 3D shape model
A 3D face model generating device comprising a.
복수의 시점들에서 촬영된 사용자의 2D 얼굴 영상들을 획득하는 영상 획득부;
상기 2D 얼굴 영상들의 방향 데이터를 획득하는 모션 센싱부;
상기 2D 얼굴 영상들 간의 대응점 정보 및 상기 2D 얼굴 영상들의 방향 데이터에 기초하여 상기 사용자의 얼굴에 관한 3D 데이터를 생성하고, 상기 3D 데이터를 이용하여 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는 3D 얼굴 모델 생성부;
상기 사용자에 대한 3D 얼굴 모델을 등록하고, 저장하는 3D 얼굴 모델 등록부
를 포함하고,
상기 저장된 3D 얼굴 모델을 이용한 얼굴 인식 과정에서,
상기 3D 얼굴 모델은, 얼굴 인식을 위한 2D 입력 영상으로부터 검출된 특징점들에 기초하여 표정이 조정되고,
상기 표정이 조정된 3D 얼굴 모델로부터 2D 투영 영상이 생성되고,
상기 2D 투영 영상과 상기 2D 입력 영상에 기초하여 얼굴 인식 결과가 결정되고,
상기 생성된 2D 투영 영상에 나타난 얼굴의 표정은 상기 2D 입력 영상에 나타난 얼굴의 표정에 대응되는, 3D 얼굴 모델 생성 장치.
an image acquisition unit for acquiring 2D face images of a user taken at a plurality of viewpoints;
a motion sensing unit to obtain direction data of the 2D face images;
3D data about the user's face is generated based on correspondence point information between the 2D face images and direction data of the 2D face images, and a 3D standard model is transformed into a 3D face model for the user using the 3D data 3D face model generation unit;
3D face model registration unit for registering and storing 3D face models for the user
including,
In the face recognition process using the stored 3D face model,
In the 3D face model, an expression is adjusted based on feature points detected from a 2D input image for face recognition,
A 2D projection image is generated from the 3D face model with the expression adjusted,
a face recognition result is determined based on the 2D projection image and the 2D input image;
The facial expression displayed in the generated 2D projection image corresponds to the facial expression displayed in the 2D input image.
제30항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 2D 얼굴 영상들로부터 얼굴의 특징점들을 검출하고, 상기 검출된 특징점들에 기초하여 상기 2D 얼굴 영상들 간의 대응점 정보를 결정하는, 3D 얼굴 모델 생성 장치.
31. The method of claim 30,
The 3D face model generation unit,
and detecting feature points of a face from the 2D face images, and determining correspondence point information between the 2D face images based on the detected feature points.
제30항에 있어서,
상기 3D 얼굴 모델 생성부는,
상기 3D 표준 모델을 상기 사용자의 얼굴에 관한 3D 데이터에 정합하여 상기 3D 표준 모델을 상기 사용자에 대한 3D 얼굴 모델로 변형하는, 3D 얼굴 모델 생성 장치.
31. The method of claim 30,
The 3D face model generation unit,
and matching the 3D standard model with 3D data about the user's face to transform the 3D standard model into a 3D face model for the user.
KR1020150001850A 2014-09-05 2015-01-07 Method and apparatus for face recognition KR102357340B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/796,224 US20160070952A1 (en) 2014-09-05 2015-07-10 Method and apparatus for facial recognition
EP19200425.7A EP3614303A1 (en) 2014-09-05 2015-07-15 Method and apparatus for facial recognition
EP15176898.3A EP2993614B1 (en) 2014-09-05 2015-07-15 Method and device for facial recognition
CN202210474282.3A CN114627543A (en) 2014-09-05 2015-07-24 Method and apparatus for face recognition
CN201510441052.7A CN106203248A (en) 2014-09-05 2015-07-24 Method and apparatus for face recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140118828 2014-09-05
KR20140118828 2014-09-05

Publications (2)

Publication Number Publication Date
KR20160029629A KR20160029629A (en) 2016-03-15
KR102357340B1 true KR102357340B1 (en) 2022-02-03

Family

ID=55542177

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150001850A KR102357340B1 (en) 2014-09-05 2015-01-07 Method and apparatus for face recognition

Country Status (2)

Country Link
KR (1) KR102357340B1 (en)
CN (1) CN106203248A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039026A1 (en) * 2022-08-18 2024-02-22 슈퍼랩스 주식회사 Method, computer device, and computer program for generating multi-angle image-based 3d avatar

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101998361B1 (en) * 2016-06-01 2019-07-10 가천대학교 산학협력단 Method of facial recognition in camera image
US11010595B2 (en) * 2017-03-23 2021-05-18 Samsung Electronics Co., Ltd. Facial verification method and apparatus
CN108932459B (en) * 2017-05-26 2021-12-10 富士通株式会社 Face recognition model training method and device and face recognition method
CN108171182B (en) * 2017-12-29 2022-01-21 Oppo广东移动通信有限公司 Electronic device, face recognition method and related product
CN108470186A (en) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 A kind of matching process and device of image characteristic point
RU2697627C1 (en) * 2018-08-01 2019-08-15 Самсунг Электроникс Ко., Лтд. Method of correcting illumination of an object on an image in a sequence of images and a user's computing device which implements said method
CN108858201A (en) * 2018-08-15 2018-11-23 深圳市烽焌信息科技有限公司 It is a kind of for nursing the robot and storage medium of children
CN109255327A (en) * 2018-09-07 2019-01-22 北京相貌空间科技有限公司 Acquisition methods, face's plastic operation evaluation method and the device of face characteristic information
CN111310512B (en) * 2018-12-11 2023-08-22 杭州海康威视数字技术股份有限公司 User identity authentication method and device
EP3674974A1 (en) * 2018-12-31 2020-07-01 Samsung Electronics Co., Ltd. Apparatus and method with user verification
CN110111418B (en) * 2019-05-15 2022-02-25 北京市商汤科技开发有限公司 Method and device for creating face model and electronic equipment
CN110097035A (en) * 2019-05-15 2019-08-06 成都电科智达科技有限公司 A kind of facial feature points detection method based on 3D human face rebuilding
KR102145517B1 (en) * 2019-05-31 2020-08-18 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for registration of 3-dimentional measured data
KR20240030109A (en) * 2022-08-29 2024-03-07 삼성전자주식회사 An electronic apparatus for providing avatar based on an user's face and a method for operating the same
CN117789272A (en) * 2023-12-26 2024-03-29 中邮消费金融有限公司 Identity verification method, device, equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115847A (en) * 2003-10-10 2005-04-28 Babcock Hitachi Kk Method for collating objects reflected in two-dimensional image and specific three-dimensional image
JP2010128742A (en) * 2008-11-27 2010-06-10 Casio Computer Co Ltd Three-dimensional data creation device
JP2011039869A (en) * 2009-08-13 2011-02-24 Nippon Hoso Kyokai <Nhk> Face image processing apparatus and computer program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100412885C (en) * 2005-05-23 2008-08-20 株式会社东芝 Image recognition apparatus and method
CN101159015B (en) * 2007-11-08 2010-12-08 清华大学 Two-dimensional human face image recognizing method
JP4569670B2 (en) * 2008-06-11 2010-10-27 ソニー株式会社 Image processing apparatus, image processing method, and program
CN101499132B (en) * 2009-03-12 2013-05-01 广东药学院 Three-dimensional transformation search method for extracting characteristic points in human face image
CN102156537B (en) * 2010-02-11 2016-01-13 三星电子株式会社 A kind of head pose checkout equipment and method
CN102271241A (en) * 2011-09-02 2011-12-07 北京邮电大学 Image communication method and system based on facial expression/action recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115847A (en) * 2003-10-10 2005-04-28 Babcock Hitachi Kk Method for collating objects reflected in two-dimensional image and specific three-dimensional image
JP2010128742A (en) * 2008-11-27 2010-06-10 Casio Computer Co Ltd Three-dimensional data creation device
JP2011039869A (en) * 2009-08-13 2011-02-24 Nippon Hoso Kyokai <Nhk> Face image processing apparatus and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039026A1 (en) * 2022-08-18 2024-02-22 슈퍼랩스 주식회사 Method, computer device, and computer program for generating multi-angle image-based 3d avatar

Also Published As

Publication number Publication date
KR20160029629A (en) 2016-03-15
CN106203248A (en) 2016-12-07

Similar Documents

Publication Publication Date Title
KR102357340B1 (en) Method and apparatus for face recognition
EP2993614B1 (en) Method and device for facial recognition
KR102290392B1 (en) Method and apparatus for registering face, method and apparatus for recognizing face
US10733422B2 (en) Face recognition method and apparatus
KR101997500B1 (en) Method and apparatus for generating personalized 3d face model
US10331941B2 (en) Face recognition method and apparatus
US9881204B2 (en) Method for determining authenticity of a three-dimensional object
EP3825905A1 (en) Method and apparatus with liveness test and/or biometric authentication, computer program therefore and medium storing the same
KR101647803B1 (en) Face recognition method through 3-dimension face model projection and Face recognition system thereof
KR102476016B1 (en) Apparatus and method for determining position of eyes
US11238271B2 (en) Detecting artificial facial images using facial landmarks
KR20210069404A (en) Liveness test method and liveness test apparatus
CN110647782A (en) Three-dimensional face reconstruction and multi-pose face recognition method and device
US11048926B2 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
Bauer et al. 4D Photogeometric face recognition with time-of-flight sensors
Sun et al. Dual camera based feature for face spoofing detection
KR101509934B1 (en) Device of a front head pose guidance, and method thereof
KR20230105986A (en) Liveness test method and liveness test apparatus
Yağcıoğlu Comparison of 3d facial anchor point localization methods

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant