KR20130071750A - System and method for face recognition - Google Patents
System and method for face recognition Download PDFInfo
- Publication number
- KR20130071750A KR20130071750A KR1020110139145A KR20110139145A KR20130071750A KR 20130071750 A KR20130071750 A KR 20130071750A KR 1020110139145 A KR1020110139145 A KR 1020110139145A KR 20110139145 A KR20110139145 A KR 20110139145A KR 20130071750 A KR20130071750 A KR 20130071750A
- Authority
- KR
- South Korea
- Prior art keywords
- feature point
- image
- image data
- data
- mesh data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 239000000284 extract Substances 0.000 abstract description 13
- 238000000605 extraction Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 8
- 230000005484 gravity Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
본 발명은 얼굴 인식 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선하기 위한 얼굴 인식 시스템 및 그 방법에 관한 것이다.
The present invention relates to a face recognition system and a method thereof, and more particularly, to extract a feature point from a 3D image using a feature point extraction algorithm and to control a pose of the 3D image using the extracted extraction point. A facial recognition system for improving speed and a method thereof.
생체 인식 기술이란 얼굴, 지문, 홍채, DNA 등 인간의 특징을 이용하여 개인의 신분을 인증하는 기술을 말한다.Biometrics technology refers to a technique of authenticating an individual's identity by using human characteristics such as face, fingerprint, iris, and DNA.
최근에는 영상을 이용한 개인 인증의 자동화 기술이 연구되고 있는데, 그 중 하나가 영상을 영상 신호 처리하여 얻은 정보 등에 의해 얼굴을 인식하는 얼굴 인식 기술이다.Recently, an automatic technology for personal authentication using images has been studied, one of which is a face recognition technique for recognizing a face by information obtained by processing an image signal.
이러한 얼굴 인식 기술은 2차원 영상을 기반으로 연구되어 왔고, 신원 확인, 출입 통제, 감독, 데이터베이스 검색등 다양한 분야에 활용되고 있다.Such face recognition technology has been studied based on two-dimensional images, and is used in various fields such as identification, access control, supervision, and database search.
또한 다양한 환경 변화(예를 들어 조명 변화, 포즈 변화 등)에 강인한 얼굴 인식 기술 개발을 위하여 많은 연구가 진행되고 있다.In addition, a lot of research is being conducted to develop a face recognition technology that is robust against various environmental changes (for example, changes in lighting and pose changes).
특히 얼굴 인식 기술 중에서 영상으로부터 특징점을 추출하는 특징점 추출 기술에 대한 다양한 연구가 시도되고 있었다.In particular, various researches on feature extraction techniques for extracting feature points from images among face recognition techniques have been attempted.
그런데 최근에는 2차원 영상을 기반 뿐만 아니라 3차원 영상을 기반으로 한 얼굴 인식 기술에 대한 관심이 증대되고 있지만, 3차원 영상을 이용한 얼굴 인식 기술에 대해서는 아직 연구가 미비한 상태이다.Recently, interest in face recognition technology based on not only two-dimensional images but also three-dimensional images is increasing. However, research on face recognition technology using three-dimensional images is still insufficient.
특히, 3차원 영상을 이용한 얼굴 인식 기술에서는 인식률 및 처리 속도가 문제되고 있다.
In particular, in face recognition technology using a 3D image, the recognition rate and the processing speed are problematic.
본 발명은, 상기와 같은 문제점을 해결하기 위한 것으로, 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선하기 위한 얼굴 인식 시스템 및 그 방법을 제공하는 것을 목적으로 한다.
The present invention is to solve the above problems, by using a feature extraction algorithm to extract a feature point from the 3D image and to improve the recognition rate and processing speed by controlling the pose of the 3D image using the extracted extraction point An object of the present invention is to provide a face recognition system and a method thereof.
상기한 바와 같은 목적을 달성하기 위한 얼굴 인식 시스템은, 센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득하며, 상기 제 2 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성하는 영상 획득부와; 상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 특징점부와; 상기 다수의 특징점을 기준으로 상기 3차원 메쉬 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 영상 분할부와; 상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 영상 매칭부를 포함하는 것을 특징으로 한다.A face recognition system for achieving the above object includes: an image acquisition unit for acquiring first image data and second image data through a sensor, and generating three-dimensional mesh data using the second image data; A feature point unit for extracting a plurality of feature points using the 3D mesh data; An image divider configured to divide the 3D mesh data based on the plurality of feature points and generate divided mesh data representing a specific area; And an image matching unit configured to generate the divided image data by matching the divided mesh data with the first image data.
여기서, 상기 특징점부는, 상기 3차원 메쉬 데이터를 이용하여 기준 특징점 및 제 1 내지 제 3 특징점을 추출하는 특징점 추출부와; 상기 제 1 내지 제 3 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 포즈 제어부를 포함할 수 있다.The feature point unit may include a feature point extracting unit extracting a reference feature point and first to third feature points using the 3D mesh data; It may include a pose control unit for controlling the pose of the three-dimensional mesh data compared to the comparison image received from the image DB by using the first to third feature points.
그리고, 상기 특징점 추출부는, 상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고, 상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며, 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출할 수 있다.The feature point extractor extracts a first feature point by tracking in the vertical direction (y-axis direction) with the reference feature point as a starting point, and extracts the first feature point in a first horizontal direction (x-axis positive direction) based on the first feature point. The second feature point may be extracted by tracking, and the third feature point may be extracted by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.
또한, 상기 기준 특징점은 상기 3차원 메쉬 데이터에서 최대의 높이 좌표를 포함하는 좌표점인 코 끝 좌표점일 수 있다.The reference feature point may be a nose end coordinate point, which is a coordinate point including a maximum height coordinate in the 3D mesh data.
한편, 상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 영상 매칭부를 더 포함하는 것이 바람직하다.The apparatus may further include an image matching unit configured to generate the divided image data by matching the divided mesh data with the first image data.
그리고, 영상 DB로부터 전달 받은 다수의 비교 영상과 상기 영상 매칭부로부터 전달 받은 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 얼굴 인식부를 더 포함할 수 있다.
The apparatus may further include a face recognizing unit that recognizes a face by analyzing and comparing the plurality of comparison images received from the image DB and the divided image data received from the image matching unit.
상기한 바와 같은 목적을 달성하기 위한 본 발명에 실시예에 따른 얼굴 인식 방법은, 센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득하고, 상기 제 2 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성하는 단계와; 상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 단계와; 상기 다수의 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 단계와; 상기 다수의 특징점을 기준으로 영상 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention for achieving the above object, a face recognition method obtains first image data and second image data through a sensor, and generates 3D mesh data using the second image data. Generating; Extracting a plurality of feature points using the 3D mesh data; Controlling a pose of the 3D mesh data by comparing the comparison image received from the image DB using the plurality of feature points; And dividing the image data based on the plurality of feature points to generate divided mesh data representing a specific region.
여기서, 상기 다수의 특징점을 추출하는 단계에서는, 상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고, 상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며, 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출할 수 있다.In the extracting of the plurality of feature points, a first feature point is extracted by tracking in the vertical direction (y-axis direction) with the reference feature point as a starting point, and a first horizontal direction (x axis) based on the first feature point. The second feature point can be extracted by tracking in the positive direction), and the third feature point can be extracted by tracking in the first horizontal direction (x-axis negative direction) based on the first feature point.
그리고, 상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 단계를 더 포함할 수 있다.The method may further include generating split image data by matching the split mesh data with the first image data.
또한, 상기 영상 DB로부터 전달 받은 다수의 비교 영상과 영상 매칭부로부터 전달 받은 상기 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 단계를 더 포함하는 것이 바람직하다.
The method may further include recognizing a face by analyzing and comparing the plurality of comparison images received from the image DB and the divided image data received from the image matching unit.
이상 설명한 바와 같이, 본 발명에 따른 얼굴 인식 시스템 및 그 방법에서는, 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선할 수 있다.As described above, in the face recognition system and method according to the present invention, the feature rate extraction algorithm extracts a feature point from the 3D image and uses the extracted extraction point to control the pose of the 3D image and the processing rate. You can improve speed.
그리고, 특정 영상을 이용하여 얼굴 인식을 수행함에 따라 표정 변화에 강인한 얼굴 인식 시스템을 제공할 수 있다.
In addition, as face recognition is performed using a specific image, a face recognition system robust to facial expression change may be provided.
도1은 본 발명의 실시예에 따른 얼굴 인식 시스템의 내부 블록도이다.
도2는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정을 설명하기 위한 흐름도이다.
도3a 내지 도3d는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정 중 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.
도4a 및 도4b는 도3a에서의 제 1 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.
도5a 및 도5b는 도3b에서의 제 2 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.
도6은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 1 분할 영상을 도시한 도면이다.
도7은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 2 분할 영상을 도시한 도면이다.
도8은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 3 분할 영상을 도시한 도면이다.1 is an internal block diagram of a face recognition system according to an embodiment of the present invention.
2 is a flowchart illustrating a face recognition process of the face recognition system according to an exemplary embodiment of the present invention.
3A to 3D are diagrams for explaining a feature point extraction process in a face recognition process of a face recognition system according to an exemplary embodiment of the present invention.
4A and 4B are views referred to for describing the first feature point extraction process in FIG. 3A.
5A and 5B are views referred to for describing the second feature point extraction process in FIG. 3B.
6 is a diagram illustrating a first segmented image used in a face recognition process according to an exemplary embodiment of the present invention.
FIG. 7 illustrates a second divided image used in a face recognition process according to an exemplary embodiment of the present invention. FIG.
8 is a diagram illustrating a third segmented image used in a face recognition process according to an embodiment of the present invention.
이하, 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
도1은 본 발명의 실시예에 따른 얼굴 인식 시스템의 내부 블록도이다.1 is an internal block diagram of a face recognition system according to an embodiment of the present invention.
도1에 도시한 바와 같이, 얼굴 인식 시스템(100)은, 영상 획득부(110), 특징점부(120), 영상 분할부(130), 영상 매칭부(140), 얼굴 인식부(150), 영상 DB(160), 제어부(170) 등을 포함한다.As shown in FIG. 1, the
영상 획득부(110)는 제 1 센서 및 제 2 센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득할 수 있다.The
이때, 제 1 센서 및 제 2 센서는 각각 영상 센서 및 깊이감 측정 센서일 수 있다.In this case, the first sensor and the second sensor may be an image sensor and a depth sensor, respectively.
그리고, 제 1 영상 데이터 및 제 2 영상 데이터는 각각 얼굴을 인식하고자 하는 객체에 대한 2차원 영상 데이터 및 객체의 3차원 영상 데이터를 얻기 위한 깊이감 영상 데이터일 수 있다.The first image data and the second image data may be two-dimensional image data for an object for which a face is to be recognized and depth image data for obtaining three-dimensional image data of the object.
즉, 영상 획득부(110)는 제 1 센서를 통해 얼굴을 인식하고자 하는 객체에 대한 2차원 영상 데이터를 얻고, 제 2 센서를 통해 객체의 3차원 영상 데이터를 얻기 위한 깊이감 영상 데이터를 얻을 수 있다.That is, the
그리고, 영상 획득부(110)는 제 2 영상 데이터인 깊이감 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성할 수 있다.The
여기서, 3차원 메쉬 데이터는 예를 들어 깊이감 영상 데이터에서 삼각 측량 방식에 의해 얻은 여러 좌표값을 포함하는 다수의 좌표점으로 이루어지는 3차원 영상 데이터일 수 있다.Here, the 3D mesh data may be, for example, 3D image data including a plurality of coordinate points including various coordinate values obtained by a triangulation method in the sense of depth image data.
이때, 좌표는 수평 좌표를 나타내는 x 좌표, 수직 좌표를 나타내는 y 좌표, 높이 좌표를 나타내는 z좌표일 수 있다.In this case, the coordinates may be x coordinates indicating horizontal coordinates, y coordinates indicating vertical coordinates, and z coordinates indicating height coordinates.
특징점부(120)는 특징점 추출부(미도시)와 포즈 제어부(미도시)를 포함하며, 영상 획득부(110)로부터 전달 받은 3차원 메쉬 데이터를 이용하여 기준 특징점 및 제 1 내지 제 3 특징점을 추출하고, 제 1 내지 제 3 특징점을 이용하여 3차원 메쉬 데이터의 포즈를 제어하는 역할을 한다.The
이때, 3차원 메쉬 데이터의 포즈를 제어하는 것은 예를 들어, 3차원 메쉬 데이터가 정면 방향의 영상 데이터가 되도록 위치(방향)를 제어하는 것일 수 있다.In this case, controlling the pose of the 3D mesh data may be, for example, controlling the position (direction) so that the 3D mesh data becomes the image data in the front direction.
여기서, 기준 특징점은 특징점 추출에 기준이 되는 특징점이고, 제 1 특징점은 기준 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이고, 제 2 특징점 및 제 3 특징점은 제 1 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이다.Here, the reference feature point is a feature point that is a reference point for feature point extraction, the first feature point is a feature point extracted by the feature point extraction algorithm using the reference feature point, and the second feature point and the third feature point are feature point extraction algorithms using the first feature point. It is a feature point extracted by.
예를 들어, 기준 특징점은 3차원 메쉬 데이터에서 가장 두드러지는 좌표점인 코 끝 좌표점에 해당하는 특징점일 수 있다.For example, the reference feature point may be a feature point corresponding to a nose end coordinate point, which is the most prominent coordinate point in the 3D mesh data.
즉, 특징점 추출 알고리즘은 3차원 메쉬 데이터에서 최대의 높이 좌표를 포함하는 좌표점인 코 끝 좌표점을 기준 특징점으로 하여 다른 특징점을 추출할 수 있다.That is, the feature point extraction algorithm may extract another feature point from the nose point coordinate point, which is a coordinate point including the maximum height coordinate, in the 3D mesh data.
특징점 추출 알고리즘은 예를 들어, 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출할 수 있다.The feature point extraction algorithm may extract the first feature point, for example, by tracking in a vertical direction (y-axis direction) using the reference feature point as a starting point.
그리고, 특징점 추출부는 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출할 수 있다.The feature point extractor may extract the second feature point by tracking in the first horizontal direction (the x-axis positive direction) based on the first feature point.
마찬가지로, 특징점 추출부는 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출할 수 있다.Similarly, the feature point extractor may extract the third feature point by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.
포즈 제어부는 제 1 내지 제 3 특징점을 이용하여 영상 DB(160)로부터 전달 받은 비교 영상과 비교하여 3차원 메쉬 데이터의 포즈를 제어할 수 있다.The pose controller may control the pose of the 3D mesh data by comparing the comparison image received from the
예를 들어, 비교 영상의 기준 특징점을 포함하는 삼각형의 무게 중심과, 3차원 메쉬 데이터의 기준 특징점을 포함하는 삼각형의 무게 중심을 일치시킨 후 삼각형이 매칭되도록 회전시킬 수 있다.For example, the center of gravity of the triangle including the reference feature point of the comparison image and the center of gravity of the triangle including the reference feature point of the 3D mesh data may be matched and then rotated to match the triangle.
즉, 포즈 제어부는 얼굴 인식에 앞서 3차원 메쉬 데이터의 포즈를 제어하여 얼굴 인식 시스템의 얼굴 인식률을 높이는 역할을 한다.That is, the pose controller controls the pose of the 3D mesh data before face recognition to increase the face recognition rate of the face recognition system.
영상 분할부(130)는 특징점 추출부에서 추출한 제 1 내지 제 3 특징점을 기준으로 3차원 메쉬 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성할 수 있다.The
이때, 분할 메쉬 데이터는 예를 들어, 얼굴의 코 영역을 포함하는 3차원 메쉬 데이터일 수 있다.In this case, the divided mesh data may be, for example, 3D mesh data including a nose area of a face.
영상 매칭부(140)는 영상 분할부(130)로부터 전달 받은 분할 메쉬 데이터와 영상 획득부(110)로부터 전달 받은 3차원 메쉬 데이터와 제 1 영상 데이터(2차원 영상 데이터)를 매칭시켜 특정 영역을 나타내는 분할 영상 데이터(3차원 영상 데이터)를 생성할 수 있다.The
본 발명에 따른 얼굴 인식 시스템에서는 분할 영상 데이터를 이용하여 얼굴 인식을 하게 된다.In the face recognition system according to the present invention, face recognition is performed using split image data.
얼굴 인식부(150)는 영상 DB(160)로부터 전달 받은 다수의 비교 영상과 영상 매칭부(140)로부터 전달 받은 분할 영상 데이터를 분석, 비교하여 얼굴 인식을 할 수 있다.The
이때, 사람의 얼굴에서 코 영역을 포함하는 영역 좀 더 자세히 말하면, 코와 눈을 포함하는 영역을 포함하는 분할 영상 데이터를 얼굴 인식에 사용할 수 있다.In this case, in more detail, an area including a nose area of a human face may be divided into face image data including an area including a nose and an eye.
이와 같이 분할 영상 데이터를 이용하여 얼굴 인식을 수행하는 과정은 예를 들어 다수의 픽셀(좌표점)로 구성되는 분할 영상 데이터 중에서 벡터값을 이용하여 의미있는 픽셀들을 뽑아낼 수 있다.As described above, in the process of performing face recognition using the divided image data, for example, meaningful pixels may be extracted from the divided image data including a plurality of pixels (coordinate points) by using a vector value.
그리고, 그 의미있는 픽셀을 이용하여 다수의 비교 영상 중에서 분할 영상 데이터와 매칭되는 영상이 있는지 비교할 수 있다.The meaningful pixels may be used to compare whether there is an image matching the divided image data among the plurality of comparison images.
본 발명에 따른 얼굴 인식 시스템은 분할 영상 데이터를 이용하여 얼굴 인식을 수행함에 따라 인식률을 높일 수 있다.The face recognition system according to the present invention can increase the recognition rate by performing face recognition using the split image data.
그리고, 본 발명에 따른 얼굴 인식 시스템은 얼굴 인식에 사용되는 영상 데이터의 크기도 작아진 분할 영상 데이터를 사용하기 때문에 처리 속도도 향상될 수 있다.In addition, since the face recognition system according to the present invention uses divided image data having a smaller size of image data used for face recognition, the processing speed may be improved.
제어부(170)는 얼굴 인식 시스템의 전반적인 동작을 제어할 수 있다.
The
도2는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정을 설명하기 위한 흐름도이고, 도3a 내지 도3d는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정 중 특징점 추출 과정을 설명하기 위해 참조되는 도면이다. 도1을 더욱 참조하여 설명한다.2 is a flowchart illustrating a face recognition process of the face recognition system according to an exemplary embodiment of the present invention, and FIGS. 3A to 3D illustrate a feature point extraction process of the face recognition process of the face recognition system according to an exemplary embodiment of the present invention. It is a figure referred to for. This will be described with reference to FIG. 1 further.
도2에 도시한 바와 같이, 얼굴 인식 시스템(100)의 영상 획득부(110)는 센서(제 1 센서 및 제 2 센서)를 통해서 영상 데이터(제 1 영상 데이터 및 제 2 영상 데이터)를 획득한다(S100).As shown in FIG. 2, the
즉, 영상 획득부(110)는 제 1 센서를 통해 얼굴을 인식하고자 하는 객체에 대한 2차원 영상 데이터를 얻고, 제 2 센서를 통해 객체의 3차원 영상 데이터를 얻기 위한 깊이감 영상 데이터를 얻을 수 있다.That is, the
여기서, 영상 획득부(110)는 제 2 영상 데이터인 깊이감 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성할 수 있다.Here, the
그리고 나서, 특징점부(120)는 영상 획득부(110)로부터 전달 받은 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출한다(S110)Then, the
이때, 다수의 특징점은 기준 특징점 및 제 1 내지 제 3 특징점일 수 있다.In this case, the plurality of feature points may be reference feature points and first to third feature points.
여기서, 기준 특징점은 특징점 추출에 기준이 되는 특징점이고, 제 1 특징점은 기준 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이고, 제 2 특징점 및 제 3 특징점은 제 1 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이다.Here, the reference feature point is a feature point that is a reference point for feature point extraction, the first feature point is a feature point extracted by the feature point extraction algorithm using the reference feature point, and the second feature point and the third feature point are feature point extraction algorithms using the first feature point. It is a feature point extracted by.
예를 들어, 기준 특징점은 3차원 메쉬 데이터에서 가장 두드러지는 좌표점인 코 끝 좌표점에 해당하는 특징점일 수 있다.For example, the reference feature point may be a feature point corresponding to a nose end coordinate point, which is the most prominent coordinate point in the 3D mesh data.
특징점 추출 과정을 도3a 내지 도3d를 참조하여 설명하기로 한다.A feature point extraction process will be described with reference to FIGS. 3A to 3D.
먼저, 도3a에 도시한 바와 같이, 특징점 추출부는 제 1 특징점을 추출하기 위하여 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹할 수 있다.First, as illustrated in FIG. 3A, the feature point extractor may track in a vertical direction (y-axis direction) using the reference feature point as a starting point to extract the first feature point.
이때, 기준 특징점은 3차원 메쉬 데이터에서 가장 두드러지는 좌표점인 코 끝 좌표점에 해당하는 특징점일 수 있다.In this case, the reference feature point may be a feature point corresponding to a nose end coordinate point, which is the most prominent coordinate point in the 3D mesh data.
그리고, 도3b에 도시한 바와 같이, 특징점 추출부는 제 2 특징점을 추출하기 위하여 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹할 수 있다.As shown in FIG. 3B, the feature point extractor may track in the first horizontal direction (the x-axis positive direction) based on the first feature point to extract the second feature point.
다음으로, 도3c에 도시한 바와 같이, 특징점 추출부는 제 3 특징점을 추출하기 위하여 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹할 수 있다.Next, as shown in FIG. 3C, the feature point extractor may track in the first horizontal direction (the x-axis negative direction) based on the first feature point to extract the third feature point.
그 결과 도3d에 도시한 바와 같이, 3차원 메쉬 데이터에서 제 1 내지 제 3 특징점을 추출할 수 있다.As a result, as illustrated in FIG. 3D, the first to third feature points may be extracted from the 3D mesh data.
이와 같이 제 1 내지 제 3 특징점을 추출하고 나서, 포즈 제어부는 제 1 내지 제 3 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 영상 데이터(3차원 메쉬 데이터)의 포즈를 제어한다(S120)After extracting the first to third feature points as described above, the pose controller controls the pose of the image data (3D mesh data) by comparing the comparison images received from the image DB using the first to third feature points (S120). )
예를 들어, 비교 영상의 기준 특징점을 포함하는 삼각형의 무게 중심과, 3차원 메쉬 데이터의 기준 특징점을 포함하는 삼각형의 무게 중심을 일치시킨 후 삼각형이 매칭되도록 회전시킬 수 있다.For example, the center of gravity of the triangle including the reference feature point of the comparison image and the center of gravity of the triangle including the reference feature point of the 3D mesh data may be matched and then rotated to match the triangle.
다음으로, 제 1 내지 제 3 특징점을 기준으로 영상 데이터를 분할하여(S130), 특정 영역을 나타내는 분할 메쉬 데이터를 생성할 수 있다.Next, image data may be divided based on the first to third feature points (S130) to generate divided mesh data representing a specific area.
이때, 분할 메쉬 데이터는 예를 들어, 얼굴의 코 영역을 포함하는 3차원 메쉬 데이터일 수 있다.In this case, the divided mesh data may be, for example, 3D mesh data including a nose area of a face.
그리고, 영상 매칭부(140)는 제 2 영상 데이터(2차원 영상 데이터)와 영상 분할부(130)로부터 전달 받은 영상 데이터(3차원 메쉬 데이터)를 매칭한다(S140)The
매칭 결과 특정 영역을 나타내는 분할 영상 데이터(3차원 영상 데이터)가 생성될 수 있다.As a result of the matching, split image data (3D image data) representing a specific region may be generated.
또한, 얼굴 인식부(150)는 영상 DB(160)로부터 전달 받은 다수의 비교 영상과 영상 매칭부(140)로부터 전달 받은 영상 데이터(분할 영상 데이터)를 분석, 비교한다(S150, S160)In addition, the
이때, 사람의 얼굴에서 코 영역을 포함하는 영역 좀 더 자세히 말하면, 코와 눈을 포함하는 영역을 포함하는 분할 영상 데이터를 얼굴 인식에 사용할 수 있다.In this case, in more detail, an area including a nose area of a human face may be divided into face image data including an area including a nose and an eye.
이와 같이 분할 영상 데이터를 이용하여 얼굴 인식을 수행하는 과정은 예를 들어 다수의 픽셀(좌표점)로 구성되는 분할 영상 데이터 중에서 벡터값을 이용하여 의미있는 픽셀들을 뽑아낼 수 있다.As described above, in the process of performing face recognition using the divided image data, for example, meaningful pixels may be extracted from the divided image data including a plurality of pixels (coordinate points) by using a vector value.
그리고, 그 의미있는 픽셀을 이용하여 다수의 비교 영상 중에서 분할 영상 데이터와 매칭되는 영상이 있는지 비교할 수 있다.The meaningful pixels may be used to compare whether there is an image matching the divided image data among the plurality of comparison images.
본 발명에 따른 얼굴 인식 시스템은 분할 영상 데이터를 이용하여 얼굴 인식을 수행함에 따라 인식률을 높일 수 있다.The face recognition system according to the present invention can increase the recognition rate by performing face recognition using the split image data.
그리고, 본 발명에 따른 얼굴 인식 시스템은 얼굴 인식에 사용되는 영상 데이터의 크기도 작아진 분할 영상 데이터를 사용하기 때문에 처리 속도도 향상될 수 있다.
In addition, since the face recognition system according to the present invention uses divided image data having a smaller size of image data used for face recognition, the processing speed may be improved.
도4a 및 도4b는 도3a에서의 제 1 특징점 추출 과정을 설명하기 위해 참조되는 도면이고, 도5a 및 도5b는 도3b에서의 제 2 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.4A and 4B are views referred to for explaining the first feature point extraction process in FIG. 3A, and FIGS. 5A and 5B are views for explaining the second feature point extraction process in FIG. 3B.
도4a및 도4b에 도시한 바와 같이, 특징점 추출부는 기준 특징점(A)을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 빗변(l1)을 포함하는 제 1 삼각형 및 제 2 빗변(l2)을 포함하는 제 2 삼각형을 설정하고, 제 1 삼각형 및 제 2 삼각형의 접점(B)을 제 1 특징점으로 추출할 수 있다.4A and 4B, the feature point extracting unit tracks the first triangle and the second hypotenuse including the first hypotenuse l1 by tracking in the vertical direction (y-axis direction) with the reference feature point A as a starting point. A second triangle including l2) may be set, and the contact point B of the first triangle and the second triangle may be extracted as the first feature point.
이때, 제 1삼각형은 제 1 빗변(l1) 및 제 1 높이(h1)를 갖고, 제 2 삼각형은 제 2 빗변(L2) 및 제 2 높이(h2)를 갖게 된다.In this case, the first triangle has a first hypotenuse l1 and a first height h1, and the second triangle has a second hypotenuse L2 and a second height h2.
이러한 제 1 빗변(l1), 제 1 높이(h1), 제 2 빗변(l2), 제 2 높이(h2)의 값들은 각 꼭지점들의 좌표값에 의해 결정될 수 있다.The values of the first hypotenuse l1, the first height h1, the second hypotenuse l2, and the second height h2 may be determined by coordinate values of the respective vertices.
즉, 특징점 추출부는 제 1 삼각형 및 제 2 삼각형을 설정하고, 제 1 각도(θ1) 및 제 2 각도(θ2)가 특정 범위의 값이 되도록 하는 점(B)을 제 1 특징점(B)으로 추출할 수 있다.That is, the feature point extractor sets the first triangle and the second triangle, and extracts the point B as the first feature point B such that the first angle θ1 and the second angle θ2 are within a specific range. can do.
이때, 사람마다 제 1 각도(θ1) 및 제 2 각도(θ2)가 상이할 수 있기 때문에, 미리 다수의 사람을 통한 실험 데이터로 설정된 값인 특정 범위의 값을 특징점 추출에 이용하게 된다.
In this case, since the first angle θ1 and the second angle θ2 may be different for each person, a specific range of values, which are values previously set as experimental data through a plurality of people, is used for feature point extraction.
도5a 및 도5b에 도시한 바와 같이, 특징점 추출부는 제 1 특징점(B)을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 3 빗변(l3)을 포함하는 제 3 삼각형 및 제 4 빗변(l4)을 포함하는 제 4 삼각형을 설정하고, 제 3 삼각형 및 제 4 삼각형의 접점(D)을 제 2 특징점으로 추출할 수 있다.As shown in FIGS. 5A and 5B, the feature point extracting unit includes a third triangle including a third hypotenuse l3 by tracking in a first horizontal direction (x-axis positive direction) with respect to the first feature point B; A fourth triangle including the fourth hypotenuse l4 may be set, and the contacts D of the third and fourth triangles may be extracted as the second feature point.
이때, 제 3삼각형은 제 3 빗변(l3) 및 제 3 높이(h3)를 갖고, 제 4 삼각형은 제 4 빗변(l4) 및 제 4 높이(h4)를 갖게 된다.In this case, the third triangle has a third hypotenuse l3 and a third height h3, and the fourth triangle has a fourth hypotenuse l4 and a fourth height h4.
이러한 제 3 빗변(l3), 제 3 높이(h3), 제 4 빗변(l4), 제 4 높이(h4)의 값들은 각 꼭지점들의 좌표값에 의해 결정될 수 있다.The values of the third hypotenuse l3, the third height h3, the fourth hypotenuse l4, and the fourth height h4 may be determined by coordinate values of the respective vertices.
즉, 특징점 추출부는 제 3 삼각형 및 제 4 삼각형을 설정하고, 제 3 각도(θ3) 및 제 4 각도(θ4)가 특정 범위의 값이 되도록 하는 점(D)을 제 2 특징점(D)으로 추출할 수 있다.That is, the feature point extractor sets the third and fourth triangles, and extracts the point D as the second feature point D such that the third angle θ3 and the fourth angle θ4 are within a specific range. can do.
마찬가지로, 사람마다 제 3 각도(θ3) 및 제 4 각도(θ4)가 상이할 수 있기 때문에, 미리 다수의 사람을 통한 실험 데이터로 설정된 값인 특정 범위의 값을 특징점 추출에 이용하게 된다.
Similarly, since the third angle θ3 and the fourth angle θ4 may be different for each person, a specific range of values, which are values previously set as experimental data through a plurality of people, is used for feature point extraction.
그리고, 도시하지는 않았지만, 특징점 추출부는 제 1 특징점(B)을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 5 빗변을 포함하는 제 5 삼각형 및 제 6 빗변을 포함하는 제 6 삼각형을 설정하고, 제 5 삼각형 및 제 6 삼각형의 접점을 제 3 특징점으로 추출할 수 있다.Although not shown, the feature point extracting unit tracks in a first horizontal direction (x-axis negative direction) based on the first feature point B, and includes a fifth triangle including a fifth hypotenuse and a sixth hypotenuse. A triangle may be set and the contacts of the fifth and sixth triangles may be extracted as the third feature point.
이때, 제 5삼각형은 제 5 빗변 및 제 5 높이를 갖고, 제 6 삼각형은 제 6 빗변 및 제 6 높이를 갖게 된다.At this time, the fifth triangle has a fifth hypotenuse and a fifth height, and the sixth triangle has a sixth hypotenuse and a sixth height.
이러한 제 5 빗변, 제 5 높이, 제 6 빗변, 제 6 높이의 값들은 각 꼭지점들의 좌표값에 의해 결정될 수 있다.The fifth hypotenuse, fifth height, sixth hypotenuse, and sixth height may be determined by the coordinates of the respective vertices.
즉, 특징점 추출부는 제 5 삼각형 및 제 6 삼각형을 설정하고, 제 5 각도 및 제 6 각도가 특정 범위의 값이 되도록 하는 점을 제 3 특징점으로 추출할 수 있다.
That is, the feature point extracting unit sets the fifth triangle and the sixth triangle, and extracts a point for allowing the fifth and sixth angles to be within a specific range as the third feature point.
도6은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 1 분할 영상을 도시한 도면이고, 도7은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 2 분할 영상을 도시한 도면이며, 도8은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 3 분할 영상을 도시한 도면이다. 도4a를 더욱 참조하여 설명한다.6 is a diagram illustrating a first segmented image used in a face recognition process according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating a second segmented image used in a face recognition process according to an embodiment of the present invention. 8 is a diagram illustrating a third segmented image used in a face recognition process according to an embodiment of the present invention. This will be described with reference to FIG. 4A further.
도6에 도시한 바와 같이, 영상 분할부(도1의 130)는 3차원 메쉬 데이터에서 기준 특징점(A)을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 생성할 수 있다.As illustrated in FIG. 6, the
도7에 도시한 바와 같이, 영상 분할부(130)는3차원 메쉬 데이터에서 C점을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 생성할 수 있다.As illustrated in FIG. 7, the
도8에 도시한 바와 같이, 영상 분할부(130)는 3차원 메쉬 데이터에서 제 1 특징점(B)을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 생성할 수 있다.As shown in FIG. 8, the
이때, 3차원 메쉬 데이터에서 C점을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 이용하여 생성된 분할 영상 데이터를 사용하여 얼굴 인식을 수행하는 경우가 가장 인식률이 높고 처리 속도가 빨랐다.In this case, face recognition using segmented image data generated by using segmented mesh data by dividing a rectangular region centering on point C in the 3D mesh data has the highest recognition rate and the fastest processing speed.
이와 같은 특징점 추출 알고리즘을 적용하기 전의 인식률과 CPU Time은 각각 79.6%와 2531.2(s)였다.The recognition rate and CPU time before applying the feature extraction algorithm were 79.6% and 2531.2 (s), respectively.
반면에 본 발명에 따른 특징점 추출 알고리즘을 적용하고 분할 영상 데이터를 이용하여 얼굴 인식을 수행한 결과 인식률과 CPU Time은 각각 84.42%와 1594.4(s)가 되었다.On the other hand, applying the feature extraction algorithm according to the present invention and performing face recognition using segmented image data, the recognition rate and CPU time were 84.42% and 1594.4 (s), respectively.
즉, 본 발명에 따른 얼굴 인식 시스템에서는 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선할 수 있다.That is, in the face recognition system according to the present invention, the recognition rate and the processing speed may be improved by extracting the feature point from the 3D image using the feature point extraction algorithm and controlling the pose of the 3D image using the extracted extraction point.
그리고, 특정 영상을 이용하여 얼굴 인식을 수행함에 따라 표정 변화에 강인한 얼굴 인식 시스템을 제공할 수 있다.
In addition, as face recognition is performed using a specific image, a face recognition system robust to facial expression change may be provided.
이상과 같은 본 발명의 실시예는 예시적인 것에 불과하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자라면 본 발명의 요지를 벗어나지 않는 범위 내에서 자유로운 변형이 가능하다. 따라서, 본 발명의 보호범위는 첨부된 특허청구범위 및 이와 균등한 범위 내에서의 본 발명의 변형을 포함한다.
The embodiments of the present invention as described above are merely illustrative, and those skilled in the art can make modifications without departing from the gist of the present invention. Accordingly, the protection scope of the present invention includes modifications of the present invention within the scope of the appended claims and equivalents thereof.
100: 얼굴 인식 시스템 110: 영상 획득부
120: 특징점부 130: 영상 분할부
140: 영상 매칭부 150: 얼굴 인식부
160: 영상 DB 170: 제어부100: face recognition system 110: image acquisition unit
120: feature point 130: image segmentation
140: image matching unit 150: face recognition unit
160: image DB 170: control unit
Claims (10)
상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 특징점부와;
상기 다수의 특징점을 기준으로 상기 3차원 메쉬 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 영상 분할부와;
를 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
An image acquisition unit obtaining first image data and second image data through a sensor, and generating 3D mesh data using the second image data;
A feature point unit for extracting a plurality of feature points using the 3D mesh data;
An image divider configured to divide the 3D mesh data based on the plurality of feature points and generate divided mesh data representing a specific area;
Face recognition system comprising a.
상기 특징점부는,
상기 3차원 메쉬 데이터를 이용하여 기준 특징점 및 제 1 내지 제 3 특징점을 추출하는 특징점 추출부와;
상기 제 1 내지 제 3 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 포즈 제어부
를 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 1,
The feature point,
A feature point extracting unit extracting a reference feature point and first to third feature points using the 3D mesh data;
Pose control unit for controlling the pose of the three-dimensional mesh data compared to the comparison image received from the image DB by using the first to third feature points
Face recognition system comprising a.
상기 특징점 추출부는
상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고,
상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며,
제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 2,
The feature point extracting unit
The first feature point is extracted by tracking in the vertical direction (y-axis direction) using the reference feature point as a starting point,
Extracting a second feature point by tracking in a first horizontal direction (x-axis positive direction) based on the first feature point,
And a third feature point is extracted by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.
상기 기준 특징점은 상기 3차원 메쉬 데이터에서 최대의 높이 좌표를 포함하는 좌표점인 코 끝 좌표점인 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 3,
The reference feature point is a face recognition system, characterized in that the nose end coordinate point that is the coordinate point including the maximum height coordinate in the three-dimensional mesh data.
상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 영상 매칭부를 더 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 1,
And a video matching unit configured to generate the split image data by matching the split mesh data with the first image data.
상기 영상 DB로부터 전달 받은 다수의 비교 영상과 상기 영상 매칭부로부터 전달 받은 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 얼굴 인식부를 더 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 5,
And a face recognizing unit which analyzes and compares the plurality of comparison images received from the image DB and the divided image data received from the image matching unit to recognize a face.
상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 단계와;
상기 다수의 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 단계와;
상기 다수의 특징점을 기준으로 영상 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 단계
를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
Acquiring first image data and second image data through a sensor, and generating 3D mesh data using the second image data;
Extracting a plurality of feature points using the 3D mesh data;
Controlling a pose of the 3D mesh data by comparing the comparison image received from the image DB using the plurality of feature points;
Generating split mesh data representing a specific area by dividing image data based on the plurality of feature points.
And a face recognition step of recognizing a face of the face.
상기 다수의 특징점을 추출하는 단계에서는,
상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고,
상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며,
제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 7, wherein
In the extracting of the plurality of feature points,
The first feature point is extracted by tracking in the vertical direction (y-axis direction) using the reference feature point as a starting point,
Extracting a second feature point by tracking in a first horizontal direction (x-axis positive direction) based on the first feature point,
And a third feature point is extracted by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.
상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 7, wherein
And matching the split mesh data with the first image data to generate split image data.
상기 영상 DB로부터 전달 받은 다수의 비교 영상과 영상 매칭부로부터 전달 받은 상기 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 인식 방법.10. The method of claim 9,
And recognizing a face by analyzing and comparing the plurality of comparison images received from the image DB and the divided image data received from the image matching unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110139145A KR101920402B1 (en) | 2011-12-21 | 2011-12-21 | System and method for face recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110139145A KR101920402B1 (en) | 2011-12-21 | 2011-12-21 | System and method for face recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130071750A true KR20130071750A (en) | 2013-07-01 |
KR101920402B1 KR101920402B1 (en) | 2018-11-21 |
Family
ID=48986660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110139145A KR101920402B1 (en) | 2011-12-21 | 2011-12-21 | System and method for face recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101920402B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185386A (en) * | 2002-12-04 | 2004-07-02 | Matsushita Electric Ind Co Ltd | Image collating unit |
KR20050042369A (en) * | 2003-11-01 | 2005-05-09 | 학교법인연세대학교 | Method of error compensated singular value decomposition based head pose estimation for 3d face recognition |
JP2009157767A (en) * | 2007-12-27 | 2009-07-16 | Nippon Telegr & Teleph Corp <Ntt> | Face image recognition apparatus, face image recognition method, face image recognition program, and recording medium recording this program |
KR20110024178A (en) * | 2009-09-01 | 2011-03-09 | (주)실리콘화일 | Device and method for face recognition using 3 dimensional shape information |
KR20110077059A (en) * | 2009-12-30 | 2011-07-07 | 안동대학교 산학협력단 | System for recognizing a face using multi camera |
JP2012003216A (en) * | 2010-06-18 | 2012-01-05 | Advas Co Ltd | Device and method for capturing microscopic image |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5018029B2 (en) * | 2006-11-10 | 2012-09-05 | コニカミノルタホールディングス株式会社 | Authentication system and authentication method |
-
2011
- 2011-12-21 KR KR1020110139145A patent/KR101920402B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185386A (en) * | 2002-12-04 | 2004-07-02 | Matsushita Electric Ind Co Ltd | Image collating unit |
KR20050042369A (en) * | 2003-11-01 | 2005-05-09 | 학교법인연세대학교 | Method of error compensated singular value decomposition based head pose estimation for 3d face recognition |
JP2009157767A (en) * | 2007-12-27 | 2009-07-16 | Nippon Telegr & Teleph Corp <Ntt> | Face image recognition apparatus, face image recognition method, face image recognition program, and recording medium recording this program |
KR20110024178A (en) * | 2009-09-01 | 2011-03-09 | (주)실리콘화일 | Device and method for face recognition using 3 dimensional shape information |
KR20110077059A (en) * | 2009-12-30 | 2011-07-07 | 안동대학교 산학협력단 | System for recognizing a face using multi camera |
JP2012003216A (en) * | 2010-06-18 | 2012-01-05 | Advas Co Ltd | Device and method for capturing microscopic image |
Also Published As
Publication number | Publication date |
---|---|
KR101920402B1 (en) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kusakunniran et al. | Recognizing gaits across views through correlated motion co-clustering | |
Chen et al. | Contour matching for 3D ear recognition | |
US9208375B2 (en) | Face recognition mechanism | |
US11790494B2 (en) | Facial verification method and apparatus based on three-dimensional (3D) image | |
Lee et al. | Game interface using hand gesture recognition | |
CN104573634A (en) | Three-dimensional face recognition method | |
Chen et al. | Human ear detection from 3D side face range images | |
CN103020607B (en) | Face recognition method and face recognition device | |
CN110796101A (en) | Face recognition method and system of embedded platform | |
KR20090093223A (en) | Removal Eye Glasses using Variable Mask and Inpainting for Improved Performance of Face Recognition System | |
Ratyal et al. | 3D face recognition based on pose and expression invariant alignment | |
Jia et al. | View-invariant gait authentication based on silhouette contours analysis and view estimation | |
Gervei et al. | 3D face recognition using modified PCA methods | |
KR101001184B1 (en) | Iterative 3D head pose estimation method using a face normal vector | |
Riaz et al. | A model based approach for expressions invariant face recognition | |
KR101920402B1 (en) | System and method for face recognition | |
CN113361297B (en) | Micro-expression detection method based on light stream and windmill mode feature fusion | |
KR20160042646A (en) | Method of Recognizing Faces | |
Ganapathi et al. | 3d ear based human recognition using gauss map clustering | |
KR102047725B1 (en) | System and method for face recognition | |
Cadoni et al. | Augmenting SIFT with 3D Joint Differential Invariants for multimodal, hybrid face recognition | |
Ravansalar et al. | Accurate Extraction of Corresponding Surface Normal Vectors by Point Cloud Partitioning for 3D Face Recognition under Expression Variation | |
Quy et al. | 3D human face recognition using sift descriptors of face’s feature regions | |
Soltanpour et al. | Multimodal 2D-3D face recognition using structural context and pyramidal shape index | |
Xia et al. | Rapid human-eye detection based on an integrated method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |