KR20130071750A - System and method for face recognition - Google Patents

System and method for face recognition Download PDF

Info

Publication number
KR20130071750A
KR20130071750A KR1020110139145A KR20110139145A KR20130071750A KR 20130071750 A KR20130071750 A KR 20130071750A KR 1020110139145 A KR1020110139145 A KR 1020110139145A KR 20110139145 A KR20110139145 A KR 20110139145A KR 20130071750 A KR20130071750 A KR 20130071750A
Authority
KR
South Korea
Prior art keywords
feature point
image
image data
data
mesh data
Prior art date
Application number
KR1020110139145A
Other languages
Korean (ko)
Other versions
KR101920402B1 (en
Inventor
황준연
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020110139145A priority Critical patent/KR101920402B1/en
Publication of KR20130071750A publication Critical patent/KR20130071750A/en
Application granted granted Critical
Publication of KR101920402B1 publication Critical patent/KR101920402B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

PURPOSE: A face recognition system and a method thereof are provided to control pose of a three-dimensional image, by extracting a feature point from the three-dimensional image and then using the extracted point. CONSTITUTION: An image acquisition unit (110) acquires first and second image data through a sensor. The image acquisition unit generates three-dimensional mesh data by using the second image data. A feature point unit (120) extracts a number of feature points by using the three-dimensional mesh data. An image segmenting unit (130) generates segmented mesh data showing a specific area by segmenting the three-dimensional mesh data. [Reference numerals] (110) Image acquisition unit; (120) Feature point unit; (130) Image segmenting unit; (140) Image matching unit; (150) Face recognizing unit; (160) Image DB; (170) Control unit

Description

얼굴 인식 시스템 및 그 방법{SYSTEM AND METHOD FOR FACE RECOGNITION}[0001] SYSTEM AND METHOD FOR FACE RECOGNITION [0002]

본 발명은 얼굴 인식 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선하기 위한 얼굴 인식 시스템 및 그 방법에 관한 것이다.
The present invention relates to a face recognition system and a method thereof, and more particularly, to extract a feature point from a 3D image using a feature point extraction algorithm and to control a pose of the 3D image using the extracted extraction point. A facial recognition system for improving speed and a method thereof.

생체 인식 기술이란 얼굴, 지문, 홍채, DNA 등 인간의 특징을 이용하여 개인의 신분을 인증하는 기술을 말한다.Biometrics technology refers to a technique of authenticating an individual's identity by using human characteristics such as face, fingerprint, iris, and DNA.

최근에는 영상을 이용한 개인 인증의 자동화 기술이 연구되고 있는데, 그 중 하나가 영상을 영상 신호 처리하여 얻은 정보 등에 의해 얼굴을 인식하는 얼굴 인식 기술이다.Recently, an automatic technology for personal authentication using images has been studied, one of which is a face recognition technique for recognizing a face by information obtained by processing an image signal.

이러한 얼굴 인식 기술은 2차원 영상을 기반으로 연구되어 왔고, 신원 확인, 출입 통제, 감독, 데이터베이스 검색등 다양한 분야에 활용되고 있다.Such face recognition technology has been studied based on two-dimensional images, and is used in various fields such as identification, access control, supervision, and database search.

또한 다양한 환경 변화(예를 들어 조명 변화, 포즈 변화 등)에 강인한 얼굴 인식 기술 개발을 위하여 많은 연구가 진행되고 있다.In addition, a lot of research is being conducted to develop a face recognition technology that is robust against various environmental changes (for example, changes in lighting and pose changes).

특히 얼굴 인식 기술 중에서 영상으로부터 특징점을 추출하는 특징점 추출 기술에 대한 다양한 연구가 시도되고 있었다.In particular, various researches on feature extraction techniques for extracting feature points from images among face recognition techniques have been attempted.

그런데 최근에는 2차원 영상을 기반 뿐만 아니라 3차원 영상을 기반으로 한 얼굴 인식 기술에 대한 관심이 증대되고 있지만, 3차원 영상을 이용한 얼굴 인식 기술에 대해서는 아직 연구가 미비한 상태이다.Recently, interest in face recognition technology based on not only two-dimensional images but also three-dimensional images is increasing. However, research on face recognition technology using three-dimensional images is still insufficient.

특히, 3차원 영상을 이용한 얼굴 인식 기술에서는 인식률 및 처리 속도가 문제되고 있다.
In particular, in face recognition technology using a 3D image, the recognition rate and the processing speed are problematic.

본 발명은, 상기와 같은 문제점을 해결하기 위한 것으로, 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선하기 위한 얼굴 인식 시스템 및 그 방법을 제공하는 것을 목적으로 한다.
The present invention is to solve the above problems, by using a feature extraction algorithm to extract a feature point from the 3D image and to improve the recognition rate and processing speed by controlling the pose of the 3D image using the extracted extraction point An object of the present invention is to provide a face recognition system and a method thereof.

상기한 바와 같은 목적을 달성하기 위한 얼굴 인식 시스템은, 센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득하며, 상기 제 2 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성하는 영상 획득부와; 상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 특징점부와; 상기 다수의 특징점을 기준으로 상기 3차원 메쉬 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 영상 분할부와; 상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 영상 매칭부를 포함하는 것을 특징으로 한다.A face recognition system for achieving the above object includes: an image acquisition unit for acquiring first image data and second image data through a sensor, and generating three-dimensional mesh data using the second image data; A feature point unit for extracting a plurality of feature points using the 3D mesh data; An image divider configured to divide the 3D mesh data based on the plurality of feature points and generate divided mesh data representing a specific area; And an image matching unit configured to generate the divided image data by matching the divided mesh data with the first image data.

여기서, 상기 특징점부는, 상기 3차원 메쉬 데이터를 이용하여 기준 특징점 및 제 1 내지 제 3 특징점을 추출하는 특징점 추출부와; 상기 제 1 내지 제 3 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 포즈 제어부를 포함할 수 있다.The feature point unit may include a feature point extracting unit extracting a reference feature point and first to third feature points using the 3D mesh data; It may include a pose control unit for controlling the pose of the three-dimensional mesh data compared to the comparison image received from the image DB by using the first to third feature points.

그리고, 상기 특징점 추출부는, 상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고, 상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며, 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출할 수 있다.The feature point extractor extracts a first feature point by tracking in the vertical direction (y-axis direction) with the reference feature point as a starting point, and extracts the first feature point in a first horizontal direction (x-axis positive direction) based on the first feature point. The second feature point may be extracted by tracking, and the third feature point may be extracted by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.

또한, 상기 기준 특징점은 상기 3차원 메쉬 데이터에서 최대의 높이 좌표를 포함하는 좌표점인 코 끝 좌표점일 수 있다.The reference feature point may be a nose end coordinate point, which is a coordinate point including a maximum height coordinate in the 3D mesh data.

한편, 상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 영상 매칭부를 더 포함하는 것이 바람직하다.The apparatus may further include an image matching unit configured to generate the divided image data by matching the divided mesh data with the first image data.

그리고, 영상 DB로부터 전달 받은 다수의 비교 영상과 상기 영상 매칭부로부터 전달 받은 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 얼굴 인식부를 더 포함할 수 있다.
The apparatus may further include a face recognizing unit that recognizes a face by analyzing and comparing the plurality of comparison images received from the image DB and the divided image data received from the image matching unit.

상기한 바와 같은 목적을 달성하기 위한 본 발명에 실시예에 따른 얼굴 인식 방법은, 센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득하고, 상기 제 2 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성하는 단계와; 상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 단계와; 상기 다수의 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 단계와; 상기 다수의 특징점을 기준으로 영상 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention for achieving the above object, a face recognition method obtains first image data and second image data through a sensor, and generates 3D mesh data using the second image data. Generating; Extracting a plurality of feature points using the 3D mesh data; Controlling a pose of the 3D mesh data by comparing the comparison image received from the image DB using the plurality of feature points; And dividing the image data based on the plurality of feature points to generate divided mesh data representing a specific region.

여기서, 상기 다수의 특징점을 추출하는 단계에서는, 상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고, 상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며, 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출할 수 있다.In the extracting of the plurality of feature points, a first feature point is extracted by tracking in the vertical direction (y-axis direction) with the reference feature point as a starting point, and a first horizontal direction (x axis) based on the first feature point. The second feature point can be extracted by tracking in the positive direction), and the third feature point can be extracted by tracking in the first horizontal direction (x-axis negative direction) based on the first feature point.

그리고, 상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 단계를 더 포함할 수 있다.The method may further include generating split image data by matching the split mesh data with the first image data.

또한, 상기 영상 DB로부터 전달 받은 다수의 비교 영상과 영상 매칭부로부터 전달 받은 상기 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 단계를 더 포함하는 것이 바람직하다.
The method may further include recognizing a face by analyzing and comparing the plurality of comparison images received from the image DB and the divided image data received from the image matching unit.

이상 설명한 바와 같이, 본 발명에 따른 얼굴 인식 시스템 및 그 방법에서는, 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선할 수 있다.As described above, in the face recognition system and method according to the present invention, the feature rate extraction algorithm extracts a feature point from the 3D image and uses the extracted extraction point to control the pose of the 3D image and the processing rate. You can improve speed.

그리고, 특정 영상을 이용하여 얼굴 인식을 수행함에 따라 표정 변화에 강인한 얼굴 인식 시스템을 제공할 수 있다.
In addition, as face recognition is performed using a specific image, a face recognition system robust to facial expression change may be provided.

도1은 본 발명의 실시예에 따른 얼굴 인식 시스템의 내부 블록도이다.
도2는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정을 설명하기 위한 흐름도이다.
도3a 내지 도3d는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정 중 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.
도4a 및 도4b는 도3a에서의 제 1 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.
도5a 및 도5b는 도3b에서의 제 2 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.
도6은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 1 분할 영상을 도시한 도면이다.
도7은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 2 분할 영상을 도시한 도면이다.
도8은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 3 분할 영상을 도시한 도면이다.
1 is an internal block diagram of a face recognition system according to an embodiment of the present invention.
2 is a flowchart illustrating a face recognition process of the face recognition system according to an exemplary embodiment of the present invention.
3A to 3D are diagrams for explaining a feature point extraction process in a face recognition process of a face recognition system according to an exemplary embodiment of the present invention.
4A and 4B are views referred to for describing the first feature point extraction process in FIG. 3A.
5A and 5B are views referred to for describing the second feature point extraction process in FIG. 3B.
6 is a diagram illustrating a first segmented image used in a face recognition process according to an exemplary embodiment of the present invention.
FIG. 7 illustrates a second divided image used in a face recognition process according to an exemplary embodiment of the present invention. FIG.
8 is a diagram illustrating a third segmented image used in a face recognition process according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도1은 본 발명의 실시예에 따른 얼굴 인식 시스템의 내부 블록도이다.1 is an internal block diagram of a face recognition system according to an embodiment of the present invention.

도1에 도시한 바와 같이, 얼굴 인식 시스템(100)은, 영상 획득부(110), 특징점부(120), 영상 분할부(130), 영상 매칭부(140), 얼굴 인식부(150), 영상 DB(160), 제어부(170) 등을 포함한다.As shown in FIG. 1, the face recognition system 100 includes an image acquirer 110, a feature point unit 120, an image divider 130, an image matcher 140, a face recognizer 150, The image DB 160, the controller 170, and the like are included.

영상 획득부(110)는 제 1 센서 및 제 2 센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득할 수 있다.The image acquirer 110 may acquire the first image data and the second image data through the first sensor and the second sensor.

이때, 제 1 센서 및 제 2 센서는 각각 영상 센서 및 깊이감 측정 센서일 수 있다.In this case, the first sensor and the second sensor may be an image sensor and a depth sensor, respectively.

그리고, 제 1 영상 데이터 및 제 2 영상 데이터는 각각 얼굴을 인식하고자 하는 객체에 대한 2차원 영상 데이터 및 객체의 3차원 영상 데이터를 얻기 위한 깊이감 영상 데이터일 수 있다.The first image data and the second image data may be two-dimensional image data for an object for which a face is to be recognized and depth image data for obtaining three-dimensional image data of the object.

즉, 영상 획득부(110)는 제 1 센서를 통해 얼굴을 인식하고자 하는 객체에 대한 2차원 영상 데이터를 얻고, 제 2 센서를 통해 객체의 3차원 영상 데이터를 얻기 위한 깊이감 영상 데이터를 얻을 수 있다.That is, the image acquisition unit 110 may obtain two-dimensional image data of an object for which a face is to be recognized through a first sensor and obtain depth image data for obtaining three-dimensional image data of the object through a second sensor. have.

그리고, 영상 획득부(110)는 제 2 영상 데이터인 깊이감 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성할 수 있다.The image acquisition unit 110 may generate 3D mesh data using depth image data, which is second image data.

여기서, 3차원 메쉬 데이터는 예를 들어 깊이감 영상 데이터에서 삼각 측량 방식에 의해 얻은 여러 좌표값을 포함하는 다수의 좌표점으로 이루어지는 3차원 영상 데이터일 수 있다.Here, the 3D mesh data may be, for example, 3D image data including a plurality of coordinate points including various coordinate values obtained by a triangulation method in the sense of depth image data.

이때, 좌표는 수평 좌표를 나타내는 x 좌표, 수직 좌표를 나타내는 y 좌표, 높이 좌표를 나타내는 z좌표일 수 있다.In this case, the coordinates may be x coordinates indicating horizontal coordinates, y coordinates indicating vertical coordinates, and z coordinates indicating height coordinates.

특징점부(120)는 특징점 추출부(미도시)와 포즈 제어부(미도시)를 포함하며, 영상 획득부(110)로부터 전달 받은 3차원 메쉬 데이터를 이용하여 기준 특징점 및 제 1 내지 제 3 특징점을 추출하고, 제 1 내지 제 3 특징점을 이용하여 3차원 메쉬 데이터의 포즈를 제어하는 역할을 한다.The feature point unit 120 includes a feature point extractor (not shown) and a pose control unit (not shown). The feature point unit 120 includes a reference feature point and first to third feature points using 3D mesh data received from the image acquisition unit 110. Extract and control the pose of the 3D mesh data using the first to third feature points.

이때, 3차원 메쉬 데이터의 포즈를 제어하는 것은 예를 들어, 3차원 메쉬 데이터가 정면 방향의 영상 데이터가 되도록 위치(방향)를 제어하는 것일 수 있다.In this case, controlling the pose of the 3D mesh data may be, for example, controlling the position (direction) so that the 3D mesh data becomes the image data in the front direction.

여기서, 기준 특징점은 특징점 추출에 기준이 되는 특징점이고, 제 1 특징점은 기준 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이고, 제 2 특징점 및 제 3 특징점은 제 1 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이다.Here, the reference feature point is a feature point that is a reference point for feature point extraction, the first feature point is a feature point extracted by the feature point extraction algorithm using the reference feature point, and the second feature point and the third feature point are feature point extraction algorithms using the first feature point. It is a feature point extracted by.

예를 들어, 기준 특징점은 3차원 메쉬 데이터에서 가장 두드러지는 좌표점인 코 끝 좌표점에 해당하는 특징점일 수 있다.For example, the reference feature point may be a feature point corresponding to a nose end coordinate point, which is the most prominent coordinate point in the 3D mesh data.

즉, 특징점 추출 알고리즘은 3차원 메쉬 데이터에서 최대의 높이 좌표를 포함하는 좌표점인 코 끝 좌표점을 기준 특징점으로 하여 다른 특징점을 추출할 수 있다.That is, the feature point extraction algorithm may extract another feature point from the nose point coordinate point, which is a coordinate point including the maximum height coordinate, in the 3D mesh data.

특징점 추출 알고리즘은 예를 들어, 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출할 수 있다.The feature point extraction algorithm may extract the first feature point, for example, by tracking in a vertical direction (y-axis direction) using the reference feature point as a starting point.

그리고, 특징점 추출부는 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출할 수 있다.The feature point extractor may extract the second feature point by tracking in the first horizontal direction (the x-axis positive direction) based on the first feature point.

마찬가지로, 특징점 추출부는 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출할 수 있다.Similarly, the feature point extractor may extract the third feature point by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.

포즈 제어부는 제 1 내지 제 3 특징점을 이용하여 영상 DB(160)로부터 전달 받은 비교 영상과 비교하여 3차원 메쉬 데이터의 포즈를 제어할 수 있다.The pose controller may control the pose of the 3D mesh data by comparing the comparison image received from the image DB 160 using the first to third feature points.

예를 들어, 비교 영상의 기준 특징점을 포함하는 삼각형의 무게 중심과, 3차원 메쉬 데이터의 기준 특징점을 포함하는 삼각형의 무게 중심을 일치시킨 후 삼각형이 매칭되도록 회전시킬 수 있다.For example, the center of gravity of the triangle including the reference feature point of the comparison image and the center of gravity of the triangle including the reference feature point of the 3D mesh data may be matched and then rotated to match the triangle.

즉, 포즈 제어부는 얼굴 인식에 앞서 3차원 메쉬 데이터의 포즈를 제어하여 얼굴 인식 시스템의 얼굴 인식률을 높이는 역할을 한다.That is, the pose controller controls the pose of the 3D mesh data before face recognition to increase the face recognition rate of the face recognition system.

영상 분할부(130)는 특징점 추출부에서 추출한 제 1 내지 제 3 특징점을 기준으로 3차원 메쉬 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성할 수 있다.The image divider 130 may generate divided mesh data representing a specific region by dividing the 3D mesh data based on the first to third feature points extracted by the feature point extractor.

이때, 분할 메쉬 데이터는 예를 들어, 얼굴의 코 영역을 포함하는 3차원 메쉬 데이터일 수 있다.In this case, the divided mesh data may be, for example, 3D mesh data including a nose area of a face.

영상 매칭부(140)는 영상 분할부(130)로부터 전달 받은 분할 메쉬 데이터와 영상 획득부(110)로부터 전달 받은 3차원 메쉬 데이터와 제 1 영상 데이터(2차원 영상 데이터)를 매칭시켜 특정 영역을 나타내는 분할 영상 데이터(3차원 영상 데이터)를 생성할 수 있다.The image matching unit 140 matches the divided mesh data received from the image dividing unit 130 with the 3D mesh data received from the image obtaining unit 110 and the first image data (2D image data). The divided image data (three-dimensional image data) which are shown can be produced | generated.

본 발명에 따른 얼굴 인식 시스템에서는 분할 영상 데이터를 이용하여 얼굴 인식을 하게 된다.In the face recognition system according to the present invention, face recognition is performed using split image data.

얼굴 인식부(150)는 영상 DB(160)로부터 전달 받은 다수의 비교 영상과 영상 매칭부(140)로부터 전달 받은 분할 영상 데이터를 분석, 비교하여 얼굴 인식을 할 수 있다.The face recognition unit 150 may perform face recognition by analyzing and comparing the plurality of comparison images received from the image DB 160 and the divided image data received from the image matching unit 140.

이때, 사람의 얼굴에서 코 영역을 포함하는 영역 좀 더 자세히 말하면, 코와 눈을 포함하는 영역을 포함하는 분할 영상 데이터를 얼굴 인식에 사용할 수 있다.In this case, in more detail, an area including a nose area of a human face may be divided into face image data including an area including a nose and an eye.

이와 같이 분할 영상 데이터를 이용하여 얼굴 인식을 수행하는 과정은 예를 들어 다수의 픽셀(좌표점)로 구성되는 분할 영상 데이터 중에서 벡터값을 이용하여 의미있는 픽셀들을 뽑아낼 수 있다.As described above, in the process of performing face recognition using the divided image data, for example, meaningful pixels may be extracted from the divided image data including a plurality of pixels (coordinate points) by using a vector value.

그리고, 그 의미있는 픽셀을 이용하여 다수의 비교 영상 중에서 분할 영상 데이터와 매칭되는 영상이 있는지 비교할 수 있다.The meaningful pixels may be used to compare whether there is an image matching the divided image data among the plurality of comparison images.

본 발명에 따른 얼굴 인식 시스템은 분할 영상 데이터를 이용하여 얼굴 인식을 수행함에 따라 인식률을 높일 수 있다.The face recognition system according to the present invention can increase the recognition rate by performing face recognition using the split image data.

그리고, 본 발명에 따른 얼굴 인식 시스템은 얼굴 인식에 사용되는 영상 데이터의 크기도 작아진 분할 영상 데이터를 사용하기 때문에 처리 속도도 향상될 수 있다.In addition, since the face recognition system according to the present invention uses divided image data having a smaller size of image data used for face recognition, the processing speed may be improved.

제어부(170)는 얼굴 인식 시스템의 전반적인 동작을 제어할 수 있다.
The controller 170 may control the overall operation of the face recognition system.

도2는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정을 설명하기 위한 흐름도이고, 도3a 내지 도3d는 본 발명의 실시예에 따른 얼굴 인식 시스템의 얼굴 인식 과정 중 특징점 추출 과정을 설명하기 위해 참조되는 도면이다. 도1을 더욱 참조하여 설명한다.2 is a flowchart illustrating a face recognition process of the face recognition system according to an exemplary embodiment of the present invention, and FIGS. 3A to 3D illustrate a feature point extraction process of the face recognition process of the face recognition system according to an exemplary embodiment of the present invention. It is a figure referred to for. This will be described with reference to FIG. 1 further.

도2에 도시한 바와 같이, 얼굴 인식 시스템(100)의 영상 획득부(110)는 센서(제 1 센서 및 제 2 센서)를 통해서 영상 데이터(제 1 영상 데이터 및 제 2 영상 데이터)를 획득한다(S100).As shown in FIG. 2, the image acquisition unit 110 of the face recognition system 100 obtains image data (first image data and second image data) through sensors (first sensor and second sensor). (S100).

즉, 영상 획득부(110)는 제 1 센서를 통해 얼굴을 인식하고자 하는 객체에 대한 2차원 영상 데이터를 얻고, 제 2 센서를 통해 객체의 3차원 영상 데이터를 얻기 위한 깊이감 영상 데이터를 얻을 수 있다.That is, the image acquisition unit 110 may obtain two-dimensional image data of an object for which a face is to be recognized through a first sensor and obtain depth image data for obtaining three-dimensional image data of the object through a second sensor. have.

여기서, 영상 획득부(110)는 제 2 영상 데이터인 깊이감 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성할 수 있다.Here, the image acquirer 110 may generate 3D mesh data using depth image data, which is second image data.

그리고 나서, 특징점부(120)는 영상 획득부(110)로부터 전달 받은 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출한다(S110)Then, the feature point unit 120 extracts a plurality of feature points using the 3D mesh data received from the image acquisition unit 110 (S110).

이때, 다수의 특징점은 기준 특징점 및 제 1 내지 제 3 특징점일 수 있다.In this case, the plurality of feature points may be reference feature points and first to third feature points.

여기서, 기준 특징점은 특징점 추출에 기준이 되는 특징점이고, 제 1 특징점은 기준 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이고, 제 2 특징점 및 제 3 특징점은 제 1 특징점을 이용하여 특징점 추출 알고리즘에 의해 추출되는 특징점이다.Here, the reference feature point is a feature point that is a reference point for feature point extraction, the first feature point is a feature point extracted by the feature point extraction algorithm using the reference feature point, and the second feature point and the third feature point are feature point extraction algorithms using the first feature point. It is a feature point extracted by.

예를 들어, 기준 특징점은 3차원 메쉬 데이터에서 가장 두드러지는 좌표점인 코 끝 좌표점에 해당하는 특징점일 수 있다.For example, the reference feature point may be a feature point corresponding to a nose end coordinate point, which is the most prominent coordinate point in the 3D mesh data.

특징점 추출 과정을 도3a 내지 도3d를 참조하여 설명하기로 한다.A feature point extraction process will be described with reference to FIGS. 3A to 3D.

먼저, 도3a에 도시한 바와 같이, 특징점 추출부는 제 1 특징점을 추출하기 위하여 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹할 수 있다.First, as illustrated in FIG. 3A, the feature point extractor may track in a vertical direction (y-axis direction) using the reference feature point as a starting point to extract the first feature point.

이때, 기준 특징점은 3차원 메쉬 데이터에서 가장 두드러지는 좌표점인 코 끝 좌표점에 해당하는 특징점일 수 있다.In this case, the reference feature point may be a feature point corresponding to a nose end coordinate point, which is the most prominent coordinate point in the 3D mesh data.

그리고, 도3b에 도시한 바와 같이, 특징점 추출부는 제 2 특징점을 추출하기 위하여 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹할 수 있다.As shown in FIG. 3B, the feature point extractor may track in the first horizontal direction (the x-axis positive direction) based on the first feature point to extract the second feature point.

다음으로, 도3c에 도시한 바와 같이, 특징점 추출부는 제 3 특징점을 추출하기 위하여 제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹할 수 있다.Next, as shown in FIG. 3C, the feature point extractor may track in the first horizontal direction (the x-axis negative direction) based on the first feature point to extract the third feature point.

그 결과 도3d에 도시한 바와 같이, 3차원 메쉬 데이터에서 제 1 내지 제 3 특징점을 추출할 수 있다.As a result, as illustrated in FIG. 3D, the first to third feature points may be extracted from the 3D mesh data.

이와 같이 제 1 내지 제 3 특징점을 추출하고 나서, 포즈 제어부는 제 1 내지 제 3 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 영상 데이터(3차원 메쉬 데이터)의 포즈를 제어한다(S120)After extracting the first to third feature points as described above, the pose controller controls the pose of the image data (3D mesh data) by comparing the comparison images received from the image DB using the first to third feature points (S120). )

예를 들어, 비교 영상의 기준 특징점을 포함하는 삼각형의 무게 중심과, 3차원 메쉬 데이터의 기준 특징점을 포함하는 삼각형의 무게 중심을 일치시킨 후 삼각형이 매칭되도록 회전시킬 수 있다.For example, the center of gravity of the triangle including the reference feature point of the comparison image and the center of gravity of the triangle including the reference feature point of the 3D mesh data may be matched and then rotated to match the triangle.

다음으로, 제 1 내지 제 3 특징점을 기준으로 영상 데이터를 분할하여(S130), 특정 영역을 나타내는 분할 메쉬 데이터를 생성할 수 있다.Next, image data may be divided based on the first to third feature points (S130) to generate divided mesh data representing a specific area.

이때, 분할 메쉬 데이터는 예를 들어, 얼굴의 코 영역을 포함하는 3차원 메쉬 데이터일 수 있다.In this case, the divided mesh data may be, for example, 3D mesh data including a nose area of a face.

그리고, 영상 매칭부(140)는 제 2 영상 데이터(2차원 영상 데이터)와 영상 분할부(130)로부터 전달 받은 영상 데이터(3차원 메쉬 데이터)를 매칭한다(S140)The image matching unit 140 matches the second image data (two-dimensional image data) and the image data (three-dimensional mesh data) received from the image dividing unit 130 (S140).

매칭 결과 특정 영역을 나타내는 분할 영상 데이터(3차원 영상 데이터)가 생성될 수 있다.As a result of the matching, split image data (3D image data) representing a specific region may be generated.

또한, 얼굴 인식부(150)는 영상 DB(160)로부터 전달 받은 다수의 비교 영상과 영상 매칭부(140)로부터 전달 받은 영상 데이터(분할 영상 데이터)를 분석, 비교한다(S150, S160)In addition, the face recognition unit 150 analyzes and compares a plurality of comparison images received from the image DB 160 and image data (split image data) received from the image matching unit 140 (S150 and S160).

이때, 사람의 얼굴에서 코 영역을 포함하는 영역 좀 더 자세히 말하면, 코와 눈을 포함하는 영역을 포함하는 분할 영상 데이터를 얼굴 인식에 사용할 수 있다.In this case, in more detail, an area including a nose area of a human face may be divided into face image data including an area including a nose and an eye.

이와 같이 분할 영상 데이터를 이용하여 얼굴 인식을 수행하는 과정은 예를 들어 다수의 픽셀(좌표점)로 구성되는 분할 영상 데이터 중에서 벡터값을 이용하여 의미있는 픽셀들을 뽑아낼 수 있다.As described above, in the process of performing face recognition using the divided image data, for example, meaningful pixels may be extracted from the divided image data including a plurality of pixels (coordinate points) by using a vector value.

그리고, 그 의미있는 픽셀을 이용하여 다수의 비교 영상 중에서 분할 영상 데이터와 매칭되는 영상이 있는지 비교할 수 있다.The meaningful pixels may be used to compare whether there is an image matching the divided image data among the plurality of comparison images.

본 발명에 따른 얼굴 인식 시스템은 분할 영상 데이터를 이용하여 얼굴 인식을 수행함에 따라 인식률을 높일 수 있다.The face recognition system according to the present invention can increase the recognition rate by performing face recognition using the split image data.

그리고, 본 발명에 따른 얼굴 인식 시스템은 얼굴 인식에 사용되는 영상 데이터의 크기도 작아진 분할 영상 데이터를 사용하기 때문에 처리 속도도 향상될 수 있다.
In addition, since the face recognition system according to the present invention uses divided image data having a smaller size of image data used for face recognition, the processing speed may be improved.

도4a 및 도4b는 도3a에서의 제 1 특징점 추출 과정을 설명하기 위해 참조되는 도면이고, 도5a 및 도5b는 도3b에서의 제 2 특징점 추출 과정을 설명하기 위해 참조되는 도면이다.4A and 4B are views referred to for explaining the first feature point extraction process in FIG. 3A, and FIGS. 5A and 5B are views for explaining the second feature point extraction process in FIG. 3B.

도4a및 도4b에 도시한 바와 같이, 특징점 추출부는 기준 특징점(A)을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 빗변(l1)을 포함하는 제 1 삼각형 및 제 2 빗변(l2)을 포함하는 제 2 삼각형을 설정하고, 제 1 삼각형 및 제 2 삼각형의 접점(B)을 제 1 특징점으로 추출할 수 있다.4A and 4B, the feature point extracting unit tracks the first triangle and the second hypotenuse including the first hypotenuse l1 by tracking in the vertical direction (y-axis direction) with the reference feature point A as a starting point. A second triangle including l2) may be set, and the contact point B of the first triangle and the second triangle may be extracted as the first feature point.

이때, 제 1삼각형은 제 1 빗변(l1) 및 제 1 높이(h1)를 갖고, 제 2 삼각형은 제 2 빗변(L2) 및 제 2 높이(h2)를 갖게 된다.In this case, the first triangle has a first hypotenuse l1 and a first height h1, and the second triangle has a second hypotenuse L2 and a second height h2.

이러한 제 1 빗변(l1), 제 1 높이(h1), 제 2 빗변(l2), 제 2 높이(h2)의 값들은 각 꼭지점들의 좌표값에 의해 결정될 수 있다.The values of the first hypotenuse l1, the first height h1, the second hypotenuse l2, and the second height h2 may be determined by coordinate values of the respective vertices.

즉, 특징점 추출부는 제 1 삼각형 및 제 2 삼각형을 설정하고, 제 1 각도(θ1) 및 제 2 각도(θ2)가 특정 범위의 값이 되도록 하는 점(B)을 제 1 특징점(B)으로 추출할 수 있다.That is, the feature point extractor sets the first triangle and the second triangle, and extracts the point B as the first feature point B such that the first angle θ1 and the second angle θ2 are within a specific range. can do.

이때, 사람마다 제 1 각도(θ1) 및 제 2 각도(θ2)가 상이할 수 있기 때문에, 미리 다수의 사람을 통한 실험 데이터로 설정된 값인 특정 범위의 값을 특징점 추출에 이용하게 된다.
In this case, since the first angle θ1 and the second angle θ2 may be different for each person, a specific range of values, which are values previously set as experimental data through a plurality of people, is used for feature point extraction.

도5a 및 도5b에 도시한 바와 같이, 특징점 추출부는 제 1 특징점(B)을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 3 빗변(l3)을 포함하는 제 3 삼각형 및 제 4 빗변(l4)을 포함하는 제 4 삼각형을 설정하고, 제 3 삼각형 및 제 4 삼각형의 접점(D)을 제 2 특징점으로 추출할 수 있다.As shown in FIGS. 5A and 5B, the feature point extracting unit includes a third triangle including a third hypotenuse l3 by tracking in a first horizontal direction (x-axis positive direction) with respect to the first feature point B; A fourth triangle including the fourth hypotenuse l4 may be set, and the contacts D of the third and fourth triangles may be extracted as the second feature point.

이때, 제 3삼각형은 제 3 빗변(l3) 및 제 3 높이(h3)를 갖고, 제 4 삼각형은 제 4 빗변(l4) 및 제 4 높이(h4)를 갖게 된다.In this case, the third triangle has a third hypotenuse l3 and a third height h3, and the fourth triangle has a fourth hypotenuse l4 and a fourth height h4.

이러한 제 3 빗변(l3), 제 3 높이(h3), 제 4 빗변(l4), 제 4 높이(h4)의 값들은 각 꼭지점들의 좌표값에 의해 결정될 수 있다.The values of the third hypotenuse l3, the third height h3, the fourth hypotenuse l4, and the fourth height h4 may be determined by coordinate values of the respective vertices.

즉, 특징점 추출부는 제 3 삼각형 및 제 4 삼각형을 설정하고, 제 3 각도(θ3) 및 제 4 각도(θ4)가 특정 범위의 값이 되도록 하는 점(D)을 제 2 특징점(D)으로 추출할 수 있다.That is, the feature point extractor sets the third and fourth triangles, and extracts the point D as the second feature point D such that the third angle θ3 and the fourth angle θ4 are within a specific range. can do.

마찬가지로, 사람마다 제 3 각도(θ3) 및 제 4 각도(θ4)가 상이할 수 있기 때문에, 미리 다수의 사람을 통한 실험 데이터로 설정된 값인 특정 범위의 값을 특징점 추출에 이용하게 된다.
Similarly, since the third angle θ3 and the fourth angle θ4 may be different for each person, a specific range of values, which are values previously set as experimental data through a plurality of people, is used for feature point extraction.

그리고, 도시하지는 않았지만, 특징점 추출부는 제 1 특징점(B)을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 5 빗변을 포함하는 제 5 삼각형 및 제 6 빗변을 포함하는 제 6 삼각형을 설정하고, 제 5 삼각형 및 제 6 삼각형의 접점을 제 3 특징점으로 추출할 수 있다.Although not shown, the feature point extracting unit tracks in a first horizontal direction (x-axis negative direction) based on the first feature point B, and includes a fifth triangle including a fifth hypotenuse and a sixth hypotenuse. A triangle may be set and the contacts of the fifth and sixth triangles may be extracted as the third feature point.

이때, 제 5삼각형은 제 5 빗변 및 제 5 높이를 갖고, 제 6 삼각형은 제 6 빗변 및 제 6 높이를 갖게 된다.At this time, the fifth triangle has a fifth hypotenuse and a fifth height, and the sixth triangle has a sixth hypotenuse and a sixth height.

이러한 제 5 빗변, 제 5 높이, 제 6 빗변, 제 6 높이의 값들은 각 꼭지점들의 좌표값에 의해 결정될 수 있다.The fifth hypotenuse, fifth height, sixth hypotenuse, and sixth height may be determined by the coordinates of the respective vertices.

즉, 특징점 추출부는 제 5 삼각형 및 제 6 삼각형을 설정하고, 제 5 각도 및 제 6 각도가 특정 범위의 값이 되도록 하는 점을 제 3 특징점으로 추출할 수 있다.
That is, the feature point extracting unit sets the fifth triangle and the sixth triangle, and extracts a point for allowing the fifth and sixth angles to be within a specific range as the third feature point.

도6은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 1 분할 영상을 도시한 도면이고, 도7은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 2 분할 영상을 도시한 도면이며, 도8은 본 발명의 실시예에 따른 얼굴 인식 과정에 사용되는 제 3 분할 영상을 도시한 도면이다. 도4a를 더욱 참조하여 설명한다.6 is a diagram illustrating a first segmented image used in a face recognition process according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating a second segmented image used in a face recognition process according to an embodiment of the present invention. 8 is a diagram illustrating a third segmented image used in a face recognition process according to an embodiment of the present invention. This will be described with reference to FIG. 4A further.

도6에 도시한 바와 같이, 영상 분할부(도1의 130)는 3차원 메쉬 데이터에서 기준 특징점(A)을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 생성할 수 있다.As illustrated in FIG. 6, the image segmentation unit 130 of FIG. 1 may generate divided mesh data by dividing a rectangular area around the reference feature point A in the 3D mesh data.

도7에 도시한 바와 같이, 영상 분할부(130)는3차원 메쉬 데이터에서 C점을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 생성할 수 있다.As illustrated in FIG. 7, the image divider 130 may generate divided mesh data by dividing a rectangular area around the point C in the 3D mesh data.

도8에 도시한 바와 같이, 영상 분할부(130)는 3차원 메쉬 데이터에서 제 1 특징점(B)을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 생성할 수 있다.As shown in FIG. 8, the image divider 130 may generate divided mesh data by dividing a rectangular area around the first feature point B in the 3D mesh data.

이때, 3차원 메쉬 데이터에서 C점을 중심으로 하여 사각형 영역을 분할하여 분할 메쉬 데이터를 이용하여 생성된 분할 영상 데이터를 사용하여 얼굴 인식을 수행하는 경우가 가장 인식률이 높고 처리 속도가 빨랐다.In this case, face recognition using segmented image data generated by using segmented mesh data by dividing a rectangular region centering on point C in the 3D mesh data has the highest recognition rate and the fastest processing speed.

이와 같은 특징점 추출 알고리즘을 적용하기 전의 인식률과 CPU Time은 각각 79.6%와 2531.2(s)였다.The recognition rate and CPU time before applying the feature extraction algorithm were 79.6% and 2531.2 (s), respectively.

반면에 본 발명에 따른 특징점 추출 알고리즘을 적용하고 분할 영상 데이터를 이용하여 얼굴 인식을 수행한 결과 인식률과 CPU Time은 각각 84.42%와 1594.4(s)가 되었다.On the other hand, applying the feature extraction algorithm according to the present invention and performing face recognition using segmented image data, the recognition rate and CPU time were 84.42% and 1594.4 (s), respectively.

즉, 본 발명에 따른 얼굴 인식 시스템에서는 특징점 추출 알고리즘을 이용하여 3차원 영상으로부터 특징점을 추출하고 추출된 추출점을 이용하여 3차원 영상의 포즈를 제어함에 따라 인식률 및 처리 속도를 개선할 수 있다.That is, in the face recognition system according to the present invention, the recognition rate and the processing speed may be improved by extracting the feature point from the 3D image using the feature point extraction algorithm and controlling the pose of the 3D image using the extracted extraction point.

그리고, 특정 영상을 이용하여 얼굴 인식을 수행함에 따라 표정 변화에 강인한 얼굴 인식 시스템을 제공할 수 있다.
In addition, as face recognition is performed using a specific image, a face recognition system robust to facial expression change may be provided.

이상과 같은 본 발명의 실시예는 예시적인 것에 불과하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자라면 본 발명의 요지를 벗어나지 않는 범위 내에서 자유로운 변형이 가능하다. 따라서, 본 발명의 보호범위는 첨부된 특허청구범위 및 이와 균등한 범위 내에서의 본 발명의 변형을 포함한다.
The embodiments of the present invention as described above are merely illustrative, and those skilled in the art can make modifications without departing from the gist of the present invention. Accordingly, the protection scope of the present invention includes modifications of the present invention within the scope of the appended claims and equivalents thereof.

100: 얼굴 인식 시스템 110: 영상 획득부
120: 특징점부 130: 영상 분할부
140: 영상 매칭부 150: 얼굴 인식부
160: 영상 DB 170: 제어부
100: face recognition system 110: image acquisition unit
120: feature point 130: image segmentation
140: image matching unit 150: face recognition unit
160: image DB 170: control unit

Claims (10)

센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득하며, 상기 제 2 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성하는 영상 획득부와;
상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 특징점부와;
상기 다수의 특징점을 기준으로 상기 3차원 메쉬 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 영상 분할부와;
를 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
An image acquisition unit obtaining first image data and second image data through a sensor, and generating 3D mesh data using the second image data;
A feature point unit for extracting a plurality of feature points using the 3D mesh data;
An image divider configured to divide the 3D mesh data based on the plurality of feature points and generate divided mesh data representing a specific area;
Face recognition system comprising a.
제1항에 있어서,
상기 특징점부는,
상기 3차원 메쉬 데이터를 이용하여 기준 특징점 및 제 1 내지 제 3 특징점을 추출하는 특징점 추출부와;
상기 제 1 내지 제 3 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 포즈 제어부
를 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 1,
The feature point,
A feature point extracting unit extracting a reference feature point and first to third feature points using the 3D mesh data;
Pose control unit for controlling the pose of the three-dimensional mesh data compared to the comparison image received from the image DB by using the first to third feature points
Face recognition system comprising a.
제2항에 있어서,
상기 특징점 추출부는
상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고,
상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며,
제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 2,
The feature point extracting unit
The first feature point is extracted by tracking in the vertical direction (y-axis direction) using the reference feature point as a starting point,
Extracting a second feature point by tracking in a first horizontal direction (x-axis positive direction) based on the first feature point,
And a third feature point is extracted by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.
제3항에 있어서,
상기 기준 특징점은 상기 3차원 메쉬 데이터에서 최대의 높이 좌표를 포함하는 좌표점인 코 끝 좌표점인 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 3,
The reference feature point is a face recognition system, characterized in that the nose end coordinate point that is the coordinate point including the maximum height coordinate in the three-dimensional mesh data.
제1항에 있어서,
상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 영상 매칭부를 더 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 1,
And a video matching unit configured to generate the split image data by matching the split mesh data with the first image data.
제5항에 있어서,
상기 영상 DB로부터 전달 받은 다수의 비교 영상과 상기 영상 매칭부로부터 전달 받은 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 얼굴 인식부를 더 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
The method of claim 5,
And a face recognizing unit which analyzes and compares the plurality of comparison images received from the image DB and the divided image data received from the image matching unit to recognize a face.
센서를 통해서 제 1 영상 데이터 및 제 2 영상 데이터를 획득하고, 상기 제 2 영상 데이터를 이용하여 3차원 메쉬 데이터를 생성하는 단계와;
상기 3차원 메쉬 데이터를 이용하여 다수의 특징점을 추출하는 단계와;
상기 다수의 특징점을 이용하여 영상 DB로부터 전달 받은 비교 영상과 비교하여 상기 3차원 메쉬 데이터의 포즈를 제어하는 단계와;
상기 다수의 특징점을 기준으로 영상 데이터를 분할하여 특정 영역을 나타내는 분할 메쉬 데이터를 생성하는 단계
를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
Acquiring first image data and second image data through a sensor, and generating 3D mesh data using the second image data;
Extracting a plurality of feature points using the 3D mesh data;
Controlling a pose of the 3D mesh data by comparing the comparison image received from the image DB using the plurality of feature points;
Generating split mesh data representing a specific area by dividing image data based on the plurality of feature points.
And a face recognition step of recognizing a face of the face.
제7항에 있어서,
상기 다수의 특징점을 추출하는 단계에서는,
상기 기준 특징점을 시작점으로 하여 수직 방향(y축 방향)으로 트래킹하여 제 1 특징점을 추출하고,
상기 제 1 특징점을 기준으로 제 1 수평 방향(x축 양의 방향)으로 트래킹하여 제 2 특징점을 추출하며,
제 1 특징점을 기준으로 제 1 수평 방향(x축 음의 방향)으로 트래킹하여 제 3 특징점을 추출하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 7, wherein
In the extracting of the plurality of feature points,
The first feature point is extracted by tracking in the vertical direction (y-axis direction) using the reference feature point as a starting point,
Extracting a second feature point by tracking in a first horizontal direction (x-axis positive direction) based on the first feature point,
And a third feature point is extracted by tracking in a first horizontal direction (x-axis negative direction) based on the first feature point.
제7항에 있어서,
상기 분할 메쉬 데이터와 상기 제 1 영상 데이터를 매칭시켜 분할 영상 데이터를 생성하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 7, wherein
And matching the split mesh data with the first image data to generate split image data.
제9항에 있어서,
상기 영상 DB로부터 전달 받은 다수의 비교 영상과 영상 매칭부로부터 전달 받은 상기 분할 영상 데이터를 분석, 비교하여 얼굴을 인식하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 인식 방법.
10. The method of claim 9,
And recognizing a face by analyzing and comparing the plurality of comparison images received from the image DB and the divided image data received from the image matching unit.
KR1020110139145A 2011-12-21 2011-12-21 System and method for face recognition KR101920402B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110139145A KR101920402B1 (en) 2011-12-21 2011-12-21 System and method for face recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110139145A KR101920402B1 (en) 2011-12-21 2011-12-21 System and method for face recognition

Publications (2)

Publication Number Publication Date
KR20130071750A true KR20130071750A (en) 2013-07-01
KR101920402B1 KR101920402B1 (en) 2018-11-21

Family

ID=48986660

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110139145A KR101920402B1 (en) 2011-12-21 2011-12-21 System and method for face recognition

Country Status (1)

Country Link
KR (1) KR101920402B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185386A (en) * 2002-12-04 2004-07-02 Matsushita Electric Ind Co Ltd Image collating unit
KR20050042369A (en) * 2003-11-01 2005-05-09 학교법인연세대학교 Method of error compensated singular value decomposition based head pose estimation for 3d face recognition
JP2009157767A (en) * 2007-12-27 2009-07-16 Nippon Telegr & Teleph Corp <Ntt> Face image recognition apparatus, face image recognition method, face image recognition program, and recording medium recording this program
KR20110024178A (en) * 2009-09-01 2011-03-09 (주)실리콘화일 Device and method for face recognition using 3 dimensional shape information
KR20110077059A (en) * 2009-12-30 2011-07-07 안동대학교 산학협력단 System for recognizing a face using multi camera
JP2012003216A (en) * 2010-06-18 2012-01-05 Advas Co Ltd Device and method for capturing microscopic image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5018029B2 (en) * 2006-11-10 2012-09-05 コニカミノルタホールディングス株式会社 Authentication system and authentication method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185386A (en) * 2002-12-04 2004-07-02 Matsushita Electric Ind Co Ltd Image collating unit
KR20050042369A (en) * 2003-11-01 2005-05-09 학교법인연세대학교 Method of error compensated singular value decomposition based head pose estimation for 3d face recognition
JP2009157767A (en) * 2007-12-27 2009-07-16 Nippon Telegr & Teleph Corp <Ntt> Face image recognition apparatus, face image recognition method, face image recognition program, and recording medium recording this program
KR20110024178A (en) * 2009-09-01 2011-03-09 (주)실리콘화일 Device and method for face recognition using 3 dimensional shape information
KR20110077059A (en) * 2009-12-30 2011-07-07 안동대학교 산학협력단 System for recognizing a face using multi camera
JP2012003216A (en) * 2010-06-18 2012-01-05 Advas Co Ltd Device and method for capturing microscopic image

Also Published As

Publication number Publication date
KR101920402B1 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
Kusakunniran et al. Recognizing gaits across views through correlated motion co-clustering
Chen et al. Contour matching for 3D ear recognition
US9208375B2 (en) Face recognition mechanism
US11790494B2 (en) Facial verification method and apparatus based on three-dimensional (3D) image
Lee et al. Game interface using hand gesture recognition
CN104573634A (en) Three-dimensional face recognition method
Chen et al. Human ear detection from 3D side face range images
CN103020607B (en) Face recognition method and face recognition device
CN110796101A (en) Face recognition method and system of embedded platform
KR20090093223A (en) Removal Eye Glasses using Variable Mask and Inpainting for Improved Performance of Face Recognition System
Ratyal et al. 3D face recognition based on pose and expression invariant alignment
Jia et al. View-invariant gait authentication based on silhouette contours analysis and view estimation
Gervei et al. 3D face recognition using modified PCA methods
KR101001184B1 (en) Iterative 3D head pose estimation method using a face normal vector
Riaz et al. A model based approach for expressions invariant face recognition
KR101920402B1 (en) System and method for face recognition
CN113361297B (en) Micro-expression detection method based on light stream and windmill mode feature fusion
KR20160042646A (en) Method of Recognizing Faces
Ganapathi et al. 3d ear based human recognition using gauss map clustering
KR102047725B1 (en) System and method for face recognition
Cadoni et al. Augmenting SIFT with 3D Joint Differential Invariants for multimodal, hybrid face recognition
Ravansalar et al. Accurate Extraction of Corresponding Surface Normal Vectors by Point Cloud Partitioning for 3D Face Recognition under Expression Variation
Quy et al. 3D human face recognition using sift descriptors of face’s feature regions
Soltanpour et al. Multimodal 2D-3D face recognition using structural context and pyramidal shape index
Xia et al. Rapid human-eye detection based on an integrated method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant