KR102027786B1 - Method and system for recognizing face of user based on multiple images - Google Patents

Method and system for recognizing face of user based on multiple images Download PDF

Info

Publication number
KR102027786B1
KR102027786B1 KR1020180061664A KR20180061664A KR102027786B1 KR 102027786 B1 KR102027786 B1 KR 102027786B1 KR 1020180061664 A KR1020180061664 A KR 1020180061664A KR 20180061664 A KR20180061664 A KR 20180061664A KR 102027786 B1 KR102027786 B1 KR 102027786B1
Authority
KR
South Korea
Prior art keywords
face
face images
photographed
user
feature points
Prior art date
Application number
KR1020180061664A
Other languages
Korean (ko)
Inventor
강전일
양대헌
Original Assignee
주식회사 더볼터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더볼터 filed Critical 주식회사 더볼터
Priority to KR1020180061664A priority Critical patent/KR102027786B1/en
Application granted granted Critical
Publication of KR102027786B1 publication Critical patent/KR102027786B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • G06K9/00268
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Disclosed are a face recognition and authentication method simultaneously using a plurality of face images and a system thereof. A face recognition method comprises the steps of: storing a template corresponding to various face images of a user in a database; performing a quality test on a face image photographing the user for authentication; preprocessing the face image which has passed the quality test; extracting feature points from the face image on which the preprocessing has been performed; and authenticating a face of the user on the basis of a template based on the extracted feature points and the template stored in the database.

Description

다수의 얼굴 이미지를 동시에 사용하는 얼굴 인식 및 인증 방법 및 시스템{METHOD AND SYSTEM FOR RECOGNIZING FACE OF USER BASED ON MULTIPLE IMAGES}Face recognition and authentication method and system using multiple face images at the same time {METHOD AND SYSTEM FOR RECOGNIZING FACE OF USER BASED ON MULTIPLE IMAGES}

본 발명의 실시예들은 카메라 등의 촬영장치를 통해 확보한 사용자의 얼굴 이미지를 이용하여 사용자를 인식 및 인증하는 기계 학습(machine learning) 기술에 관한 것이다.Embodiments of the present invention relate to a machine learning technology for recognizing and authenticating a user using a face image of a user obtained through a photographing apparatus such as a camera.

카메라를 이용하여 획득한 이미지로부터 특징점(feature)을 추출하는 기술은 얼굴 인식을 통한 개인 인증을 위해 사용되고 있다. 얼굴 인식 및 인증 시스템은 광원 환경과 사용하는 알고리즘 등에 따라 인식 및 인증 성능에서 많은 차이를 보이는 것으로 알려져 있다. 특히, 스마트폰(smartphone)과 같이 카메라의 성능이 좋지 않으면서 다양한 광원 환경에 노출되는 경우에는 얼굴 인식 및 인증 성능이 많이 저하되는 것으로 알려져 있다. 이처럼, 얼굴 인식 및 인증 성능이 저하되는 환경에서 기존의 기계 학습 방법론을 이용한 얼굴 인식 및 인증 기법은 좋은 성능을 보이지 않기 때문에, 딥러닝(deep learning)과 같은 최신 기계 학습 방법론을 사용하여 성능을 높일 수 있으나, 스마트폰의 낮은 연산 성능으로 인해 아직까지 일상적으로 사용하기 어려운 측면이 있다.Techniques for extracting feature points from images acquired using a camera are used for personal authentication through face recognition. Face recognition and authentication systems are known to show a great difference in recognition and authentication performance depending on the light source environment and the algorithm used. In particular, when the camera is not good performance, such as a smartphone (smartphone) is exposed to a variety of light source environment it is known that the face recognition and authentication performance is greatly reduced. As such, face recognition and authentication techniques using existing machine learning methodologies do not perform well in environments where face recognition and authentication performance is degraded. Therefore, the latest machine learning methodologies such as deep learning can be used to improve performance. However, due to the low computational performance of smartphones, there are still aspects that are difficult to use everyday.

특징점 벡터의 한 원소는 얼굴 이미지의 여러 위치값들의 영향을 받아 결정되며, 시스템에 주어지는 얼굴 이미지는 전후, 좌우로 이동할 뿐만 아니라 얼굴을 찍는 각도와 얼굴의 크기, 조명 등의 영향을 받아 단순 전처리를 통해 그 영향을 억제하기 힘들다. 다양한 얼굴 이미지를 입력으로 사용하여 학습을 수행하는 경우, 학습 환경에 따른 과학습 문제가 여전히 존재한다.An element of the feature point vector is determined by the influence of various position values of the face image. The face image given to the system is not only moved back and forth, but also to the left and right. Its hard to suppress its influence. When learning is performed using various face images as inputs, the learning problem still exists according to the learning environment.

따라서, 스마트폰 등과 같이 딥러닝 등의 높은 연산 성능을 적용하기 어려운 전자장치에서도 사용자의 얼굴을 인식 및 인증하는 성능을 높일 수 있는 기술이 요구된다.Therefore, even in an electronic device such as a smart phone, which is difficult to apply high computing performance such as deep learning, a technology for improving the performance of recognizing and authenticating a user's face is required.

한국공개특허 제10-2010-0073749호는 SIFT 기반의 특징점 추출 장치 및 방법, 이를 이용한 얼굴 인식 시스템에 관한 것으로, 입력 영상에 대응하여 특징점 추출에 사용되는 후보 픽셀(candidate pixel)의 농도 임계값(contrast threshold)을 산출하고, 전체 후보 픽셀 중 농도 임계값 이상의 후보 픽셀을 이용하여 특징점 기술자(keypoint descriptor)를 생성하고, 추출되는 특징점의 개수를 증가시켜 영상 인식률을 개선하는 기술을 개시하고 있다.Korean Patent Laid-Open Publication No. 10-2010-0073749 relates to an SIFT-based feature point extraction apparatus and method, and a face recognition system using the same. The density threshold value of a candidate pixel used for feature point extraction in response to an input image ( A technique of calculating a contrast threshold, generating a keypoint descriptor using candidate pixels above a density threshold among all candidate pixels, and increasing the number of extracted feature points is disclosed.

본 발명은 스마트폰 등과 같이 연산 성능이 낮은 환경에서, 동일 사용자에 해당하는 다양한 얼굴 이미지를 동시에 사용하여 사용자의 얼굴을 인식 및 인증하는 기술에 관한 것이다.The present invention relates to a technology for recognizing and authenticating a face of a user by simultaneously using various face images corresponding to the same user in an environment having low computational performance such as a smartphone.

얼굴 인식 방법에 있어서, 사용자의 다양한 얼굴 이미지에 해당하는 템플릿(template)을 데이터베이스에 저장하는 단계, 인증을 원하는 사용자를 대상으로 촬영된 얼굴 이미지에 대한 품질 테스트를 수행하는 단계, 상기 품질 테스트를 통과한 얼굴 이미지를 대상으로 전처리(preprocessing)하는 단계, 상기 전처리가 수행된 얼굴 이미지를 대상으로 특징점을 추출하는 단계, 및 추출된 특징점에 기반하는 템플릿과 상기 데이터베이스에 저장된 템플릿에 기초하여 사용자의 얼굴을 인증하는 단계를 포함할 수 있다.A face recognition method comprising: storing a template corresponding to various face images of a user in a database, performing a quality test on a face image captured by a user for authentication, and passing the quality test Preprocessing a face image, extracting a feature point from the face image on which the preprocessing has been performed, and using a template based on the extracted feature point and a template stored in the database. Authenticating.

일측면에 따르면, 상기 품질 테스트를 수행하는 단계는, 상기 사용자의 얼굴을 촬영한 서로 다른 복수의 얼굴 이미지를 대상으로 미리 지정된 일정 품질 지수 이상의 얼굴 이미지를 결정하는 단계를 포함할 수 있다.According to one aspect, the step of performing the quality test may include determining a face image of a predetermined predetermined quality index or more for a plurality of different face images of the face of the user.

다른 측면에 따르면, 상기 일정 품질 지수 이상의 얼굴 이미지를 결정하는 단계는, 상기 서로 다른 복수의 얼굴 이미지를 대상으로 LoG(Laplacian of Gaussian) 필터를 이용하여 계산된 분산, 밝기의 평균, 밝기의 표준 편차, 및 얼굴 이미지들 간의 유사도 중 적어도 하나에 기초하여 상기 일정 품질 지수 이상의 얼굴 이미지를 결정할 수 있다.According to another aspect, the determining of the face image above the predetermined quality index, the dispersion, the average of brightness, the standard deviation of brightness calculated using a Laplacian of Gaussian (LoG) filter for the plurality of different face images And a face image equal to or greater than the predetermined quality index may be determined based on at least one of similarity between, and face images.

또 다른 측면에 따르면, 상기 품질 테스트를 수행하는 단계는, 상기 인증을 원하는 사용자를 대상으로 촬영된 얼굴 이미지가 상기 품질 테스트를 통과하지 않은 경우, 사용자의 인증을 거절하는 단계를 포함할 수 있다.According to another aspect, the performing of the quality test may include rejecting the authentication of the user when the face image photographed for the user who wants the authentication does not pass the quality test.

또 다른 측면에 따르면, 상기 사용자의 얼굴을 인증하는 단계는, 상기 사용자를 대상으로 촬영된 복수의 얼굴 이미지를 대상으로 추출된 이미지 별 특징점을 통합 특징점으로 변환하는 단계, 및 상기 통합 특징점과 상기 저장된 템플릿에 해당하는 특징점에 기초하여 상기 사용자의 얼굴을 인증하는 단계를 포함할 수 있다.According to another aspect, the authenticating of the face of the user may include converting feature points for each image extracted from a plurality of face images photographed for the user into an integrated feature point, and the integrated feature point and the stored feature. The method may include authenticating the face of the user based on a feature point corresponding to a template.

또 다른 측면에 따르면, 얼굴 인식 시스템은, 사용자의 다양한 얼굴 이미지에 해당하는 템플릿(template)을 데이터베이스에 저장하는 저장 제어부, 인증을 원하는 사용자를 대상으로 촬영된 얼굴 이미지에 대한 품질 테스트를 수행하는 품질 테스트부, 상기 품질 테스트를 통과한 얼굴 이미지를 대상으로 전처리(preprocessing)하는 전처리부, 상기 전처리가 수행된 얼굴 이미지를 대상으로 특징점을 추출하는 특징점 추출부, 및 추출된 특징점에 기반하는 템플릿과 상기 데이터베이스에 저장된 템플릿에 기초하여 사용자의 얼굴을 인증하는 인증부를 포함할 수 있다.According to another aspect, the face recognition system may include a storage control unit for storing templates corresponding to various face images of a user in a database, and a quality test for performing a quality test on a face image photographed against a user for authentication. A test unit, a preprocessing unit for preprocessing the face image that has passed the quality test, a feature point extracting unit for extracting feature points from the face image on which the preprocessing has been performed, and a template based on the extracted feature points and the template It may include an authentication unit for authenticating the face of the user based on the template stored in the database.

얼굴 인식 시스템 상기 인증부는, 상기 사용자를 대상으로 촬영된 복수의 얼굴 이미지를 대상으로 추출된 이미지 별 특징점을 통합 특징점으로 변환하고, 상기 통합 특징점과 상기 저장된 템플릿에 해당하는 특징점에 기초하여 상기 사용자의 얼굴을 인증할 수 있다.Face recognition system The authentication unit converts a feature point for each image extracted from a plurality of face images photographed for the user into an integrated feature point, and based on the integrated feature point and the feature point corresponding to the stored template, You can authenticate your face.

본 발명은, 스마트폰 등과 같이 연산 성능이 낮은 환경에서, 동일 사용자에 해당하는 다양한 얼굴 이미지를 동시에 사용하여 사용자의 얼굴을 인식 및 인증함으로써, 딥러닝 등의 높은 연산 처리없이도 얼굴 인식 성능을 향상시킬 수 있다. 즉, 동일 사용자의 다양한 얼굴 이미지가 유사한 분포를 가진 특징점 벡터를 가지도록 기계 학습을 설계하고, 동일 사용자에 대한 오판단(즉, 인식 오류)가 일어날 때의 특징점 벡터의 원소 분포가 정상적인 경우와 일정 수준 이상으로 달라지는 점을 고려하여 얼굴 인식을 수행함으로써, 다양한 환경에서 스마트폰 등의 카메라를 통해 촬영된 사용자의 얼굴을 보다 정확하게 인식하고, 결국, 모바일 뱅킹, 결제 등의 보안 인증 시 사용자를 인증할 수 있다.The present invention, in a low computing performance environment such as a smart phone, by using a variety of face images corresponding to the same user at the same time to recognize and authenticate the user's face, thereby improving face recognition performance without high computational processing such as deep learning Can be. That is, the machine learning is designed so that various face images of the same user have a similar point vector, and the element distribution of the feature point vector when the misjudgment (ie, recognition error) for the same user occurs is constant and constant. By performing face recognition in consideration of the difference above level, it is possible to recognize user's face more accurately captured by cameras such as smartphones in various environments, and to authenticate users during security authentication such as mobile banking and payment. Can be.

도 1은 본 발명의 일실시예에 있어서, 다수의 얼굴 이미지를 기반으로 사용자의 얼굴을 인식하는 방법을 나타내는 개념도이다.
도 2는 본 발명의 일실시예에 있어서, 얼굴 인식 시스템의 내부 구성을 도시한 블록도이다.
도 3은 본 발명의 일실시예에 있어서, 얼굴 인식 방법을 도시한 흐름도이다.
도 4는 본 발명의 일실시예에 있어서, 복수의 얼굴 이미지에서 추출된 특징점들을 통합 특징점으로 변환하는 동작을 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 통합 특징점의 원소값을 계산하는 그래프를 나타내는 도면이다.
1 is a conceptual diagram illustrating a method of recognizing a face of a user based on a plurality of face images according to an embodiment of the present invention.
2 is a block diagram illustrating an internal configuration of a face recognition system according to an exemplary embodiment of the present invention.
3 is a flowchart illustrating a face recognition method according to an embodiment of the present invention.
4 is a diagram illustrating an operation of converting feature points extracted from a plurality of face images into integrated feature points according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a graph for calculating element values of integrated feature points according to one embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 실시예들은 특정 사용자의 다양한 얼굴 이미지를 이용하여 사용자의 얼굴을 인식하고 인증하는 기술에 관한 것으로서, 특히, 다수의 얼굴 이미지로부터 하나의 안정적을 특징점 벡터인 통합 특징점을 추출하고, 추출된 통합 특징점과 미리 저장된 특정 사용자의 탬플릿(template)에 기초하여 사용자의 얼굴을 인식 및 인증하는 기술에 관한 것이다. The present embodiments relate to a technology for recognizing and authenticating a user's face using various face images of a specific user. In particular, the present invention extracts an integrated feature point, which is a single feature point vector, from a plurality of face images, and extracts the extracted feature points. And a technology for recognizing and authenticating a face of a user based on a template of a specific user stored in advance.

본 실시예들에서, "탬플릿(template)"은 사용자의 얼굴 이미지에서 추출된 특징점들을 모아 놓은 것으로, 사용자의 얼굴 인식 및 인증을 위해 이용될 수 있다. 예컨대, 카메라를 통해 촬영된 얼굴 이미지에 해당하는 템플릿과 데이터베이스에 미리 등록된 템플릿의 비교를 통해 사용자의 얼굴 인식 및 인증이 수행될 수 있다.In the present embodiments, a "template" is a collection of feature points extracted from a face image of a user and may be used for face recognition and authentication of the user. For example, a user's face recognition and authentication may be performed by comparing a template corresponding to a face image photographed through a camera with a template previously registered in a database.

본 실시예들에서, "통합 특징점"은 다수의 얼굴 이미지들 각각으로부터 추출된 특정 위치에 해당하는 특징점들을 얼굴 인식 시 이용하기 위해 하나의 특징점으로 통합 변환한 것을 나타낼 수 있다. 예컨대, 얼굴 이미지가 10개인 경우, 제1 이미지에서 추출된 s개의 특징점들, 제2 이미지에서 추출된 s개의 특징점들, ?, 제10 이미지에서 추출된 s개의 특징점들 중 j번째 위치에 해당하는 10개의 특징점들(즉, 제1 내지 제10 이미지 각각에 해당하는 j번째 특징점들)을 얼굴 인식을 위해 하나의 특징점으로 변환한 특징점이 통합 특징점에 해당할 수 있다.In the present embodiments, the “integrated feature point” may indicate that the feature points corresponding to a specific location extracted from each of the plurality of face images are integrated and converted into one feature point for use in face recognition. For example, when there are 10 face images, the j th position corresponds to the s feature points extracted from the first image, the s feature points extracted from the second image,?, And the s feature points extracted from the 10th image. A feature point obtained by converting ten feature points (ie, j-th feature points corresponding to each of the first to tenth images) into one feature point for face recognition may correspond to an integrated feature point.

도 1은 본 발명의 일실시예에 있어서, 다수의 얼굴 이미지를 기반으로 사용자의 얼굴을 인식하는 방법을 나타내는 개념도이다.1 is a conceptual diagram illustrating a method of recognizing a face of a user based on a plurality of face images according to an embodiment of the present invention.

도 1을 참고하면, 사용자의 얼굴은 인식 및 인증하기 위해서는 크게 사용자의 얼굴 이미지를 등록하는 프로세스(101) 및 인식 및 인증 프로세스(102)로 구분될 수 있다.Referring to FIG. 1, a face of a user may be divided into a process 101 of registering a face image of the user and a recognition and authentication process 102 in order to recognize and authenticate the user's face.

등록 프로세스(101)는 웃는 얼굴, 눈부심에 찡그린 얼굴, 놀란 얼굴, 바람이 불어 상기된 얼굴 등의 다양한 표정, 다양한 각도, 다양한 환경(오전, 오후, 비오는날, 눈오는 날, 더운날 등)에서 동일한 사용자의 얼굴을 대상으로 촬영된 다양한 얼굴 이미지를 사용자 인증을 위해 데이터베이스(130)에 해당 사용자의 식별자 정보와 연관하여 등록 및 저장하는 프로세스를 나타낼 수 있다.The registration process 101 is the same in a variety of facial expressions, such as smiley faces, frowned faces, surprised faces, wind-reminded faces, various angles, and various environments (am, afternoon, rainy days, snowy days, hot days, etc.). A process of registering and storing various face images photographed for a user's face in association with identifier information of the user in the database 130 for user authentication may be described.

등록 프로세스(101)는 데이터베이스(130)에 등록하고자 하는 다수의 이미지들을 대상으로 전처리(processing)를 수행하는 과정(110), 전처리된 이미지들을 대상으로 특징점(feature)을 추출하는 과정(120), 추출된 특징점을 기반으로 하는 템플릿(template)을 해당 사용자의 식별자 정보와 연관하여 데이터베이스(130)에 저장하는 과정을 포함할 수 있다.The registration process 101 performs a process 110 on a plurality of images to be registered in the database 130, extracts a feature 120 from the preprocessed images, 120. And storing a template based on the extracted feature point in the database 130 in association with identifier information of the corresponding user.

인식 및 인증 절차(102)는 사용자의 얼굴 인식 및 인증을 위해 사용자의 얼굴을 촬영한 다수의 이미지를 대상으로 품질 테스트를 수행하는 과정(140), 품질 테스트를 통과한 일정 품질 지수 이상의 이미지를 대상으로 전처리를 수행하는 과정(150), 전처리된 이미지를 대상으로 특징점을 추출하는 과정(160), 추출된 특징점들을 위치 별로 하나로 모아 통합하는 과정(170), 및 통합 특징점을 기반으로 하는 템플릿(template)과 데이터베이스(130)에 저장된 템플릿을 비교하여 사용자의 얼굴을 인식하고 인증을 수행한 결과를 제공하는 과정(180)을 포함할 수 있다.The recognition and authentication procedure 102 is a process of performing a quality test on a plurality of images photographing a user's face for recognition and authentication of the user's face (140). The process of performing the pre-processing (150), the process of extracting the feature points from the pre-processed image (160), the process of integrating the extracted feature points into one by location (170), and a template based on the integrated feature points ) And comparing the template stored in the database 130 to provide a result of recognizing a user's face and providing a result of performing authentication.

도 2는 본 발명의 일실시예에 있어서, 얼굴 인식 시스템의 내부 구성을 도시한 블록도이고, 도 3은 본 발명의 일실시예에 있어서, 얼굴 인식 방법을 도시한 흐름도이다.2 is a block diagram illustrating an internal configuration of a face recognition system according to an embodiment of the present invention, and FIG. 3 is a flowchart illustrating a face recognition method according to an embodiment of the present invention.

본 실시예에 따른 얼굴 인식 시스템(200)은 얼굴 인식을 위한 컴퓨터 프로그램의 명령을 처리하도록 구성된 컴퓨팅 시스템으로서, 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240), 및 데이터베이스(250)를 포함할 수 있다. 메모리(240)는 운영체제(241) 및 서비스 제공 루틴(242)를 포함할 수 있다. 프로세서(210)는 저장 제어부(211), 품질 테스트부(212), 전처리부(213), 특징점 추출부(214) 및 인증부(215)를 포함할 수 있다. 다른 실시예들에서 얼굴 인식 시스템(200)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 얼굴 인식 시스템(200)은 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.The face recognition system 200 according to the present embodiment is a computing system configured to process instructions of a computer program for face recognition, and includes a processor 210, a bus 220, a network interface 230, a memory 240, and Database 250 may be included. The memory 240 may include an operating system 241 and a service providing routine 242. The processor 210 may include a storage control unit 211, a quality test unit 212, a preprocessor 213, a feature point extractor 214, and an authentication unit 215. In other embodiments, facial recognition system 200 may include more components than the components of FIG. 2. However, it is not necessary to clearly show most of the prior art components. For example, face recognition system 200 may include other components, such as a display or a transceiver.

메모리(240)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(240)에는 운영체제(241)와 서비스 제공 루틴(242)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(240)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(230)를 통해 메모리(240)에 로딩될 수도 있다.The memory 240 is a computer-readable recording medium and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In addition, the memory 240 may store program codes for the operating system 241 and the service providing routine 242. These software components may be loaded from a computer readable recording medium separate from the memory 240 using a drive mechanism (not shown). Such a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like. In other embodiments, the software components may be loaded into the memory 240 via the network interface 230 rather than the computer readable recording medium.

버스(220)는 얼굴 인식 시스템(200)의 구성요소들 간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(220)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus 220 may enable communication and data transmission between components of the face recognition system 200. The bus 220 may be configured using a high-speed serial bus, a parallel bus, a storage area network and / or other suitable communication technology.

네트워크 인터페이스(230)는 얼굴 인식 시스템(200)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(230)는 얼굴 인식 시스템(200)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다.The network interface 230 may be a computer hardware component for connecting the face recognition system 200 to a computer network. The network interface 230 may connect the face recognition system 200 to a computer network through a wireless or wired connection.

데이터베이스(250)는 복수의 사용자들의 다양한 얼굴 이미지 관련 템플릿(template)을 해당 사용자의 식별자 정보와 연관하여 저장 및 유지할 수 있다. 즉, 특정 사용자를 대상으로 복수의 얼굴 이미지들로부터 추출된 특징점을 기반으로 하는 복수의 템플릿이 해당 사용자의 식별자 정보(예컨대, ID 등)와 연관하여 데이터베이스(250)에 저장 및 유지될 수 있다. The database 250 may store and maintain various facial image templates of a plurality of users in association with identifier information of the corresponding user. That is, a plurality of templates based on feature points extracted from a plurality of face images for a specific user may be stored and maintained in the database 250 in association with identifier information (eg, ID) of the corresponding user.

데이터베이스(250)는 얼굴 인식 시스템(200) 내에 포함될 수도 있고, 얼굴 인식 시스템(200)과는 별도의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재할 수도 있다. 얼굴 인식 시스템(200)은 서버에 접속한 사용자 단말로 사용자의 얼굴 인식 및 인증을 제공하도록 플랫폼(platform) 형태로 구현될 수도 있고, 사용자 단말 상에 사용자의 얼굴 인식 및 인증을 제공하는 어플리케이션(application, 즉, 서비스 앱) 형태로 구현될 수도 있다.The database 250 may be included in the face recognition system 200 or may exist as an external database built on another system separate from the face recognition system 200. The face recognition system 200 may be implemented in a platform form to provide face recognition and authentication of a user to a user terminal connected to a server, or an application for providing a face recognition and authentication of a user on the user terminal. That is, it may be implemented in the form of a service app.

프로세서(210)는 기본적인 산술, 로직 및 얼굴 인식 시스템(200)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(240) 또는 네트워크 인터페이스(230)에 의해, 그리고 버스(220)를 통해 프로세서(210)로 제공될 수 있다. 프로세서(210)는 저장 제어부(211), 품질 테스트부(212), 전처리부(213), 특징점 추출부(214) 및 인증부(215)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(240)와 같은 기록 장치에 저장될 수 있다.The processor 210 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations of the face recognition system 200. The instructions may be provided to the processor 210 by the memory 240 or the network interface 230 and via the bus 220. The processor 210 may be configured to execute program codes for the storage controller 211, the quality test unit 212, the preprocessor 213, the feature point extractor 214, and the authenticator 215. Such program code may be stored in a recording device such as memory 240.

저장 제어부(211), 품질 테스트부(212), 전처리부(213), 특징점 추출부(214) 및 인증부(215)는 도 3의 단계들(310 내지 350 단계)을 수행하기 위해 구성될 수 있다.The storage control unit 211, the quality test unit 212, the preprocessor 213, the feature point extractor 214, and the authentication unit 215 may be configured to perform the steps 310 to 350 of FIG. 3. have.

310 단계에서, 저장 제어부(211)는 사용자의 다양한 얼굴 이미지에 해당하는 템플릿(template)을 해당 사용자의 식별자 정보와 연관하여 데이터베이스에 등록 및 저장할 수 있다. 여기서, 템플릿은 사용자의 얼굴은 인식 및 인증하기 위해 추출된 특징점을 기반으로 하는 형상(예컨대, 얼굴 형상 등)을 나타낼 수 있다. 그리고, 사용자 별로 하나의 얼굴 이미지가 아닌 다양한 환경(예컨대, 날씨, 조도, 시간 등)에서의 얼굴 이미지, 다양한 표정의 얼굴 이미지, 다양한 촬영 각도에서의 얼굴 이미지의 템플릿이 해당 사용자의 식별자 정보와 연관하여 데이터베이스에 등록 및 저장될 수 있다.In operation 310, the storage control unit 211 registers and stores a template corresponding to various face images of the user in a database in association with identifier information of the corresponding user. Here, the template may represent a shape (eg, a face shape, etc.) based on the extracted feature points for recognizing and authenticating the user's face. In addition, a template of a face image in various environments (eg, weather, illumination, time, etc.), a face image of various expressions, and a face image at various shooting angles is not associated with a single face image for each user. Can be registered and stored in the database.

320 단계에서, 품질 테스트부(212)인증을 원하는 사용자를 대상으로 촬영된 얼굴 이미지에 대한 품질 테스트를 수행할 수 있다. 이때, 품질 테스트에 이용될 이미지는 복수개일 수 있다. In step 320, the quality test unit 212 may perform a quality test on the face image photographed for the user who wants to authenticate. In this case, the image to be used for the quality test may be a plurality.

품질 테스트부(212)는 스마트폰 등의 카메라를 통해 촬영된 복수개의 사용자의 얼굴 이미지 중 미리 지정된 일정 품질 지수 이상에 해당하는 얼굴 이미지를 결정하는 품질 테스트를 수행할 수 있다. 즉, 품질 테스트는 동일 사용자의 얼굴을 촬영한 서로 다른 얼굴 이미지 중 사용자의 얼굴 인식 및 인증에 보다 적합한 품질의 얼굴 이미지를 선별 과정에 해당할 수 있다. The quality test unit 212 may perform a quality test that determines a face image corresponding to a predetermined predetermined quality index or more among a plurality of user's face images photographed through a camera such as a smartphone. That is, the quality test may correspond to a screening process of a face image having a quality more suitable for face recognition and authentication of the user among different face images photographing the face of the same user.

일례로, 특정 사용자의 템플릿을 T라고 가정하면, T는 아래의 수학식 1과 같이 표현될 수 있다.For example, assuming that a template of a specific user is T, T may be expressed as Equation 1 below.

[수학식 1][Equation 1]

Figure 112018053070345-pat00001
Figure 112018053070345-pat00001

수학식 1에 따르면, 특정 사용자의 템플릿 T는 특정 사용자의 얼굴 이미지에서 추출된 특징점 Y[1], Y[2], ?의 집합으로 표현될 수 있다. 이때, 사용자의 얼굴 인식 및 인증을 위해 n개의 얼굴 이미지(즉, 카메라를 통해 촬영된 n개의 얼굴 이미지)가 입력될 수 있다. 여기서, 각 얼굴 이미지는 요구된 특정 포즈를 취한 얼굴 표정을 촬영한 이미지에 해당할 수 있다. 그러면, 품질 테스트부(212)는 n개의 얼굴 이미지를 대상으로 품질이 우수한 m개의 얼굴 이미지를 결정할 수 있다. 예컨대, 품질 테스트부(212)는 아래의 수학식 2와 같이 품질 테스트함수 QT()에 기초하여 복수의 얼굴 이미지들 중 일정 품질 지수에 해당하는 품질이 우수한 m개의 얼굴 이미지를 결정할 수 있다.According to Equation 1, the template T of a specific user may be expressed as a set of feature points Y [1], Y [2],? In this case, n face images (that is, n face images photographed through a camera) may be input for face recognition and authentication of a user. Here, each face image may correspond to an image photographing a facial expression in a specific pose. Then, the quality test unit 212 may determine m face images having excellent quality based on the n face images. For example, the quality test unit 212 may determine m face images having excellent quality corresponding to a certain quality index among the plurality of face images based on the quality test function QT () as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure 112018053070345-pat00002
Figure 112018053070345-pat00002

수학식 2에서, QT()는 품질 테스트 함수, X[n]은 특정 사용자에 해당하는 n개의 얼굴 이미지, Z[m]은 일정 품질 지수 이상에 해당하는 m개의 얼굴 이미지를 나타낼 수 있다. 여기서, m=n에 해당할 수 있다.In Equation 2, QT () may represent a quality test function, X [n] represents n face images corresponding to a specific user, and Z [m] may represent m face images corresponding to a predetermined quality index or more. Here, m = n may correspond.

이때, 품질 테스트부(212)는 카메라를 통해 촬영된 서로 다른 복수의 얼굴 이미지를 대상으로 LoG(Laplacian of Gaussian) 필터를 이용하여 계산된 분산, 밝기의 평균, 밝기의 표준 편차, 및 얼굴 이미지들 간의 유사도 중 적어도 하나에 기초하여 일정 품질 지수 이상의 얼굴 이미지를 결정할 수 있다. 예컨대, 품질 테스트부(212)는 복수의 얼굴 이미지를 대상으로 LoG 필터를 적용한 후 분산을 계산함으로써, 선명도가 일정 수준 이상인 얼굴 이미지를 결정할 수 있다. 그리고, 밝기의 평균 및 표준편차가 일정 평균 및 일정 표준편차 이상인 얼굴 이미지를 결정할 수 있다. 이외에 복수의 얼굴 이미지들 서로 간의 유사도를 측정할 수 있으며, 유사도가 일정값 이상인 얼굴 이미지를 결정할 수 있다. 그리고, 품질 테스트부(212)는 분산, 밝기의 평균, 표준 편차 및 유사도 중 적어도 둘 이상을 다양하게 혼합하여 일정 품질 이상의 얼굴 이미지를 결정할 수도 있다.At this time, the quality test unit 212 is a variance, average of brightness, standard deviation of brightness, and face images calculated using a Laglacian of Gaussian (LoG) filter on a plurality of different face images photographed by a camera. A face image of at least a certain quality index may be determined based on at least one of the similarities between the two. For example, the quality test unit 212 may determine a face image having a sharpness or more by applying a LoG filter to a plurality of face images and calculating dispersion. Then, a face image having a mean and standard deviation of brightness greater than or equal to a certain mean and a standard deviation may be determined. In addition, the similarity between the plurality of face images may be measured and a face image having a similarity or more may be determined. In addition, the quality test unit 212 may determine a face image having a predetermined quality or more by variously mixing at least two or more of dispersion, average of brightness, standard deviation, and similarity.

예컨대, 분산을 기반으로 선명하면서 밝기의 평균과 표준편차가 일정 이상으로 밝은 얼굴 이미지를 얼굴 인식 및 인증에 이용될 이미지로 선별할 수 있다. 이러한 품질 테스트는 일정 품질 지수보다 작은 얼굴 이미지를 인식 및 인증에 사용하지 않기 위한 것으로, 선택되는 얼굴 이미지의 개수 m은 유동적일 수 있다. 즉, 사용자가 얼굴 인식을 시도할 때마다 품질 테스트를 통과한 얼굴 이미지의 개수는 달라질 수 있다. 예컨대, 일주일 전에 얼굴 인식 및 인증을 시도한 경우, 품질 테스트를 통과한 이미지의 개수는 5개이고, 오늘 품질 테스트를 통과한 이미지의 개수는 10개 등으로 유동적일 수 있다. 이때, 품질 테스트부(212)는 인증을 원하는 사용자를 대상으로 촬영된 얼굴 이미지가 품질 테스트를 통과하지 않은 경우, 사용자의 인증을 거절할 수 있다.For example, a face image that is clear based on variance and whose brightness and average deviation are bright may be selected as an image to be used for face recognition and authentication. This quality test is for not using a face image smaller than a certain quality index for recognition and authentication, and the number m of face images selected may be flexible. That is, each time the user attempts to recognize the face, the number of face images passing the quality test may vary. For example, when face recognition and authentication are attempted a week ago, the number of images that passed the quality test is five, and the number of images that passed the quality test today may be as flexible as ten. In this case, the quality test unit 212 may reject the authentication of the user when the face image photographed for the user who wants to authenticate does not pass the quality test.

330 단계에서, 전처리부(213)는 품질 테스트를 통과한 얼굴 이미지를 대상으로 전처리(preprocessing)를 수행할 수 있다. In operation 330, the preprocessor 213 may perform preprocessing on the face image that has passed the quality test.

일례로, 전처리부(213)는 n개의 얼굴 이미지들 중 품질 테스트를 통과한 m개의 이미지를 대상으로, 특징점을 추출하기 위한 전처리를 수행할 수 있다. 즉, 전처리부(213)는 얼굴 이미지에서 눈, 코, 입, 눈썹 등의 특정 형상을 나타내는 특징점들을 추출하기 위해, 컬러 이미지를 그레이스케일 이미지로 변환하는 등의 사전 처리를 수행할 수 있다.For example, the preprocessor 213 may perform preprocessing for extracting feature points from m images having passed the quality test among the n face images. That is, the preprocessor 213 may perform preprocessing such as converting a color image into a grayscale image to extract feature points representing a specific shape such as eyes, nose, mouth, and eyebrows from the face image.

340 단계에서, 특징점 추출부(214)는 전처리가 수행된 복수개의 얼굴 이미지를 대상으로 얼굴 이미지 별 특징점을 추출할 수 있다.In operation 340, the feature point extractor 214 may extract feature points for each face image from a plurality of face images on which preprocessing has been performed.

350 단계에서, 인증부(215)는 추출된 특징점에 기반하는 템플릿(template)과 데이터베이스에 저장된 템플릿에 기초하여 사용자의 얼굴을 인식하여 사용자에 대한 인증을 수행할 수 있다.In operation 350, the authenticator 215 may recognize the user's face based on the extracted template based on the extracted feature point and the template stored in the database, and perform authentication on the user.

351 단계에서, 인증부(215)는 사용자를 대상으로 촬영된 복수의 얼굴 이미지를 대상으로 추출된 이미지 별 특징점을 통합할 수 있다. 즉, 인증부(215)는 품질 테스트를 통과한 복수의 얼굴 이미지를 대상으로 추출된 이미지 별 특징점을 통합 특징점으로 변환할 수 있다.In operation 351, the authenticator 215 may integrate feature points for each image extracted from the plurality of face images photographed by the user. That is, the authenticator 215 may convert feature points for each image extracted from the plurality of face images that have passed the quality test into integrated feature points.

352 단계에서, 인증부(215)는 통합된 특징점과 데이터베이스에 저장된 템플릿에 해당하는 특징점에 기초하여 사용자의 얼굴을 인증할 수 있다. 즉, 인증부(215)는 변환된 통합 특징점과 데이터베이스에 저장된 템플릿에 해당하는 특징점에 기초하여 사용자의 얼굴을 인식 및 인증할 수 있다. 여기서, 특징점 변환은 아래의 수학식 3과 같이 표현되는 통합 함수 MG()에 기초하여 수행될 수 있다.In operation 352, the authenticator 215 may authenticate the face of the user based on the integrated feature points and the feature points corresponding to the template stored in the database. That is, the authenticator 215 may recognize and authenticate the face of the user based on the converted integrated feature point and the feature point corresponding to the template stored in the database. Here, the feature point transformation may be performed based on the integrated function MG () expressed as in Equation 3 below.

[수학식 3][Equation 3]

Figure 112018053070345-pat00003
Figure 112018053070345-pat00003

수학식 3에서, MG()는 통합 함수를 나타내고, F[m]은 품질 테스트를 통과한 m개의 전처리된 얼굴 이미지에서 추출된 특징점을 나타낼 수 있다. Y2는 통합 특징점으로서, 데이터베이스에 저장된 템플릿 T와의 비교를 위해 이용될 수 있다. 즉, Y2는 {F[1], F[2], …, F[m]}을 통합 함수 MG( )를 통하여 사용자의 얼굴 인식 및 인증을 위해 변환된 하나의 통합 특징점을 나타낼 수 있다. In Equation 3, MG () may represent an integration function, and F [m] may represent a feature point extracted from m preprocessed face images passing the quality test. Y2 is an integrated feature point and can be used for comparison with the template T stored in the database. That is, Y2 is {F [1], F [2],... , F [m]} may represent one integrated feature point converted for face recognition and authentication of the user through the integration function MG ().

이하에서는 도 4를 참고하여 특징점을 통합하는 동작에 대해 보다 상세히 설명하기로 한다. Hereinafter, an operation of incorporating feature points will be described in more detail with reference to FIG. 4.

도 4는 본 발명의 일실시예에 있어서, 복수의 얼굴 이미지에서 추출된 특징점들을 통합 특징점으로 변환하는 동작을 도시한 도면이다.4 is a diagram illustrating an operation of converting feature points extracted from a plurality of face images into integrated feature points according to an embodiment of the present invention.

도 4를 참고하면, {F[1], F[2], …, F[m]}는 품질 테스트 통과 및 전처리된 m개의 얼굴 이미지들 각각에서 추출된 특징점 집합을 나타낼 수 있다. 즉, F[1]은 얼굴 이미지 1에서 추출된 특징점들을 포함하는 집합, F[2]는 얼굴 이미지 2에서 추출된 특징점들을 포함하는 집합, F[m]은 m번째 얼굴 이미지에서 추출된 특징점들을 포함하는 집합을 나타낼 수 있다. 그러면, 인증부(215)는 m개의 얼굴 이미지 별 특징점{F[1], F[2], …, F[m]}을 통합 특징점 집합으로 변환할 수 있다.4, {F [1], F [2],... , F [m]} may represent a set of feature points extracted from each of the m face images that have passed the quality test and are preprocessed. That is, F [1] is a set including feature points extracted from face image 1, F [2] is a set including feature points extracted from face image 2, and F [m] is a feature point extracted from m th face image. It can represent a containing set. Then, the authentication unit 215 is the feature points {F [1], F [2], ... for each of the m face images. , F [m]} can be converted to a set of integrated feature points.

일례로, 통합 함수 MG()에 주어지는 각 특징점 F[i]는 사이즈 s의 벡터로 표현될 수 있으며, 아래의 수학식 4와 같이 각 원소는 크기를 비교할 수 있는 숫자로 표현될 수 있다. For example, each feature point F [i] given to the integration function MG () may be represented by a vector of size s, and each element may be represented by a number capable of comparing sizes, as shown in Equation 4 below.

[수학식 4][Equation 4]

Figure 112018053070345-pat00004
Figure 112018053070345-pat00004

수학식 4에 따르면, 모든

Figure 112018053070345-pat00005
에 대해서, j번째 위치의 원소들을 모아 놓은 새로운 벡터 Y[j] = {F[1][j], F[2][j], …, F[m][j]}가 얻어질 수 있다. 즉, Y[j]는 m개의 얼굴 이미지 별로 존재하는 복수의 특징점들 중 각 이미지 별 j번째 위치에 해당하는 특징점을 모아서 포함하는 벡터를 나타낼 수 있다. 그러면, 모든 위치
Figure 112018053070345-pat00006
에 대하여 {Y[1], Y[2], …, Y[s]}가 얻어질 수 있다. 각 벡터 Y[j]를 정렬하면 {Y[j][1], Y[j][2], …, Y[j][m]}가 되고, 즉,
Figure 112018053070345-pat00007
로 표현될 수 있다. 위의 수학식 4의 이미지 별로 추출된 특징점들 중 특정 위치 j에 해당하는 이미지 별 특징점을 모아 통합한 통합 특징점으로 변환하는 것은 아래의 수학식 5와 같이 표현될 수 있다.According to equation (4), all
Figure 112018053070345-pat00005
For a new vector Y [j] = {F [1] [j], F [2] [j],... , F [m] [j]} can be obtained. That is, Y [j] may represent a vector including a feature point corresponding to the j th position of each image among a plurality of feature points existing for each of m face images. Then all positions
Figure 112018053070345-pat00006
With respect to {Y [1], Y [2],. , Y [s]} can be obtained. Align each vector Y [j] with {Y [j] [1], Y [j] [2],... , Y [j] [m]}, that is,
Figure 112018053070345-pat00007
It can be expressed as. Among the feature points extracted for each image of Equation 4 above, the feature points for each image corresponding to a specific position j may be collected and converted into an integrated feature point, which may be expressed as Equation 5 below.

[수학식 5][Equation 5]

Figure 112018053070345-pat00008
Figure 112018053070345-pat00008

그러면, 인증부(215)는 수학식 5에 기초하여 변환된 각 위치 별 특징점, 즉, s개의 통합 특징점과 데이터베이스에 저장된 템플릿의 특징점에 기초하여 사용자의 얼굴 인식 및 인증을 수행할 수 있다. s개의 통합 특징점과 상기 템플릿의 특징점 비교를 위해 m개의 이미지를 기반으로 특정 위치의 특징점이 하나로 통합된 통합 특징점의 원소값을 계산해야 하며, 통합 특징점의 원소값은 도 5를 참고하여 설명하기로 한다.Then, the authenticator 215 may perform face recognition and authentication of the user based on the transformed feature points for each location, that is, the s integrated feature points and the feature points of the template stored in the database, based on Equation (5). In order to compare s integrated feature points and the feature points of the template, an element value of an integrated feature point in which a feature point of a specific location is integrated is calculated based on m images. The element value of the integrated feature point will be described with reference to FIG. 5. do.

도 5는 본 발명의 일실시예에 있어서, 통합 특징점의 원소값을 계산하는 그래프를 나타내는 도면이다. FIG. 5 is a diagram illustrating a graph for calculating element values of integrated feature points according to one embodiment of the present invention.

Y[j][m/2](2분위, 50% 지점, 501)으로부터 Y[j][m/4](1분위, 25% 지점, 502)와 Y[j][3m/4](3분위, 75% 지점, 503)의 거리가 미리 지정된 기준 배수(예컨대, a배) 이상의 차이가 발생하면, 인증부(215)는 Y2[j] = (Y[j][m/4] + Y[j][3m/4])/2를 j번째 위치에 해당하는 통합 특징점의 원소값으로 계산할 수 있다. 이때, 상기 거리가 미리 지정된 기준 배수(예컨대, a배) 이상의 차이가 발생하지 않는다면, 인증부(215)는 Y2[j] = Y[j][m/2] (2분위, 50% 지점)를 통합 특징점의 원소값으로 계산할 수 있다.Y [j] [m / 2] (second quartile, 50% point, 501) from Y [j] [m / 4] (first quartile, 25% point, 502) and Y [j] [3m / 4] ( If the distance between the third quartile, 75% point, and 503 occurs by more than a predetermined reference multiple (e.g., a times), the authenticator 215 determines that Y2 [j] = (Y [j] [m / 4] + Y [j] [3m / 4]) / 2 can be calculated as the element value of the integrated feature point corresponding to the j th position. At this time, if the distance does not occur more than a predetermined reference multiple (for example, a times), the authentication unit 215 is Y2 [j] = Y [j] [m / 2] (second quartile, 50% point) Can be calculated as the element value of the integrated feature point.

즉, 도 5의 510 및 520을 참고하면, d1 = Y[j][m/2] - Y[j][m/4], d2 = Y[j][3m/4] - Y[j][m/2] 라고 할 때,

Figure 112018053070345-pat00009
이거나
Figure 112018053070345-pat00010
이면 통합 특징점의 원소값 Y2[j]는 아래의 수학식 6에 기초하여 계산될 수 있다.That is, referring to 510 and 520 of FIG. 5, d1 = Y [j] [m / 2]-Y [j] [m / 4], d2 = Y [j] [3m / 4]-Y [j] When you say [m / 2]
Figure 112018053070345-pat00009
Or
Figure 112018053070345-pat00010
The element value Y2 [j] of the integrated feature point may be calculated based on Equation 6 below.

[수학식 6][Equation 6]

Figure 112018053070345-pat00011
Figure 112018053070345-pat00011

이때,

Figure 112018053070345-pat00012
이거나
Figure 112018053070345-pat00013
이 아닌 경우, 즉, d1이 기준 배수(a)와 d2의 곱 이하이거나, d2가 기준 배수(a)와 d1의 곱 이하인 경우, 인증부(215)는 통합 특징점의 원소값을 아래의 수학식 7에 기초하여 계산할 수 있다.At this time,
Figure 112018053070345-pat00012
Or
Figure 112018053070345-pat00013
If not, i.e., if d1 is less than or equal to the product of the reference multiple (a) and d2, or if d2 is less than or equal to the product of the reference multiple (a) and d1, the authenticator 215 determines the element value of the integrated feature point as It can calculate based on 7.

[수학식 7][Equation 7]

Figure 112018053070345-pat00014
Figure 112018053070345-pat00014

인증부(215)는 수학식 7을 기반으로 계산된 특정 위치에 해당하는 통합 특징점의 원소값과 데이터베이스에 저장된 템플릿 T를 구성하는 특징점의 원소값에 기초하여 사용자의 얼굴 인식 및 인증을 수행할 수 있다. The authenticator 215 may perform face recognition and authentication of the user based on the element values of the integrated feature points corresponding to the specific positions calculated based on Equation 7 and the element values of the feature points constituting the template T stored in the database. have.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 시스템을 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.Methods according to an embodiment of the present invention may be implemented in program instruction form that can be executed by various computer systems and recorded in a computer readable medium.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing 엔트리) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). Can be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For ease of understanding, the processing device may be described as one being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (7)

얼굴 인식 방법에 있어서,
사용자의 다양한 얼굴 이미지들에 해당하는 템플릿(template)을 데이터베이스에 저장하는 단계;
촬영되는 복수개의 얼굴 이미지들에 대한 품질 테스트를 수행하여, 상기 촬영되는 얼굴 이미지들의 품질들을 각각 측정하는 단계;
상기 품질들과 미리 지정된 일정 품질 지수를 비교하여, 상기 촬영되는 얼굴 이미지들 중 적어도 어느 두 개를 결정하는 단계;
상기 결정된 얼굴 이미지들을 대상으로 전처리(preprocessing)하는 단계;
상기 전처리된 얼굴 이미지들을 대상으로 상기 전처리된 얼굴 이미지들 각각에서 서로 다른 위치들로부터 복수개의 특징점들을 각각 추출하는 단계;
상기 특징점들을 통합 특징점으로 변환하는 단계; 및
상기 통합 특징점에 기반하는 템플릿과 상기 저장된 템플릿에 기초하여 상기 사용자의 얼굴을 인증하는 단계
를 포함하고,
상기 통합 특징점은 상기 위치들에 각각 대응하는 복수개의 원소값들을 포함하고, 상기 원소값들 각각은 상기 특징점들 중 동일한 위치의 적어도 어느 두 개를 기반으로 계산되는 얼굴 인식 방법.
In the face recognition method,
Storing a template corresponding to various face images of a user in a database;
Performing a quality test on the plurality of face images to be photographed, and measuring the quality of each of the face images to be photographed;
Comparing at least two predetermined quality indexes with each other to determine at least two of the photographed face images;
Preprocessing the determined face images;
Extracting a plurality of feature points from different positions in each of the preprocessed face images with respect to the preprocessed face images;
Converting the feature points into an integrated feature point; And
Authenticating the face of the user based on the template based on the integrated feature point and the stored template
Including,
The integrated feature point includes a plurality of element values respectively corresponding to the positions, and each of the element values is calculated based on at least any two of the same positions among the feature points.
삭제delete 제1항에 있어서,
상기 촬영되는 얼굴 이미지들의 품질들을 각각 측정하는 단계는,
상기 촬영되는 얼굴 이미지들을 대상으로 LoG(Laplacian of Gaussian) 필터를 이용하여 계산된 분산, 밝기의 평균, 밝기의 표준 편차, 및 상기 촬영되는 얼굴 이미지들 간의 유사도 중 적어도 하나에 기초하여, 상기 촬영되는 얼굴 이미지들의 품질들을 각각 측정하는 얼굴 인식 방법.
The method of claim 1,
Measuring each of the quality of the face images to be photographed,
The photographed face images are photographed based on at least one of variance calculated using a Laplacian of Gaussian (LoG) filter, an average of brightness, a standard deviation of brightness, and similarity between the photographed face images. Face recognition method for measuring the quality of face images respectively.
제1항에 있어서,
상기 촬영되는 얼굴 이미지들 중 적어도 어느 두 개의 품질들이 상기 일정 품질 지수 미만이면, 상기 사용자의 인증을 거절하는 단계
를 더 포함하는 얼굴 인식 방법.
The method of claim 1,
If at least any two qualities of the photographed face images are less than the predetermined quality index, rejecting the authentication of the user
Face recognition method further comprising.
삭제delete 사용자의 다양한 얼굴 이미지들에 해당하는 템플릿(template)을 데이터베이스에 저장하는 저장 제어부;
촬영되는 복수개의 얼굴 이미지들에 대한 품질 테스트를 수행하여, 상기 촬영되는 얼굴 이미지들의 품질들을 각각 측정하고, 상기 품질들과 미리 지정된 일정 품질 지수를 비교하여, 상기 촬영되는 얼굴 이미지들 중 적어도 어느 두 개를 결정하는 품질 테스트부;
상기 결정된 얼굴 이미지들을 대상으로 전처리(preprocessing)하는 전처리부;
상기 전처리된 얼굴 이미지들을 대상으로 상기 전처리된 얼굴 이미지들 각각에서 서로 다른 위치들로부터 복수개의 특징점들을 각각 추출하는 특징점 추출부; 및
상기 특징점들을 통합 특징점으로 변환하고, 상기 통합 특징점에 기반하는 템플릿과 상기 저장된 템플릿에 기초하여 상기 사용자의 얼굴을 인증하는 인증부
를 포함하고,
상기 통합 특징점은 상기 위치들에 각각 대응하는 복수개의 원소값들을 포함하고, 상기 원소값들 각각은 상기 특징점들 중 동일한 위치의 적어도 어느 두 개를 기반으로 계산되는 얼굴 인식 시스템.
A storage controller configured to store a template corresponding to various face images of the user in a database;
A quality test is performed on a plurality of face images to be photographed, each of which measures the quality of the face images to be photographed, and compares the qualities with a predetermined predetermined quality index, thereby selecting at least two of the face images. A quality test unit for determining a dog;
A preprocessing unit for preprocessing the determined face images;
A feature point extracting unit for extracting a plurality of feature points from different positions in each of the preprocessed face images with respect to the preprocessed face images; And
An authentication unit converting the feature points into an integrated feature point and authenticating the face of the user based on the template and the stored template based on the integrated feature point
Including,
The integrated feature point includes a plurality of element values respectively corresponding to the positions, and each of the element values is calculated based on at least two of the same positions among the feature points.
제6항에 있어서,
상기 품질 테스트부는,
상기 촬영되는 얼굴 이미지들을 대상으로 LoG(Laplacian of Gaussian) 필터를 이용하여 계산된 분산, 밝기의 평균, 밝기의 표준 편차, 및 상기 촬영되는 얼굴 이미지들 간의 유사도 중 적어도 하나에 기초하여, 상기 촬영되는 얼굴 이미지들의 품질들을 각각 측정하는 얼굴 인식 시스템.
The method of claim 6,
The quality test unit,
The photographed face images are photographed based on at least one of variance calculated using a Laplacian of Gaussian (LoG) filter, an average of brightness, a standard deviation of brightness, and similarity between the photographed face images. Face recognition system for measuring the qualities of face images respectively.
KR1020180061664A 2018-05-30 2018-05-30 Method and system for recognizing face of user based on multiple images KR102027786B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180061664A KR102027786B1 (en) 2018-05-30 2018-05-30 Method and system for recognizing face of user based on multiple images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180061664A KR102027786B1 (en) 2018-05-30 2018-05-30 Method and system for recognizing face of user based on multiple images

Publications (1)

Publication Number Publication Date
KR102027786B1 true KR102027786B1 (en) 2019-10-02

Family

ID=68422641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180061664A KR102027786B1 (en) 2018-05-30 2018-05-30 Method and system for recognizing face of user based on multiple images

Country Status (1)

Country Link
KR (1) KR102027786B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114639143A (en) * 2022-03-07 2022-06-17 北京百度网讯科技有限公司 Portrait filing method, equipment and storage medium based on artificial intelligence

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060082923A (en) * 2005-01-13 2006-07-20 삼성전자주식회사 System and method for face recognition
KR20110067716A (en) * 2009-12-15 2011-06-22 삼성전자주식회사 Apparatus and method for registering a plurlity of face image for face recognition
KR20140055819A (en) * 2012-11-01 2014-05-09 삼성전자주식회사 Appparatus and method for face recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060082923A (en) * 2005-01-13 2006-07-20 삼성전자주식회사 System and method for face recognition
KR20110067716A (en) * 2009-12-15 2011-06-22 삼성전자주식회사 Apparatus and method for registering a plurlity of face image for face recognition
KR20140055819A (en) * 2012-11-01 2014-05-09 삼성전자주식회사 Appparatus and method for face recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114639143A (en) * 2022-03-07 2022-06-17 北京百度网讯科技有限公司 Portrait filing method, equipment and storage medium based on artificial intelligence
CN114639143B (en) * 2022-03-07 2024-04-16 北京百度网讯科技有限公司 Portrait archiving method, device and storage medium based on artificial intelligence

Similar Documents

Publication Publication Date Title
US20190050641A1 (en) Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers
US10248954B2 (en) Method and system for verifying user identity using card features
TWI766201B (en) Methods and devices for biological testing and storage medium thereof
JP6137916B2 (en) Signal processing apparatus, signal processing method, and signal processing system
US10839238B2 (en) Remote user identity validation with threshold-based matching
CN110222573B (en) Face recognition method, device, computer equipment and storage medium
US9489566B2 (en) Image recognition apparatus and image recognition method for identifying object
US10354134B1 (en) Feature classification with spatial analysis
JP6997369B2 (en) Programs, ranging methods, and ranging devices
WO2016170965A1 (en) Object detection method and image search system
US20190347472A1 (en) Method and system for image identification
KR20220076398A (en) Object recognition processing apparatus and method for ar device
CN111932363A (en) Identification and verification method, device, equipment and system for authorization book
CN113642639B (en) Living body detection method, living body detection device, living body detection equipment and storage medium
US9928408B2 (en) Signal processing
US10346722B2 (en) Signal classification using sparse representation
KR102027786B1 (en) Method and system for recognizing face of user based on multiple images
CN115273184A (en) Face living body detection model training method and device
US11087121B2 (en) High accuracy and volume facial recognition on mobile platforms
KR102301786B1 (en) Method and appauatus for face verification using deep learning based real-time on-device
CN116758295B (en) Key point detection method and device, electronic equipment and storage medium
CN112733574B (en) Face recognition method and device and computer readable storage medium
Rahman et al. A Novel Framework for Detection of Morphed Images Using Deep Learning Techniques
Nazarbakhsh et al. Image pre-processing techniques for enhancing the performance of real-time face recognition system using PCA
Nguyen et al. Automatic Attendance System Based on Face Recognition Using HOG Features and Cosine Distance

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant