KR20140107946A - Authentication apparatus and authentication method thereof - Google Patents

Authentication apparatus and authentication method thereof Download PDF

Info

Publication number
KR20140107946A
KR20140107946A KR1020130022198A KR20130022198A KR20140107946A KR 20140107946 A KR20140107946 A KR 20140107946A KR 1020130022198 A KR1020130022198 A KR 1020130022198A KR 20130022198 A KR20130022198 A KR 20130022198A KR 20140107946 A KR20140107946 A KR 20140107946A
Authority
KR
South Korea
Prior art keywords
face
gesture
image
user
similarity
Prior art date
Application number
KR1020130022198A
Other languages
Korean (ko)
Other versions
KR101455666B1 (en
Inventor
박혜영
최현석
Original Assignee
경북대학교 산학협력단
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단, 재단법인대구경북과학기술원 filed Critical 경북대학교 산학협력단
Priority to KR1020130022198A priority Critical patent/KR101455666B1/en
Publication of KR20140107946A publication Critical patent/KR20140107946A/en
Application granted granted Critical
Publication of KR101455666B1 publication Critical patent/KR101455666B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction

Abstract

An authentication apparatus is disclosed. The authentication apparatus according to the present invention includes a storage unit which stores the gesture information and face information of a user which is previously registered, a photographing unit which photographs an image of the user, a face recognizing unit which extracts a face image from the photographed user image and measures a face similarity by comparing the face image with the face information of the user which is previously registered, a gesture recognizing unit which calculates a difference image for each frame of the photographed user image and measures a gesture similarity by comparing a gesture feature extracted using the calculated difference image with the gesture information of the user which is previously registered, and a control unit which determines whether the user is registered based on the measured gesture and face similarities.

Description

인증 장치 및 그 인증 방법{AUTHENTICATION APPARATUS AND AUTHENTICATION METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an authentication apparatus,

본 발명은 인증 장치 및 그 인증 방법으로, 더 상세하게는 사용자의 얼굴 정보 및 제스처 정보를 인증 요소로 하는 인증 장치 및 그 인증 방법에 관한 것이다.The present invention relates to an authentication apparatus and an authentication method thereof, and more particularly to an authentication apparatus and an authentication method using the user's face information and gesture information as authentication elements.

최근 금융기간이나 포털사이트 및 온라인 서비스 업체에 대한 악의적인 해킹을 통해 개인정보가 유출되는 사고가 빈번히 발생하고 있다. 이데 따라 사회 전반에 결쳐 정보보호에 대한 관심이 고조되고 있다. 더불어 최근에는 온라인을 통해 정보에 접근할 수 있는 다양한 스마트 기기의 출현으로 인해 정보보호를 위한 사용자 인증 시스템의 강화 요구가 증대되고 있다. 특히 정보보호를 위해 사용중인 비밀번호, 키, 보안카드와 같은 인증방법은 노출이나 도난, 분실 등의 문제로 한계를 지니고 있다, 이에 반해 신체적 특성 또는 행동학적 특성 기반의 생체인식에 기반을 둔 인증방법은 기존 방법을 대체할 수단으로 기대를 모으고 있다.Personal information is frequently leaked through malicious hacking of financial services or portal sites and online service companies in recent years. As a result, interest in information protection is increasing in the society as a whole. Recently, the emergence of various smart devices that can access information through online has increased the need for strengthening the user authentication system for information security. In particular, authentication methods such as passwords, keys, and security cards being used for information security have limitations due to problems such as exposure, theft, and loss, while biometric authentication methods based on physical characteristics or behavioral characteristics Is expected to replace existing methods.

얼굴 인식은 신체적 특징을 이용한 사용자 인증 방법으로 지문과 더불어 전통적으로 많이 사용되는 기술이다. 특히 얼굴은 지문이나 홍채와 같이 전용 장비 또는 인식 장비와의 접촉을 필요로 하지 않아 생체 정보 획득의 거부감이 없고, 웹캠이나 스마트 기기에 부착된 카메라를 활용할 수 있다는 장점이 있다. 하지만 인식의 정확도가 조명, 포즈, 표정, 폐색에 많은 영향을 받을 수 있으며, 허가된 사용자의 얼굴 사진을 이용하여 인증 과정을 우회할 수 있다는 단점이 있다.Face recognition is a user authentication method using physical features and is a technique widely used in addition to fingerprinting. In particular, since the face does not require contact with a dedicated device or a recognition device such as a fingerprint or an iris, there is no fear of obtaining biometric information, and a camera attached to a webcam or a smart device can be utilized. However, the accuracy of recognition may be greatly affected by lighting, pose, facial expression, and occlusion, and there is a disadvantage in that the authentication process can be bypassed using an authorized user's face photograph.

제스처 인식은 행동학적 특징을 기반을 둔 사용자 인증 방법으로 초기 걸음걸이 분석에서 발전하여 인간-컴퓨터 상호작용 수단으로 로봇이나 시스템의 제어를 위한 손 제스처, 수화 인식까지 확대되고 있는 기술이다. 최근 스마트 기기에 부착된 가속도계와 자이로스코프 또는 터치 패널을 이용한 사용자 인증시스템이 개발되었다. 이들 방법들은 각 기기별로 가속도계와 자이로스코프 또는 다중 접촉 가능한 터치 패널을 장착하고 있어야 하기 때문에 스마트 기기에 따라 사용자 인증에 대한 호환성 문제가 존재한다.Gesture recognition is a user authentication method based on behavioral characteristics. It is developed in early gait analysis and is extended to hand gestures and sign language recognition for control of robot or system as a means of human - computer interaction. Recently, a user authentication system using an accelerometer attached to a smart device and a gyroscope or a touch panel has been developed. Because these methods require the use of an accelerometer, gyroscope or multi-touchable touch panel for each device, there is a compatibility problem for user authentication depending on the smart device.

따라서, 본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은 스마트 기기에서 기본적으로 장착하고 있는 영상 센서를 통해 획득된 영상 정보를 분석하여 사용자의 얼굴 정보와 제스처 정보를 추출함으로써, 스마트 기기에 따른 사용자 인증 시스템의 호환성 확보 및 단일 생체 인식에 비해 보다 강건한 사용자 인증을 수행하는 인증 장치 및 그 인증 방법을 제공하는 데 있다. SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide a smart device, which analyzes image information obtained through an image sensor installed in a smart device and extracts face information and gesture information of a user An authentication device for performing compatibility of a user authentication system according to a smart device and robust user authentication compared to a single biometric authentication, and an authentication method thereof.

상술한 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 인증 장치는,기 등록된 사용자의 얼굴 정보 및 제스쳐 정보를 저장하는 저장부, 사용자 영상을 촬영하는 촬영부, 상기 촬영된 사용자 영상에서 얼굴 영상을 추출하고, 상기 얼굴 영상과 상기 기 등록된 사용자의 얼굴 정보를 대비하여 얼굴 유사도를 측정하는 얼굴 인식부, 상기 촬영된 사용자 영상의 각각의 프레임에 대한 차영상을 계산하고, 상기 계산된 차영상을 이용하여 추출된 제스쳐 특징과 기 등록된 사용자의 제스쳐 정보를 대비하여 제스쳐 유사도를 측정하는 제스쳐 인식부 및 측정된 얼굴 유사도 및 상기 제스쳐 유사도를 기초로 등록된 사용자인지를 판단하는 제어부를 포함한다.In order to achieve the above object, an authentication apparatus according to an embodiment of the present invention includes a storage unit for storing face information and gesture information of a previously registered user, a photographing unit for photographing a user image, A facial recognition unit for extracting a facial image and measuring facial similarity by comparing the facial image with facial information of the previously registered user; calculating a difference image for each frame of the captured user image; A gesture recognition unit for measuring the gesture similarity by comparing the gesture feature extracted using the difference image with the gesture information of the already registered user, and a controller for determining whether the user is a registered user based on the measured face similarity and the gesture similarity do.

이 경우, 상기 촬영부는 상기 촬영된 사용자 영상을 그레이 스케일 영상으로 변환할 수 있다.In this case, the photographing unit may convert the photographed user image into a grayscale image.

한편, 상기 얼굴 인식부는, 비올라-존스 얼굴 검출기를 사용하여 사용자 영상에서 얼굴 영상을 추출하고, 상기 추출된 얼굴 영상에서 HOG(Histogram of Oriented Gradient) 기술자를 추출하여 얼굴 유사도를 측정할 수 있다.Meanwhile, the face recognition unit may extract a face image from a user image using a Viola-Jones face detector, and extract a Histogram of Oriented Gradient (HOG) descriptor from the extracted face image to measure face similarity.

여기서, 상기 얼굴 인식부는,Here, the face recognizing unit may include:

Figure pat00001
을 이용하여 얼굴 유사도를 계산할 수 있다. (여기서, SFACE는 얼굴 유사도,
Figure pat00002
는 기 등록된 사용자의 얼굴 정보에 대한 HOG 기술자 ,
Figure pat00003
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 HOG 기술자,
Figure pat00004
는 기 등록된 사용자의 얼굴 정보에 대한 i번째 윈도우의 HOG 기술자값,
Figure pat00005
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 i번째 윈도우의 HOG 기술자값, i는 1~M의 자연수 값이다.)
Figure pat00001
Can be used to calculate the face similarity. (Where S FACE is face similarity,
Figure pat00002
A HOG descriptor for the face information of the previously registered user,
Figure pat00003
A HOG descriptor for the face image extracted from the photographed user image,
Figure pat00004
The HOG descriptor value of the i-th window with respect to the face information of the previously registered user,
Figure pat00005
Is the HOG descriptor value of the i-th window for the face image extracted from the photographed user image, and i is a natural number value of 1 to M.)

한편, 상기 제스처 인식부는 상기 추출된 제스처 특징과 상기 기 등록된 사용자의 제스처 정보의 시퀀스 길이를 동일하게 조정하는 동적 시간 정합(dynamic time warping)을 수행하여. 상호 정보량에 기반을 둔 거리 척도를 통하여 제스처 유사도를 측정할 수 있다.Meanwhile, the gesture recognition unit performs dynamic time warping to adjust the sequence length of the extracted gesture characteristic and the gesture information of the previously registered user equally. Gesture similarity can be measured through the distance scale based on mutual information.

여기서, 상기 제스처 인식부는,
Here, the gesture recognizing unit may include:

Figure pat00006
을 이용하여 제스처 유사도를 측정할 수 있다.(여기서, SGESTURE는 제스처 유사도,
Figure pat00007
는 기 등록된 사용자의 제스처 특징 정보,
Figure pat00008
는 촬영된 사용자 영상에서 추출된 차영상의 제스처 특징 정보이다. )
Figure pat00006
Can be used to measure gesture similarity (where S GESTURE is the gesture similarity,
Figure pat00007
Gesture feature information of a previously registered user,
Figure pat00008
Is the gesture feature information of the difference image extracted from the photographed user image. )

한편, 상기 제어부는, 상기 측정된 얼굴 유사도 및 상기 제스처 유사도 모두 각각의 인증 기준을 만족하는 경우에만 등록된 사용자로 판단할 수 있다.Meanwhile, the controller may determine that the user is registered only if the measured face similarity and the gesture similarity satisfy the respective authentication criteria.

한편, 상기 판단 결과를 표시하는 사용자 인터페이스 부를 더 포함할 수 있다.The apparatus may further include a user interface unit for displaying the determination result.

한편, 본 실시 예에 따른 인증 장치의 인증 방법은, 기 등록된 사용자의 얼굴 정보 및 제스처 정보를 저장하는 단계, 사용자 영상을 촬영하는 단계, 상기 촬영된 사용 자 영상에서 얼굴 영상을 추출하고, 상기 얼굴 영상과 상기 기 등록된 사용자의 얼굴 정보를 대비하여 얼굴 유사도를 측정하는 단계, 상기 촬영된 사용자 영상의 각각의 프레임에 대한 차영상을 계산하고, 상기 계산된 차영상을 이용하여 추출된 제스처 특징과 기 등록된 사용자의 제스처 정보를 대비하여 제스처 유사도를 측정 하는 단계 및 상기 측정된 얼굴 유사도 및 상기 제스처 유사도를 기초로 등록된 사용자인지를 판단하는 단계를 포함한다.Meanwhile, the authentication method of the authentication apparatus according to the present embodiment may include: storing face information and gesture information of a previously registered user; capturing a user image; extracting a face image from the photographed user image; The method of claim 1, further comprising the steps of: measuring face similarity by comparing facial images with facial information of the previously registered user; calculating a difference image for each frame of the captured user image; Measuring gesture similarity by comparing gesture information of a previously registered user and determining whether the user is a registered user based on the measured face similarity and the gesture similarity.

여기서, 상기 촬영하는 단계는, 상기 촬영된 사용자 영상을 그레이스케일 영상으로 변환할 수 있다.Here, the photographing may convert the photographed user image into a gray scale image.

한편, 상기 얼굴 유사도를 측정하는 단계는, 비올라 -존스 얼굴 검출기를 사용하여 사용자 영상에서 얼굴 영상을 추출하고, 상기 추출된 얼굴 영상에서 HOG(His togram of Oriented Gradient) 기술자를 추출하여 얼굴 유사도를 측정할 수 있다.The step of measuring the face similarity may include extracting a face image from a user image using a Viola-Jones face detector, extracting a HOG (His togram of Oriented Gradient) descriptor from the extracted face image, can do.

여기서, 상기 얼굴 유사도를 측정하는 단계는,Here, the step of measuring the face similarity may include:

Figure pat00009
을 이용하여 얼굴 유사도를 계산할 수 있다. (여기서, SFACE는 얼굴 유사도,
Figure pat00010
는 기 등록된 사용자의 얼굴 정보에 대한 HOG 기술자 ,
Figure pat00011
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 HOG 기술자,
Figure pat00012
는 기 등록된 사용자의 얼굴 정보에 대한 i번째 윈도우의 HOG 기술자값,
Figure pat00013
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 i번째 윈도우의 HOG 기술자값, i는 1~M의 자연수 값이다.)
Figure pat00009
Can be used to calculate the face similarity. (Where S FACE is face similarity,
Figure pat00010
A HOG descriptor for the face information of the previously registered user,
Figure pat00011
A HOG descriptor for the face image extracted from the photographed user image,
Figure pat00012
The HOG descriptor value of the i-th window with respect to the face information of the previously registered user,
Figure pat00013
Is the HOG descriptor value of the i-th window for the face image extracted from the photographed user image, and i is a natural number value of 1 to M.)

한편, 상기 제스처 유사도를 측정하는 단계는, 상기 추출된 제스처 특징 과 상기 기 등록된 사용자의 제스처 정보의 시퀀스 길이를 동일하게 조정하는 동적 시간 정합(dynamic time warping)을 수행하여. 상호 정보량에 기반을 둔 거리 척도를 통하여 제스처 유사도를 측정할 수 있다.The step of measuring the gesture similarity may include performing dynamic time warping in which a sequence length of the extracted gesture feature and a gesture information of the previously registered user are adjusted to be equal to each other. Gesture similarity can be measured through the distance scale based on mutual information.

여기서, 상기 제스처 유사도를 측정하는 단계는, Here, the step of measuring the gesture similarity may include:

Figure pat00014
을 이용하여 제스처 유사도를 측정할 수 있다.(여기서, SGESTURE는 제스처 유사도,
Figure pat00015
는 기 등록된 사용자의 제스처 특징 정보,
Figure pat00016
는 촬영된 사용자 영상에서 추출된 차영상의 제스처 특징 정보이다.)
Figure pat00014
Can be used to measure gesture similarity (where S GESTURE is the gesture similarity,
Figure pat00015
Gesture feature information of a previously registered user,
Figure pat00016
Is the gesture feature information of the difference image extracted from the photographed user image.)

한편, 상기 등록된 사용자인지를 판단하는 단계는, 상기 측정된 얼굴 유사도 및 상기 제스처 유사도 모두 각각의 인증 기준을 만족하는 경우에만 등록된 사용자로 판단 할 수 있다.The step of determining whether the user is the registered user may be determined as a registered user only when the measured face similarity and the gesture similarity satisfy the respective authentication criteria.

한편, 상기 인증 방법은, 상기 판단 결과를 표시하는 단계를 더 포함할 수 있다.The authentication method may further include displaying the determination result.

도 1은 본 발명의 일 실시 예에 따른 인증 장치의 구성을 나타내는 블럭도,
도 2는 본 발명의 일 실시 예에 따른 얼굴 인식 방법을 설명하기 위한 도면,
도 3은 본 발명의 일 실시 예에 따른 제스처 인식 방법을 설명하기 위한 도면,
도 4는 본 발명의 일 실시 예에 따른 얼굴에 대한 FAR/FRR 그래프를 설명하기 위한 도면,
도 5는 본 발명의 일 실시 예에 따른 제스처에 대한 FAR/FRR 그래프를 설명하기 위한 도면,
도 6은 본 발명의 일 실시 예에 따른 표본의 산포도를 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 각 인증 요소 별 0% FAR의 FRR 그래프를 설명한 위한 도면,
도 8은 본 발명의 일 실시 예에 따른 인증 방법의 처리를 설명하기 위한 흐름도, 그리고,
도 9는 본 발명의 일 실시 예에 따른 인증 방법을 설명하기 위한 흐름도이다.
1 is a block diagram showing the configuration of an authentication apparatus according to an embodiment of the present invention;
2 is a view for explaining a face recognition method according to an embodiment of the present invention;
3 is a view for explaining a gesture recognition method according to an embodiment of the present invention;
4 is a view for explaining a FAR / FRR graph for a face according to an embodiment of the present invention;
5 is a view for explaining a FAR / FRR graph for a gesture according to an embodiment of the present invention;
6 is a view for explaining scattering of a sample according to an embodiment of the present invention,
FIG. 7 is a view for explaining FRR graph of 0% FAR for each authentication element according to an embodiment of the present invention, FIG.
FIG. 8 is a flowchart for explaining processing of an authentication method according to an embodiment of the present invention,
9 is a flowchart illustrating an authentication method according to an embodiment of the present invention.

이하 첨부된 도면들을 참조하여 본 발명의 일 실시 예를 보다 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 일 실시 예에 따른 인식 장치는 사용자 인증이 필요한 보안 시스템, 출입관리 시스템, 서버 시스템, PC(Personal computer), 태블릿(Tablet), 휴대폰 등의 전자 장치로 구현될 수 있다.The recognition apparatus according to an embodiment of the present invention may be implemented by electronic devices such as a security system, an access management system, a server system, a PC (personal computer), a tablet, and a mobile phone, which require user authentication.

도 1은 본 발명의 일 실시 예에 따른 인증 장치의 구성을 나타내는 블럭도이다.1 is a block diagram showing the configuration of an authentication apparatus according to an embodiment of the present invention.

도 1을 참고하면, 인증 장치(100)는 저장부(110), 촬영부(120), 제어부(130), 얼굴 인식부(140), 제스처 인식부(150) 및 사용자 인터페이스부(160)를 포함한다.1, the authentication apparatus 100 includes a storage unit 110, a photographing unit 120, a control unit 130, a face recognition unit 140, a gesture recognition unit 150, and a user interface unit 160 .

저장부(110)는 기 등록된 사용자의 얼굴 정보 및 제스처 정보를 저장한다. 구체적으로, 저장부(110)는 접근이 허용된 사용자인지 판단하기 위하여, 사용자의 얼굴 정보 및 제스처 정보를 저장할 수 있다.The storage unit 110 stores face information and gesture information of a previously registered user. Specifically, the storage unit 110 may store face information and gesture information of the user to determine whether the user is permitted to access.

여기서, 얼굴 정보는 접근을 허용할 사용자에 대한 얼굴 영상이며, 제스처 정보는 접근을 허용할 사용자가 설정한 제스처 영상이다. 이는 별도의 단계에서 촬영되어, 저장부(110)에 저장될 수 있다.Here, the face information is a face image for a user who is allowed to access, and the gesture information is a gesture image set by a user who is allowed to access. This may be photographed at a separate step and stored in the storage unit 110. [

구체적으로, 저장부(110)는 제스처 정보로 입력된 제스처 영상의 특징을 저장할 수 있다. 예를 들어 손을 좌우로 흔드는 영상의 차영상의 제스처 특징이 A라고 하고, 손을 상하로 흔드는 영상의 차영상의 제스처 특징이 B 라고 가정하면, 저장부(110)는 제스처 특징 A 및 B를 저장할 수 있다. 여기서 저장된 제스처 특징 A 및 B는 후술할 제스처 인식부(150)에서 사용될 수 있다.Specifically, the storage unit 110 may store characteristics of the gesture image input as the gesture information. For example, assuming that a gesture characteristic of a difference image of an image shaking the hand in left and right is A, and a gesture characteristic of a difference image of an image shaking the hand up and down is B, the storage unit 110 stores the gesture characteristics A and B Can be stored. The stored gesture characteristics A and B can be used in the gesture recognition unit 150 to be described later.

여기서, 제스처 특징 및 차영상에 대해서는 후술할 제스처 인식부(150)에서 자세히 설명하도록 한다.Here, the gesture characteristic and difference image will be described in detail in the gesture recognition unit 150, which will be described later.

또한, 저장부(110)는 후술할 촬영부(120)에서 촬영한 사용자 영상 및 얼굴 인식부(140), 제스처 인식부(150)에서 을 일시적으로 저장할 수 있다.The storage unit 110 may temporarily store the user image captured by the photographing unit 120 and the face recognition unit 140 and the gesture recognition unit 150, which will be described later.

한편, 저장부(110)는 인식 장치(100) 내의 저장매체 및 외부 저장 매체, 예를 들어 USB 메모리를 포함한 Removable Disk, 호스트(Host)에 연결된 저장매체, 네트워크를 통한 웹서버(Web server) 등으로 구현될 수 있다.The storage unit 110 may include a storage medium in the recognition apparatus 100 and an external storage medium such as a removable disk including a USB memory, a storage medium connected to a host, a Web server via a network, Lt; / RTI >

촬영부(120)는 사용자 영상을 촬영한다. 구체적으로, 촬영부(120)는 촬상 소자로 구현되어 인증 장치(100)에 접근하는 사용자를 촬영할 수 있다. The photographing unit 120 photographs a user image. Specifically, the photographing unit 120 is implemented as an image capturing device, and can photograph a user approaching the authentication device 100. [

여기서, 촬영부(120)에서 촬영된 사용자 영상은 동영상 파일로 생성되어 저장부(110)에 저장될 수 있다.Here, the user image photographed by the photographing unit 120 may be generated as a moving image file and stored in the storage unit 110. [

한편, 촬영부(120)는 촬영된 사용자 영상을 기정의된 사이즈로 변환하고, 그레이 스케일 영상으로 변환하는 전처리 과정을 수행할 수 있다.Meanwhile, the photographing unit 120 may perform a preprocessing process of converting the photographed user image into a predetermined size and converting it into a grayscale image.

얼굴 인식부(140)는 촬영된 사용자 영상에서 얼굴 영상을 추출하고, 얼굴 영상과 기 등록된 사용자의 얼굴 정보를 대비하여 얼굴 유사도를 측정한다.The face recognition unit 140 extracts a face image from the photographed user image, and measures the face similarity by comparing the face image with the face information of the previously registered user.

구체적으로, 얼굴 인식부(140)는 비올라-존스 얼굴 검출기를 사용하여 사용자 영상에서 얼굴 영상을 추출하고, 상기 추출된 얼굴 영상에서 HOG(Histogram of Oriented Gradient) 기술자를 추출하여 얼굴 유사도를 측정할 수 있다.Specifically, the face recognition unit 140 extracts a face image from a user image using a Viola-Jones face detector, and extracts a Histogram of Oriented Gradient (HOG) descriptor from the extracted face image to measure the face similarity have.

여기서, 비올라-존스(Viola-Jones) 얼굴 검출기는 특정 영상 또는 이미지 내에서 특정 물체(또는 얼굴)을 검출하기 위하여, 비올라-존스 알고리즘을 사용하는 검출기를 의미한다. 비올라-존스(Viola-Jones) 알고리즘은 물체 검출의 성능이 높으며, 특히 얼굴 검출 실행 속도가 매우 빨라 실시간 얼굴 검출에 적합하고, 검출 배경의 픽셀이 거의 동일한 값일 때에도 매우 높은 검출률을 보이는 장점이 있다. Here, a Viola-Jones face detector refers to a detector using a Viola-Jones algorithm to detect a specific object (or face) within a particular image or image. The Viola-Jones algorithm has a high performance of object detection, and is especially suitable for real-time face detection because the speed of face detection is very fast, and the detection rate is very high even when the pixels of the detection background are almost the same value.

비올라-존스(Viola-Jones) 알고리즘에 대해서는 PAUL VIOLA, MICHAEL J.JONES, 2004, "ROBUST REAL-TIME FACE DETECTION", International Journal of Computer Vision 57(2)에서 자세히 설명하고 있으므로, 구체적인 설명은 생략하도록 한다.The Viola-Jones algorithm is described in detail in PAUL VIOLA, MICHAEL J. JONES, 2004, "ROBUST REAL-TIME FACE DETECTION", International Journal of Computer Vision 57 (2) do.

한편, 얼굴 인식부(140)는 비올라-존스 얼굴 검출기를 사용하여 추출된 사용자 얼굴 영상에서 HOG(Histogram of Oreiented Gradient) 기술자를 추출하여 기 저장된 사용자 영상에의 얼굴 영상과 비교를 수행할 수 있다. 여기서, HOG 기술자는 객체 검출을 목적으로 고안된 특징정보 기술자로, 국부(Local) 영역 내의 화소값 변화(intensity gradient) 또는 에지의 방향을 나타낸다.Meanwhile, the face recognition unit 140 may extract a Histogram of Oriented Gradient (HOG) descriptor from the extracted user face image using the Viola-Jones face detector, and compare the extracted face image with the previously stored user image. Here, the HOG descriptor is a feature information descriptor designed for the purpose of object detection, and represents the intensity gradient or direction of a pixel in a local area.

HOG 기술자에 대해서는 N. Dalal and B. Triggs, 2005, "Histograms of oriented gradients for human detection", IEEE Conference on Computer Vision and Pattern Recognition(CVPR)에서 자세히 설명하고 있으므로, 구체적인 설명은 생략하도록 한다.HOG engineers are described in detail in N. Dalal and B. Triggs, 2005, "Histograms of oriented gradients for human detection", IEEE Conference on Computer Vision and Pattern Recognition (CVPR).

본 발명의 일 실시 예에 따른 얼굴 인식부(140)는 우선 비올라-존스 얼굴 검출기를 사용하여 촬영부(120)에서 촬영된 사용자 영상에서 사용자 얼굴 영상을 탐색하고, 이로부터 특징을 추출하기 위해 사용자 얼굴 영상의 크기를 32 x 32로 조정할 수 있다. 그리고, 얼굴 인식을 위해 조명 변화에 강건한 히스토그램 기반의 지역적 특징 기술자(HOG 기술자)로 표현된 얼굴 데이터에 대해 통계적 학습을 수행하는 알고리즘을 적용하여, 얼굴 영상에서 특징을 추출할 수 있다. 이후, 얼굴 인식부(140)는 저장부(110)에 저장되어 있는 등록된 사용자의 얼굴 정보와 추출된 얼굴영상의 특징의 유사도를 측정할 수 있다. The face recognition unit 140 according to an exemplary embodiment of the present invention first searches for a user's face image in a user image photographed by the photographing unit 120 using a Viola-Jones face detector, The size of the face image can be adjusted to 32 x 32. In addition, it is possible to extract features from facial images by applying an algorithm that performs statistical learning on face data represented by a histogram-based local feature descriptor (HOG descriptor) robust to illumination change for face recognition. Then, the face recognition unit 140 can measure similarity between the registered face information of the user stored in the storage unit 110 and the feature of the extracted face image.

한편, 본 발명의 일 실시 예에 따른 얼굴 인식부(140)는 아래의 수학식 1을 이용하여 유사도를 측정할 수 있다.Meanwhile, the face recognition unit 140 according to an embodiment of the present invention can measure the degree of similarity using the following equation (1).

Figure pat00017
Figure pat00017

여기서, SFACE는 얼굴 유사도,

Figure pat00018
는 기 등록된 사용자의 얼굴 정보에 대한 HOG 기술자 ,
Figure pat00019
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 HOG 기술자,
Figure pat00020
는 기 등록된 사용자의 얼굴 정보에 대한 i번째 윈도우의 HOG 기술자값,
Figure pat00021
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 i번째 윈도우의 HOG 기술자값, i는 1~M의 자연수 값이다. 한편, Dist() 함수는 두 데이터간의 거리를 산출하는 L1-Norm을 포함한 일반적인 거리 함수이다.Here, S FACE is face similarity,
Figure pat00018
A HOG descriptor for the face information of the previously registered user,
Figure pat00019
A HOG descriptor for the face image extracted from the photographed user image,
Figure pat00020
The HOG descriptor value of the i-th window with respect to the face information of the previously registered user,
Figure pat00021
Is the HOG descriptor value of the i-th window for the face image extracted from the photographed user image, and i is a natural number value of 1 to M. On the other hand, the Dist () function is a general distance function including an L1-Norm that calculates the distance between two data.

한편, 도 2는 상술한 HOG 기술자 추출에 대해서 설명하는 도면이다. On the other hand, FIG. 2 is a diagram for explaining the above-described HOG descriptor extraction.

도 2를 참고하면, 비올라-존스 얼굴 검출기를 통해 추출된 얼굴 영상(210)을 4 x 5 형태의 격자 영역(220)으로 나눈 나눈다. 여기서, 격자 영역의 형태는 고정된 것이 아닌 변경 가능한 것으로 4 x 4 형태의 격자 영역으로 얼굴 영상을 나눌 수도 있다. 20개의 부분영역에 대한 HOG 기술자를 추출하여, 비교하고자 하는 얼굴 영상의 HOG 기술자간의 거리를 계산할 수 있다. 여기서 실제 얼굴 거리를 계산하기 위해서 상술한 N. Dalal and B. Triggs의 논문에서는 L1-Norm을 사용하였으나, 다른 형태의 거리척도도 사용가능하다.Referring to FIG. 2, the face image 210 extracted through the Viola-Jones face detector is divided by the 4 × 5-shaped lattice region 220. Here, the shape of the lattice region is not fixed but can be changed, and the face image can be divided into a 4x4-shaped lattice region. The HOG descriptor for 20 partial regions can be extracted and the distance between the HOG descriptors of the facial image to be compared can be calculated. To calculate the actual face distance, the above-mentioned N. Dalal and B. Triggs used L1-Norm, but other types of distance scale can be used.

얼굴 인식부(140)에서 측정된 얼굴 유사도는 후술할 제어부(130)로 전송되어 등록된 사용자 인지의 판단에 사용될 수 있다.The face similarity measured by the face recognizing unit 140 may be transmitted to the controller 130 to be described later and used to determine whether the registered user is a registered user.

제스처 인식부(150)는 촬영된 사용자 영상의 각각의 프레임에 대한 차영상을 계산하고, 계산된 차영상을 이용하여 추출된 제스처 특징과 기 등록된 사용자의 제스처 정보를 대비하여 제스처 유사도를 측정한다.The gesture recognition unit 150 calculates a difference image for each frame of the photographed user image, and measures the gesture similarity by comparing the gesture feature extracted using the calculated difference image with the gesture information of the pre-registered user .

이 경우, 제스처 인식부(150)는 추출된 제스처 특징과 기 등록된 사용자의 제스처 정보의 시퀀스 길이를 동일하게 조정하는 동적 시간 정합(dynamic time warping)을 수행하여. 상호 정보량에 기반을 둔 거리 척도를 통하여 제스처 유사도를 측정할 수 있다.In this case, the gesture recognition unit 150 performs a dynamic time warping in which the sequence length of the extracted gesture characteristic and the gesture information of the previously registered user are adjusted to be equal to each other. Gesture similarity can be measured through the distance scale based on mutual information.

구체적으로, 제스처 인식부(150)는 촬영된 사용자 영상을 프레임 단위로 나누어 순차적으로 차영상을 계산하고, 이에 대해 통계적 특징 추출을 수행하는 알고리즘 즉, 주성분분석(Principle Component analysis)을 적용하여 제스처 특징을 추출할 수 있다. 그리고, 길이가 다른 두 제스처 특징의 유사도를 측정하기 위해 동적 시간 정합(Dynamic time warping)을 수행하여 제스처 데이터의 길이를 동일하게 조정한 후 상호 정보량(mutual information)에 기반을 둔 거리 척도를 통해 두 제스처 특징 간의 유사도를 측정할 수 있게 된다.Specifically, the gesture recognition unit 150 calculates a difference image sequentially by dividing the photographed user image by a frame unit, and applies an algorithm for performing statistical feature extraction on the image difference, that is, Principle Component analysis, Can be extracted. In order to measure the similarity of two gesture features with different lengths, dynamic time warping is performed to adjust the length of the gesture data to the same length, and then, through a distance scale based on mutual information, The degree of similarity between gesture features can be measured.

여기서, 차영상은 촬영된 사용자 영상을 구성하는 복수의 프레임들 중에서 인접하는 복수의 프레임 사이에 빼기(subtract) 연산을 수행하여 획득할 수 있다. 구체적으로, 현재 프레임을 기준으로 인접하는 바로 전 프레임의 픽셀정보를 불러오고, 현재 프레임의 픽셀 정보를 불러온 후, 임시로 픽셀 양을 정하고 빼기(Subtract)연산을 실시하면 차 영상을 추출할 수 있다.Here, the difference image can be obtained by performing a subtract operation between adjacent frames among a plurality of frames constituting the captured user image. Specifically, when the pixel information of the immediately preceding frame is retrieved based on the current frame, the pixel information of the current frame is retrieved, and the pixel amount is temporarily determined and subtracted, the difference image can be extracted have.

한편, 차영상에서 나타나는 정보들은 영상에서 변화가 발생한 지점을 의미할 수 있다. 이러한 학습데이터에 대한 차영상에 통계적 분석(PCA)을 수행하여 특징을 추출하고, 하나의 제스처에 대해 추출된 특징을 연속적으로 연결한 시퀀스가 제스처 특징이라고 할 수 있다.On the other hand, the information appearing in the difference image may mean a point where a change occurs in the image. A gesture feature is a sequence in which features are extracted by performing statistical analysis (PCA) on the difference image of the learning data, and the extracted features are successively connected to one gesture.

도 3은 차 영상 및 제스처 특징을 추출하는 동작을 설명하는 도면이다.3 is a view for explaining an operation of extracting difference images and gesture characteristics.

도 3을 참고하면, 촬영부(110)에서 촬영된 사용자 영상을 구성하는 복수의 프레임들(310-1, 310-2, 310-3 ~ 310-n)에 크기 조정 및 RGB영상을 Gray 영상으로 변환하는 전처리(320-1, 320-2, 320-3 ~ 320-n)를 수행하고, 인접하는 복수의 프레임 사이에 빼기 연산을 수행하면 차영상들(330-1, 330-2 ~ 330-n)을 획득할 수 있다.Referring to FIG. 3, the size adjustment and the RGB image are converted into a gray image in a plurality of frames 310-1, 310-2, and 310-3 to 310-n constituting a user image photographed by the photographing unit 110 The preprocessors 320-1, 320-2 and 320-3 to 320-n for performing the conversion are performed and subtraction operations are performed between adjacent frames to generate the difference images 330-1 and 330-2 to 330- n).

제스처 인식부(150)는 획득된 차 영상의 제스처 특징을 추출하여, 추출된 차 영상의 제스처 특징과 저장부(110)에 기 저장된 제스처 정보의 제스처 특징 간의 통계적 거리를 산출한다.The gesture recognition unit 150 extracts a gesture feature of the obtained difference image and calculates a statistical distance between the gesture feature of the extracted difference image and the gesture feature of the gesture information stored in the storage unit 110. [

차 영상의 제스처 특징을 추출하는 방법은 여러 가지 기준에 의해 구분될 수 있으며, 대표적인 기준으로는 특징을 추출하는 영역의 범위에 따른 전역적 특징 추출 방법과 지역적 특징 추출 방법이 있다.The method of extracting the gesture feature of the difference image can be classified by various criteria. As a representative criterion, there is a global feature extraction method and a regional feature extraction method according to the range of the feature extraction region.

전역적 특징 추출방법은 차 영상 전체에 대해 공분산과 같은 통계적 수치를 이용한 것으로 특정 목적 함수를 만족시키기 위해 고유치, 고유 벡터 등을 적용하는 것이 일반적이다. 따라서 임의의 학습 데이터로부터 획득되는 특징들은 해당 학습 데이터의 전체적인 설명이 가능하도록 표현되어 진다. 대표적인 방법으로 PCA(Principal Component Analysis) 및 LDA(Linear Discriminant Analysis)와 같은 방법이 있다.The global feature extraction method uses statistical values such as covariance for the whole difference image. It is general to apply eigenvalues and eigenvectors to satisfy a specific objective function. Therefore, the features obtained from arbitrary learning data are expressed in such a way that the entire description of the learning data is possible. Representative methods include Principal Component Analysis (PCA) and Linear Discriminant Analysis (LDA).

지역적 특징 추출방법은 차 영상의 특징을 잘 설명해 줄 수 있는 지역적인 특징을 추출하는 것으로, 차 영상에서 특정 지역외 다른 지역에 대한 특징은 고려하지 않는다. 지역적 특징 추출방법은 대표적으로 SIFT(Scale Invariant Feature Transform), LPP(Locality Preserving Projection), dense-SIFT와 같은 방법을 들 수 있다.The regional feature extraction method extracts local features that can explain the feature of the difference image, and does not consider the feature of the region other than the specific region in the difference image. Local feature extraction methods are typically SIFT (Scale Invariant Feature Transform), LPP (Locality Preserving Projection), and dense-SIFT.

한편, 제스처 인식부(150)는 동적 시간 정합(DTW : Dynamic Time Warping)을 사용하여 길이가 다른 두개의 데이터를 조정하고, 추출된 차 영상의 제스처 특징과 기저장된 제스처 특징과의 통계적 거리를 산출한다.Meanwhile, the gesture recognition unit 150 adjusts two data having different lengths using dynamic time warping (DTW), calculates a statistical distance between the gesture characteristic of the extracted difference image and the stored gesture characteristic do.

촬상된 사용자 영상과 기저장된 제스처 영상의 길이가 상이하면 두 영상을 비교할 수 없다는 문제가 발생된다.If the captured user image and the stored gesture image have different lengths, there is a problem that the two images can not be compared.

따라서, 제스처 인식부(150)는 촬상된 사용자 영상으로부터 추출된 차 영상의 제스처 특징과 기저장된 제스처 특징을 비교하기 전에 동적 시간 정합을 사용하여 두 영상의 길이를 조절한다.Accordingly, the gesture recognition unit 150 adjusts the length of the two images using the dynamic time matching before comparing the gesture feature of the difference image extracted from the captured user image with the pre-stored gesture feature.

여기서, 동적 시간 정합은 두 시퀀스 데이터를 정렬하기 위한 최적 경로를 계산할 수 있는 방법으로 시계열 데이터 사이의 거리 계산에 사용될 수 있는 방법이다. 본 실시 예에서는 차 영상의 제스처 특징 간의 거리 계산을 위해 통계적 거리를 사용하였는데 이는 아래의 수학식 2와 같다.Here, dynamic time alignment is a method that can calculate an optimal path for sorting two sequence data and can be used for calculating the distance between time series data. In the present embodiment, a statistical distance is used to calculate the distance between the gesture characteristics of the difference image, as shown in Equation 2 below.

Figure pat00022
Figure pat00022

여기서, SGESTURE는 제스처 유사도,

Figure pat00023
는 기 등록된 사용자의 제스처 특징 정보,
Figure pat00024
는 촬영된 사용자 영상에서 추출된 차영상의 제스처 특징 정보이다. 한편, Dist() 함수는 두 데이터간의 통계적 거리를 산출하는 함수이며, cov() 공분산을 산출하는 함수, std()는 표준편차를 산출하는 함수이다.Here, S GESTURE is the gesture similarity,
Figure pat00023
Gesture feature information of a previously registered user,
Figure pat00024
Is the gesture feature information of the difference image extracted from the photographed user image. On the other hand, the Dist () function is a function that calculates the statistical distance between two pieces of data. The cov () covariance function and std () is a function that calculates the standard deviation.

여기서, 산출되는 제스처 유사도는 0에 가까울수록 통계적 거리가 짧은 것으로, 상호간의 제스처가 유사하다고 판단될 수 있다.Here, the calculated gesture similarity is closer to 0, the statistical distance is shorter, and it can be judged that the gestures are mutually similar.

일 예로, 손을 좌우로 흔드는 영상의 차 영상의 제스처 특징을 X, 상하로 흔드는 영상의 차 영상의 제스처 특징을 Y, 원을 그리는 영상의 차 영상의 제스처 특징을 Z라고 했을때, 촬영된 사용자 영상의 차 영상의 제스처 특징과 기저장된 차 영상의 제스처 특징 X의 통계적 거리가 가장 짧은 경우, 사용자의 제스처를 특징점 X에 대응되는 좌우로 손을 흔드는 동작이라고 인식할 수 있다.For example, when the gesture characteristic of the car image of the image shaking the hand is X, the gesture characteristic of the car image of the image shaking up and down is Y, and the gesture characteristic of the car image of the circle image is Z, If the statistical distance of the gesture feature X of the difference image of the image and the gesture feature X of the stored difference image is the shortest, the gesture of the user can be recognized as a shaking motion to the left and right corresponding to the feature point X. [

제어부(130)는 측정된 얼굴 유사도 및 제스처 유사도를 기초로 등록된 사용자인지를 판단한다. 구체적으로, 제어부(130)는 얼굴 인식부(140) 및 제스처 인식부(150)에서 측정된 제스처 유사도를 기초로 등록된 사용자 인지를 판단할 수 있다.The controller 130 determines whether the user is a registered user based on the measured face similarity and gesture similarity. Specifically, the controller 130 may determine whether the user is a registered user based on the gesture similarity measured by the face recognition unit 140 and the gesture recognition unit 150. [

구체적으로, 제어부(130)는 측정된 얼굴 유사도 및 제스처 유사도 모두 각각의 인증 기준을 만족하는 경우에만 등록된 사용자로 판단할 수 있다. 즉, 촬영부(110)에 의해 촬영된 사용자의 얼굴 및 제스처 유사도 모두 각각의 문턱치(Threshold)보다 낮을 경우 '수락(accept)'하여 사용자로 인증하게 되며, 두 개의 유사도 중 어느 하나라도 문턱치보다 높은 경우 '거부(reject)'할 수 있다.Specifically, the controller 130 can determine that the user is registered only when the measured face similarity and the gesture similarity satisfy the respective authentication criteria. That is, if both the face of the user and the gesture similarity photographed by the photographing unit 110 are lower than respective thresholds, the user is authenticated as 'accept', and any one of the two similarities is higher than the threshold You can 'reject' it.

한편, 제어부(130)는 인증 장치(100) 내의 각 구성을 제어한다.On the other hand, the control unit 130 controls each configuration in the authentication apparatus 100. [

사용자 인터페이스부(160)는 판단 결과를 표시한다. 구체적으로, 사용자 인터페이스부(160)는 제어부(130)에서 판단된 인증 결과를 표시할 수 있다.The user interface unit 160 displays the determination result. Specifically, the user interface unit 160 may display the authentication result determined by the control unit 130. FIG.

일 예로, 등록된 사용자로 판단되는 경우, 디스플레이를 통하여 '수락'을 표시할 수 있으며 또한 별도의 장치에 제어 신호를 보내어 '잠금해제' 등의 동작을 수행할 수 있다.For example, when it is determined that the user is a registered user, 'accept' can be displayed through a display, and a control signal can be sent to a separate device to perform an operation such as 'unlock'.

한편, 사용자 인터페이스부(160)는 인증 장치(100)에서 지원하는 각종 기능을 사용자가 설정 또는 선택할 수 있는 다수의 기능키를 구비하며, 인증 장치(110)에서 제공되는 각종 정보를 표시할 수 있다. 사용자 인터페이스(160)는 모니터 및 키보드를 결합하여 구현할 수 있으며, 터치패드 등과 같이 입력과 출력이 동시에 구현되는 장치로도 구현할 수도 있다.Meanwhile, the user interface unit 160 may include a plurality of function keys that a user can set or select various functions supported by the authentication apparatus 100, and may display various information provided by the authentication apparatus 110 . The user interface 160 may be implemented by a combination of a monitor and a keyboard, or may be implemented as an apparatus in which inputs and outputs are simultaneously realized, such as a touch pad.

이와 같이, 얼굴 유사도 및 제스처 유사도를 모두 사용하는 인증 장치(100)는 한가지의 유사도를 사용할 때보다 더 강건한 사용자 인증을 수행할 수 있다. 이에 대한 효과는 아래 도 4 내지 도 7을 참고하여 자세히 설명하도록 한다.As described above, the authentication apparatus 100 using both the face similarity degree and the gesture similarity degree can perform stronger user authentication than when using one similarity degree. The effect will be described in detail with reference to FIGS. 4 to 7 below.

또한, 본 발명의 일 실시 예에 따른 인증 장치(100)는 스마트 기기에 공통적으로 장착되는 촬영부를 사용함으로서 다양한 스마트 기기에서 사용자 인증을 위한 호환성과 함께 다중 생체 정보를 활용함으로서 강건한 사용자 인증 시스템을 구성할 수 있다.In addition, the authentication apparatus 100 according to an exemplary embodiment of the present invention uses a photographing unit commonly installed in a smart device, so that it is compatible with user authentication in various smart devices and utilizes multiple biometric information to construct a robust user authentication system can do.

이하 도 4 내지 도 7를 참고하여 본 발명의 일 실시 예에 따른 인증 장치(100)에 대한 시뮬레이션 결과를 설명하도록 한다.Hereinafter, simulation results of the authentication apparatus 100 according to an embodiment of the present invention will be described with reference to FIGS. 4 to 7. FIG.

총 20명의 각각 다른 사용자 중 한명을 사용자로 하고, 나머지 19명에 대해서는 사칭자로 간주하여 전체 20명에 대해 각 2개의 영상을 테스트 데이터로 사용하여 등록된 사용자 데이터와의 유사도를 측정하고 이의 분포를 관찰한 결과이다.A total of 20 users are regarded as impersonators for the remaining 19 users, and two images for all 20 persons are used as test data to measure the similarity with the registered user data. Observation results.

여기서, 평가 척도로 FAR(False Accept Rate), FRR(False Reject Rate)을 사용하며, FAR은 사칭자(Impostor)를 사용자(Genuine)로 오분류하는 비율, FRR은 사용자(Genuine)를 사칭자(Impostor)로 오분류하는 비율을 의미한다.Here, FAR (False Accept Rate) and FRR (False Reject Rate) are used as evaluation scales. FAR is a ratio of misclassifying the impostor as a genuine user, FRR is a genuine user Impostor ").

인증 장치(100)는 일반적으로 사용자를 사칭자로 오분류하는 것은 허용될 수 있어도, 사칭자를 사용자로 오분류하는 것은 허용되어서는 안되기 때문에, FAR 0%에서 FRR 가 최소인 판정 기준을 선택해야 한다.Although the authentication device 100 may generally be allowed to classify a user as an imposter, it must select a criterion with a minimum FRR at FAR 0%, since it should not be allowed to misclassify the impersonator as a user.

도 4 및 도 5는 본 발명의 일 실시 예에 따른 얼굴 및 제스처에 대한 FAR/FRR 그래프를 설명하기 위한 도면이다.FIGS. 4 and 5 are views for explaining FAR / FRR graphs for faces and gestures according to an embodiment of the present invention.

도 4를 참고하면, 그래프에서 수직선(430)은 FAR이 0%가 되는 문턱치를 의미한다. 얼굴에 대한 판정 기준이 12.28(430)인 경우 FAR(410)은 0%, FRR(420)은 42.5%이다. Referring to FIG. 4, the vertical line 430 in the graph indicates a threshold at which the FAR is 0%. If the criterion for the face is 12.28 (430), the FAR 410 is 0% and the FRR 420 is 42.5%.

한편, 도 5를 참고하면, 제스처에 대한 판정 기준이 0.78(530)인 경우 FAR(510) 0%, FRR(520)은 15%이다.On the other hand, referring to FIG. 5, FAR 510 is 0% and FRR 520 is 15% when the criterion for gesture is 0.78 (530).

FAR과 FRR은 일반적으로 판정 기준에 따라 변동되는 것으로, 시뮬레이션에서는 보안이 엄격한 경우를 가정하고 FAR이 0%인 경우로 설정하였다.The FAR and FRR generally vary according to the criterion. In the simulation, it is assumed that the security is strict and the FAR is set to 0%.

도 4 및 도 5의 결과에 비추어 얼굴 정보에 대해 FAR을 0%로 하는 경우 FRR이 매우 높게 나타나는 문제가 발생하였다. 이는 얼굴 정보를 사용하는 경우 분류 문제에는 적절하나, 인증 문제에서는 각 사람이 가지는 다양한 변형에 민감하기 때문에 발생하는 문제가 발생할 수 있다.4 and 5, when the FAR is 0% for the face information, the FRR is very high. This is appropriate for classification problem when using face information, but it may cause problems because authentication problem is sensitive to various variations of each person.

한편, 제스처 정보의 경우 FAR이 0%인 경우, FRR이 15%의 결과를 보여주어 얼굴에 비해 인증 문제에 더 적합한 결과를 나타낸다. 이는 각 사용자 별로 상이한 제스처를 사용함으로 인한 클래스 간 분산이 클래스 내 분산에 비해 크게 발생하기 때문이다.On the other hand, when the FAR is 0% in the case of the gesture information, the FRR shows a result of 15%, which is more suitable for the authentication problem than the face. This is because the variance between classes due to the use of different gestures for each user is larger than the variance within the class.

도 6 및 도 7은 인증에 사용한 데이터에 따른 FAR/FRR 결과를 정리한 것으로, 도 6은 본 발명의 일 실시 예에 따른 표본의 산포도를 설명하기 위한 도면이며, 도 7은 본 발명의 일 실시 예에 따른 각 인증 요소 별 0% FAR의 FRR 그래프를 설명한 위한 도면이다.FIGS. 6 and 7 are summarized FAR / FRR results according to data used for authentication. FIG. 6 is a view for explaining a scattering diagram of a sample according to an embodiment of the present invention, and FIG. FIG. 5 is a diagram for explaining the FRR graph of the 0% FAR for each authentication factor according to the example.

도 6을 참고하면, 얼굴 인증 및 제스처 인증을 모두 FAR이 0%가 되도록 설정된 경우로, FRR이 10%의 결과를 보여주고 있다. 여기서, 도 4 및 도 5의 실험 결과를 반영하여 얼굴 유사도의 판정 기준은 12.28(610), 제스처 유사도의 판정 기준은 0.78(620)으로 설정될 수 있다.Referring to FIG. 6, when FAR is set to 0% in both face authentication and gesture authentication, FRR shows a result of 10%. Here, the judgment standard of the face similarity degree may be set to 12.28 (610) and the judgment standard of the gesture similarity degree may be set to 0.78 (620) in order to reflect the experimental results of FIGS.

한편, 도 7에서는 각 인증 요소 별 FAR/FRR 을 비교하고 있다.On the other hand, FIG. 7 compares the FAR / FRR for each authentication element.

도 7을 참고하면, 얼굴과 제스처 정보를 개별적으로 사용한 경우와 두 정보를 함께 사용한 경우의 FRR을 나타내고 있다. 두 정보를 함께 사용한 경우(Combination), 정보 모두 '수락'인 경우에만 수락이며, 어느 하나의 정보라도 '거부'인 경우 최종 판별을 '거부'로 하여 FRR을 계산한 것으로 하나의 정보만을 사용한 경우보다 FRR이 개선됨을 확인할 수 있다.Referring to FIG. 7, FRR is shown when face and gesture information are used separately and when both pieces of information are used together. If both information are used together (Combination), only if the information is all 'Accepted', and if any of the information is 'Deny', the FRR is calculated with 'Final Decision' as 'Denied' It is confirmed that the FRR is improved.

상술한 도 7의 시뮬레이션 결과에 비추어 보면, 본 발명의 일 실시 예에 따른 인증 장치(100)는 기존에 사용되지 않았던 영상 기반의 제스처 정보 및 얼굴 정보를 활용하여 정교한 사용자 인증을 수행할 수 있게 할 수 있다.According to the simulation result of FIG. 7, the authentication apparatus 100 according to the embodiment of the present invention can perform sophisticated user authentication using the image-based gesture information and face information that have not been used before .

도 8은 본 발명의 일 실시 예에 따른 인증 방법의 처리를 설명하기 위한 흐름도이다.8 is a flowchart for explaining the processing of the authentication method according to the embodiment of the present invention.

도 8을 참고하면, 인증 장치(100)는 사용자 영상을 촬영할 수 있다(S810).Referring to FIG. 8, the authentication apparatus 100 can capture a user image (S810).

그리고, 인증 장치(100)는 촬영된 영상을 그레이 스케일 영상으로 변환하는 전처리 과정을 수행할 수 있다(S820).Then, the authentication apparatus 100 may perform a preprocessing process of converting the photographed image into a grayscale image (S820).

그리고, 촬영된 사용자 영상에서 얼굴 영상을 탐색하고(S830), 탐색된 얼굴 영상을 기정의된 사이즈로 크기를 변환할 수 있다(S831). 그리고, HOG 기술자를 추출하여(S832), 얼굴 영상과 기 등록된 사용자의 얼굴 정보를 대비하여 얼굴 유사도를 측정할 수 있다(S833).Then, the face image is searched in the photographed user image (S830), and the size of the searched face image can be converted into the predetermined size (S831). Then, the HOG descriptor is extracted (S832), and the face similarity degree can be measured by comparing the face image with the face information of the already registered user (S833).

이와 동시에, 촬영된 사용자 영상의 각각의 프레임에 대한 차영상을 계산하고(S840), 계산된 차영상을 이용하여 추출된 제스처 특징(S841)과 기 등록된 사용자의 제스처 정보를 동적 시간 정합을 수행하여(S842), 제스처 유사도를 측정할 수 있다(S843).At the same time, a difference image for each frame of the captured user image is calculated (S840), and the gesture feature (S841) extracted using the calculated difference image and the gesture information of the already registered user are subjected to dynamic time matching (S842), and the gesture similarity can be measured (S843).

얼굴 유사도 측정 및 제스처 유사도 측정은 도 1에서 구체적으로 설명하였는 바 중복 설명은 생략하도록 한다.The facial similarity measurement and the gesture similarity measurement are described in detail in FIG. 1, but a duplicate explanation will be omitted.

그리고, 인증 장치(100)는 측정된 얼굴 유사도 및 상기 제스처 유사도를 기초로 등록된 사용자인지를 판단할 수 있다(S850).Then, the authentication apparatus 100 can determine whether the user is a registered user based on the measured face similarity and the gesture similarity (S850).

구체적으로, 인증 장치(100)는 측정된 얼굴 유사도 및 제스처 유사도 모두 각각의 인증 기준을 만족하는 경우에만 등록된 사용자로 판단할 수 있다. 즉, 촬영된 사용자의 얼굴 및 제스처 유사도 모두 각각의 문턱치(Threshold)보다 낮을 경우 '수락(accept)'하여 사용자로 인증하게 되며, 두 개의 유사도 중 어느 하나라도 문턱치보다 높은 경우 '거부(reject)'할 수 있다.Specifically, the authentication apparatus 100 can determine that the user is a registered user only if the measured face similarity and the gesture similarity satisfy the respective authentication criteria. That is, if both of the captured face and gesture similarity are lower than the respective thresholds, the user is authenticated as 'accept', and if any of the two similarities is higher than the threshold value, can do.

그리고, 인증 장치(100)는 판단 결과를 표시할 수 있다(S860).Then, the authentication apparatus 100 can display the determination result (S860).

도 8과 같은 인식 방법은 도 1의 구성을 가지는 인증 장치상에서 실행될 수 있으며, 그 밖의 다른 구성을 가지는 인증 장치상에서도 실행될 수 있다. The recognition method as shown in Fig. 8 can be executed on the authentication device having the configuration of Fig. 1, or on the authentication device having other configurations.

도 9는 본 발명의 일 실시 예에 따른 인증 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an authentication method according to an embodiment of the present invention.

도 9를 참고하면, 인증 장치(100)는 기 등록된 사용자의 얼굴 정보 및 제스처 정보를 저장할 수 있다.(S910).Referring to FIG. 9, the authentication apparatus 100 may store face information and gesture information of a previously registered user (S910).

그리고, 인증 장치(100)는 사용자 영상을 촬영할 수 있다(S920). 구체적으로 인증 장치(100)는 사용자가 인증 장치(100)에 접근하는 경우, 인증을 위하여 사용자 영상을 촬영할 수 있다.Then, the authentication apparatus 100 can capture a user image (S920). Specifically, when the user accesses the authentication apparatus 100, the authentication apparatus 100 can take a user image for authentication.

그리고, 촬영된 사용자 영상에서 얼굴 영상을 추출하고, 얼굴 영상과 기 등록된 사용자의 얼굴 정보를 대비하여 얼굴 유사도를 측정할 수 있다(S930).Then, the facial image is extracted from the captured user image, and the facial similarity degree can be measured by comparing the facial image with the facial information of the already registered user (S930).

이와 동시에, 촬영된 사용자 영상의 각각의 프레임에 대한 차영상을 계산하고, 계산된 차영상을 이용하여 추출된 제스처 특징과 기 등록된 사용자의 제스처 정보를 대비하여 제스처 유사도를 측정할 수 있다(S940).At the same time, it is possible to calculate the difference image for each frame of the captured user image, and to measure the gesture similarity by comparing the gesture feature extracted using the calculated difference image with the gesture information of the pre-registered user (S940 ).

얼굴 유사도 측정 및 제스처 유사도 측정은 도 1에서 구체적으로 설명하였는 바 중복 설명은 생략하도록 한다.The facial similarity measurement and the gesture similarity measurement are described in detail in FIG. 1, but a duplicate explanation will be omitted.

그리고, 인증 장치(100)는 측정된 얼굴 유사도 및 상기 제스처 유사도를 기초로 등록된 사용자인지를 판단할 수 있다(S950).Then, the authentication apparatus 100 can determine whether the user is a registered user based on the measured face similarity and the gesture similarity (S950).

구체적으로, 인증 장치(100)는 측정된 얼굴 유사도 및 제스처 유사도 모두 각각의 인증 기준을 만족하는 경우에만 등록된 사용자로 판단할 수 있다. 즉, 촬영된 사용자의 얼굴 및 제스처 유사도 모두 각각의 문턱치(Threshold)보다 낮을 경우 '수락(accept)'하여 사용자로 인증하게 되며, 두 개의 유사도 중 어느 하나라도 문턱치보다 높은 경우 '거부(reject)'할 수 있다.Specifically, the authentication apparatus 100 can determine that the user is a registered user only if the measured face similarity and the gesture similarity satisfy the respective authentication criteria. That is, if both of the captured face and gesture similarity are lower than the respective thresholds, the user is authenticated as 'accept', and if any of the two similarities is higher than the threshold value, can do.

그리고, 인증 장치(100)는 판단 결과를 표시할 수 있다(S960).Then, the authentication apparatus 100 can display the determination result (S960).

도 9과 같은 인식 방법은 도 1의 구성을 가지는 인증 장치상에서 실행될 수 있으며, 그 밖의 다른 구성을 가지는 인증 장치상에서도 실행될 수 있다. The recognition method as shown in Fig. 9 can be executed on the authentication device having the configuration of Fig. 1, or on the authentication device having other configurations as well.

또한, 상술한 바와 같은 인증 방법은, 상술한 바와 같은 인증 방법을 실행하기 위한 적어도 하나의 실행 프로그램으로 구현될 수 있으며, 이러한 실행 프로그램은 컴퓨터 판독 기록매체에 저장될 수 있다. Furthermore, the authentication method as described above can be implemented as at least one executable program for executing the above-described authentication method, and the executable program can be stored in a computer readable recording medium.

따라서, 본 발명의 인증 방법들은 컴퓨터 판독가능한 기록매체 상의 컴퓨터 기록 가능한 코드로써 실시될 수 있다. 컴퓨터 판독가능한 기록매체는 컴퓨터시스템에 의해 판독될 수 있는 데이터를 저장할 수 있는 디바이스가 될 수 있다. Thus, the authentication methods of the present invention may be embodied as computer-writable code on a computer-readable recording medium. The computer-readable recording medium may be a device capable of storing data that can be read by a computer system.

이상에서는 본 발명의 바람직한 실시 예에 대해서 도시하고, 설명하였으나, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 누구든지 다양한 변형 실시할 수 있는 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the scope of the appended claims.

110 : 저장부 120 : 촬영부
130 : 제어부 140 : 얼굴 인식부
150 : 제스처 인식부 160 : 사용자 인터페이스부
110: storage unit 120: photographing unit
130: control unit 140: face recognition unit
150: gesture recognition unit 160: user interface unit

Claims (16)

인증 장치에 있어서,
기 등록된 사용자의 얼굴 정보 및 제스처 정보를 저장하는 저장부;
사용자 영상을 촬영하는 촬영부;
상기 촬영된 사용자 영상에서 얼굴 영상을 추출하고, 상기 얼굴 영상과 상기 기 등록된 사용자의 얼굴 정보를 대비하여 얼굴 유사도를 측정하는 얼굴 인식부;
상기 촬영된 사용자 영상의 각각의 프레임에 대한 차영상을 계산하고, 상기 계산된 차영상을 이용하여 추출된 제스처 특징과 기 등록된 사용자의 제스처 정보를 대비하여 제스처 유사도를 측정하는 제스처 인식부; 및
상기 측정된 얼굴 유사도 및 상기 제스처 유사도를 기초로 등록된 사용자인지를 판단하는 제어부;를 포함하는 인증 장치.
In the authentication apparatus,
A storage unit for storing face information and gesture information of a previously registered user;
A photographing unit for photographing a user image;
A facial recognition unit for extracting a facial image from the photographed user image and measuring facial similarity by comparing the facial image with facial information of the previously registered user;
A gesture recognition unit for calculating a difference image for each frame of the captured user image and measuring gesture similarity by comparing the gesture feature extracted using the calculated difference image with gesture information of a previously registered user; And
And a controller for determining whether the user is a registered user based on the measured face similarity and the gesture similarity.
제1항에 있어서,
상기 촬영부는,
상기 촬영된 사용자 영상을 그레이 스케일 영상으로 변환하는 것을 특징으로 하는 인증 장치.
The method according to claim 1,
Wherein,
And converts the photographed user image into a grayscale image.
제1항에 있어서,
상기 얼굴 인식부는,
비올라-존스 얼굴 검출기를 사용하여 사용자 영상에서 얼굴 영상을 추출하고, 상기 추출된 얼굴 영상에서 HOG(Histogram of Oriented Gradient) 기술자를 추출하여 얼굴 유사도를 측정하는 것을 특징으로 하는 인증 장치.
The method according to claim 1,
Wherein the face recognizing unit comprises:
Extracts a face image from a user image using a Viola-Jones face detector, and extracts a Histogram of Oriented Gradient (HOG) descriptor from the extracted face image to measure face similarity.
제3항에 있어서,
상기 얼굴 인식부는,
Figure pat00025
을 이용하여 얼굴 유사도를 계산하는 것을 특징으로 하는 인증 장치. (여기서, SFACE는 얼굴 유사도,
Figure pat00026
는 기 등록된 사용자의 얼굴 정보에 대한 HOG 기술자 ,
Figure pat00027
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 HOG 기술자,
Figure pat00028
는 기 등록된 사용자의 얼굴 정보에 대한 i번째 윈도우의 HOG 기술자값,
Figure pat00029
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 i번째 윈도우의 HOG 기술자값, i는 1~M의 자연수 값이다.)
The method of claim 3,
Wherein the face recognizing unit comprises:
Figure pat00025
And the face similarity calculating unit calculates the face similarity by using the face similarity. (Where S FACE is face similarity,
Figure pat00026
A HOG descriptor for the face information of the previously registered user,
Figure pat00027
A HOG descriptor for the face image extracted from the photographed user image,
Figure pat00028
The HOG descriptor value of the i-th window with respect to the face information of the previously registered user,
Figure pat00029
Is the HOG descriptor value of the i-th window for the face image extracted from the photographed user image, and i is a natural number value of 1 to M.)
제1항에 있어서,
상기 제스처 인식부는
상기 추출된 제스처 특징과 상기 기 등록된 사용자의 제스처 정보의 시퀀스 길이를 동일하게 조정하는 동적 시간 정합(dynamic time warping)을 수행하여. 상호 정보량에 기반을 둔 거리 척도를 통하여 제스처 유사도를 측정하는 것을 특징으로 하는 인증 장치.
The method according to claim 1,
The gesture recognition unit
Performing dynamic time warping to adjust the sequence length of the extracted gesture characteristic and the gesture information of the pre-registered user equally. Wherein the gesture similarity degree is measured through a distance scale based on mutual information.
제5항에 있어서,
상기 제스처 인식부는,
Figure pat00030
을 이용하여 제스처 유사도를 측정하는 것을 특징으로 하는 인증 장치.(여기서, SGESTURE는 제스처 유사도,
Figure pat00031
는 기 등록된 사용자의 제스처 특징 정보 ,
Figure pat00032
는 촬영된 사용자 영상에서 추출된 차영상의 제스처 특징 정보이다.)
6. The method of claim 5,
The gesture recognizing unit recognizes,
Figure pat00030
Wherein the gesture resemblance is measured using the gesture resemblance ,
Figure pat00031
Gesture feature information of a previously registered user,
Figure pat00032
Is the gesture feature information of the difference image extracted from the photographed user image.)
제1항에 있어서,
상기 제어부는,
상기 측정된 얼굴 유사도 및 상기 제스처 유사도 모두 각각의 인증 기준을 만족하는 경우에만 등록된 사용자로 판단하는 것을 특징으로 하는 인증 장치.
The method according to claim 1,
Wherein,
And judges that the user is a registered user only when both the measured face similarity and the gesture similarity satisfy respective authentication criteria.
제1항에 있어서,
상기 판단 결과를 표시하는 사용자 인터페이스부;를 더 포함하는 것을 특징으로 하는 인증 장치.
The method according to claim 1,
And a user interface unit for displaying the result of the determination.
인증 장치의 인증 방법에 있어서,
기 등록된 사용자의 얼굴 정보 및 제스처 정보를 저장하는 단계;
사용자 영상을 촬영하는 단계;
상기 촬영된 사용자 영상에서 얼굴 영상을 추출하고, 상기 얼굴 영상과 상기 기 등록된 사용자의 얼굴 정보를 대비하여 얼굴 유사도를 측정하는 단계;
상기 촬영된 사용자 영상의 각각의 프레임에 대한 차영상을 계산하고, 상기 계산된 차영상을 이용하여 추출된 제스처 특징과 기 등록된 사용자의 제스처 정보를 대비하여 제스처 유사도를 측정하는 단계; 및
상기 측정된 얼굴 유사도 및 상기 제스처 유사도를 기초로 등록된 사용자인지를 판단하는 단계;를 포함하는 인증 방법.
An authentication method of an authentication apparatus,
Storing face information and gesture information of a previously registered user;
Capturing a user image;
Extracting a face image from the photographed user image, and measuring face similarity by comparing the face image with face information of the pre-registered user;
Calculating a difference image for each frame of the photographed user image, measuring gesture similarity by comparing gesture characteristics extracted using the calculated difference image with gesture information of a previously registered user; And
And determining whether the user is a registered user based on the measured face similarity and the gesture similarity.
제9항에 있어서,
상기 촬영하는 단계는,
상기 촬영된 사용자 영상을 그레이 스케일 영상으로 변환하는 것을 특징으로 하는 인증 방법.
10. The method of claim 9,
Wherein the photographing step comprises:
And converting the photographed user image into a grayscale image.
제9항에 있어서,
상기 얼굴 유사도를 측정하는 단계는,
비올라-존스 얼굴 검출기를 사용하여 사용자 영상에서 얼굴 영상을 추출하고, 상기 추출된 얼굴 영상에서 HOG(Histogram of Oriented Gradient) 기술자를 추출하여 얼굴 유사도를 측정하는 것을 특징으로 하는 인증 방법.
10. The method of claim 9,
Wherein the step of measuring the face similarity comprises:
Extracting a face image from a user image using a Viola-Jones face detector, and extracting a Histogram of Oriented Gradient (HOG) descriptor from the extracted face image to measure face similarity.
제11항에 있어서,
상기 얼굴 유사도를 측정하는 단계는,
Figure pat00033
을 이용하여 얼굴 유사도를 계산하는 것을 특징으로 하는 인증 방법.(여기서, SFACE는 얼굴 유사도,
Figure pat00034
는 기 등록된 사용자의 얼굴 정보에 대한 HOG 기술자 ,
Figure pat00035
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 HOG 기술자,
Figure pat00036
는 기 등록된 사용자의 얼굴 정보에 대한 i번째 윈도우의 HOG 기술자값,
Figure pat00037
는 촬영된 사용자 영상에서 추출된 얼굴 영상에 대한 i번째 윈도우의 HOG 기술자값, i는 1~M의 자연수 값이다.)
12. The method of claim 11,
Wherein the step of measuring the face similarity comprises:
Figure pat00033
Wherein the face similarity is calculated by using S FACE ,
Figure pat00034
A HOG descriptor for the face information of the previously registered user,
Figure pat00035
A HOG descriptor for the face image extracted from the photographed user image,
Figure pat00036
The HOG descriptor value of the i-th window with respect to the face information of the previously registered user,
Figure pat00037
Is the HOG descriptor value of the i-th window for the face image extracted from the photographed user image, and i is a natural number value of 1 to M.)
제9항에 있어서,
상기 제스처 유사도를 측정하는 단계는,
상기 추출된 제스처 특징과 상기 기 등록된 사용자의 제스처 정보의 시퀀스 길이를 동일하게 조정하는 동적 시간 정합(dynamic time warping)을 수행하여. 상호 정보량에 기반을 둔 거리 척도를 통하여 제스처 유사도를 측정하는 것을 특징으로 하는 인증 방법.
10. The method of claim 9,
Wherein the step of measuring the gesture similarity comprises:
Performing dynamic time warping to adjust the sequence length of the extracted gesture characteristic and the gesture information of the pre-registered user equally. Wherein the gesture similarity is measured through a distance scale based on mutual information.
제13항에 있어서,
상기 제스처 유사도를 측정하는 단계는,
Figure pat00038
을 이용하여 제스처 유사도를 측정하는 것을 특징으로 하는 인증 방법.(여기서, SGESTURE는 제스처 유사도,
Figure pat00039
는 기 등록된 사용자의 제스처 특징 정보,
Figure pat00040
는 촬영된 사용자 영상에서 추출된 차영상의 제스처 특징 정보이다.)
14. The method of claim 13,
Wherein the step of measuring the gesture similarity comprises:
Figure pat00038
Wherein the gesture resemblance is measured using the Gesture similarity,
Figure pat00039
Gesture feature information of a previously registered user,
Figure pat00040
Is the gesture feature information of the difference image extracted from the photographed user image.)
제9항에 있어서,
상기 등록된 사용자인지를 판단하는 단계는,
상기 측정된 얼굴 유사도 및 상기 제스처 유사도 모두 각각의 인증 기준을 만족하는 경우에만 등록된 사용자로 판단하는 것을 특징으로 하는 인증 방법.
10. The method of claim 9,
Determining whether the user is the registered user,
Wherein the determined user is determined to be a registered user only when both the measured face similarity and the gesture similarity satisfy respective authentication criteria.
제9항에 있어서,
상기 판단 결과를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 인증 방법.
10. The method of claim 9,
And displaying the result of the determination.
KR1020130022198A 2013-02-28 2013-02-28 Authentication apparatus and authentication method thereof KR101455666B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130022198A KR101455666B1 (en) 2013-02-28 2013-02-28 Authentication apparatus and authentication method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130022198A KR101455666B1 (en) 2013-02-28 2013-02-28 Authentication apparatus and authentication method thereof

Publications (2)

Publication Number Publication Date
KR20140107946A true KR20140107946A (en) 2014-09-05
KR101455666B1 KR101455666B1 (en) 2014-11-03

Family

ID=51755371

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130022198A KR101455666B1 (en) 2013-02-28 2013-02-28 Authentication apparatus and authentication method thereof

Country Status (1)

Country Link
KR (1) KR101455666B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160056072A (en) * 2014-11-11 2016-05-19 주식회사 유비케어 Medical examination reservation apparatus and method for supporting personal information protect function
KR20160080483A (en) * 2014-12-29 2016-07-08 주식회사 에스원 Method for recognizing gender using random forest
KR101696602B1 (en) * 2015-08-11 2017-01-23 주식회사 슈프리마 Biometric authentication using gesture
CN108170266A (en) * 2017-12-25 2018-06-15 珠海市君天电子科技有限公司 Smart machine control method, device and equipment
KR102188979B1 (en) * 2020-06-03 2020-12-09 (주)스마트아라 User authentication system using artificial intelligence on a blockchain basis
KR20210040604A (en) * 2019-10-04 2021-04-14 광주과학기술원 Action recognition method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119214A (en) * 2010-04-27 2011-11-02 한국산업기술대학교산학협력단 Robust face recognizing method in disguise of face
KR101326230B1 (en) * 2010-09-17 2013-11-20 한국과학기술원 Method and interface of recognizing user's dynamic organ gesture, and electric-using apparatus using the interface
KR101257460B1 (en) * 2011-04-13 2013-04-23 삼성테크윈 주식회사 System for controlling elevator using CCTV

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160056072A (en) * 2014-11-11 2016-05-19 주식회사 유비케어 Medical examination reservation apparatus and method for supporting personal information protect function
KR20160080483A (en) * 2014-12-29 2016-07-08 주식회사 에스원 Method for recognizing gender using random forest
KR101696602B1 (en) * 2015-08-11 2017-01-23 주식회사 슈프리마 Biometric authentication using gesture
US10733274B2 (en) 2015-08-11 2020-08-04 Suprema Inc. Biometric authentication using gesture
CN108170266A (en) * 2017-12-25 2018-06-15 珠海市君天电子科技有限公司 Smart machine control method, device and equipment
KR20210040604A (en) * 2019-10-04 2021-04-14 광주과학기술원 Action recognition method and device
KR102188979B1 (en) * 2020-06-03 2020-12-09 (주)스마트아라 User authentication system using artificial intelligence on a blockchain basis

Also Published As

Publication number Publication date
KR101455666B1 (en) 2014-11-03

Similar Documents

Publication Publication Date Title
KR102455633B1 (en) Liveness test method and apparatus
Fathy et al. Face-based active authentication on mobile devices
WO2018086543A1 (en) Living body identification method, identity authentication method, terminal, server and storage medium
US9262614B2 (en) Image processing device, image processing method, and storage medium storing image processing program
US8515124B2 (en) Method and apparatus for determining fake image
KR101455666B1 (en) Authentication apparatus and authentication method thereof
KR100944247B1 (en) System and method for face recognition
Barnouti Improve face recognition rate using different image pre-processing techniques
KR100940902B1 (en) The biometrics using finger geometry information
Anand et al. An improved local binary patterns histograms techniques for face recognition for real time application
US10853624B2 (en) Apparatus and method
KR100824757B1 (en) Gait recognition method
US11756338B2 (en) Authentication device, authentication method, and recording medium
KR20120139100A (en) Apparatus and method for security management using face recognition
Rukhiran et al. Effecting of environmental conditions to accuracy rates of face recognition based on IoT solution
KR20110092848A (en) Method for recognizing and registering face
KR100862526B1 (en) Method and system constructing moving image database and face recognition method and system using the same
Chevelwalla et al. Criminal face recognition system
KR20070118806A (en) Method of detecting face for embedded system
Chowdhury et al. Biometric authentication using facial recognition
KR20210153993A (en) Apparatus and method for processing of access authentication for access targets
KR102439216B1 (en) Method and server for recognizing face wearing mask using artificial intelligence deep learning
KR102318051B1 (en) Method for examining liveness employing image of face region including margin in system of user identifying
Ilyas et al. Wavelet-Based Facial recognition
KR102563153B1 (en) Method and system for robust face recognition system to wearing a mask

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170918

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190924

Year of fee payment: 6