KR20150120188A - authentication method and authentication device using the same - Google Patents
authentication method and authentication device using the same Download PDFInfo
- Publication number
- KR20150120188A KR20150120188A KR1020140046108A KR20140046108A KR20150120188A KR 20150120188 A KR20150120188 A KR 20150120188A KR 1020140046108 A KR1020140046108 A KR 1020140046108A KR 20140046108 A KR20140046108 A KR 20140046108A KR 20150120188 A KR20150120188 A KR 20150120188A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- decision tree
- feature vector
- feature
- discriminator
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
본 발명의 일 실시예는 인증 방법 및 이를 이용한 인증 장치에 관한 것이다.An embodiment of the present invention relates to an authentication method and an authentication apparatus using the same.
종래의 인증 시스템은 사전에 추출된 생체 특징 정보와 인증 시도 시에 추출된 생체특징을 판별기(Classifier)에서 비교하여 인증을 수행한다.In the conventional authentication system, authentication is performed by comparing the biometric characteristic information extracted in advance with the biometric characteristic extracted at the authentication attempt in a classifier.
상기 판별기(Classifier)를 구성하는 계수들은 사전에 학습 되어서 제품이나 시스템으로 적용이 되는데, 이 계수들이 고정되어 있어서 사용자의 수의 증가나 사용환경의 특성에 따라 성능이 저하된다. The coefficients constituting the classifier are learned in advance and applied to a product or a system. Since these coefficients are fixed, the performance is deteriorated depending on the number of users or characteristics of the environment of use.
즉, 종래의 개인인증은 '나'와 '다른 사람'을 구분하기 위한 판별기의 구조가 미리 결정되어 엔진으로 사용된다. 그러므로 사용자의 수가 많아지면 유사하게 보이는 얼굴 영상이 많이 등장하게 되고 이에 따라서, 그 성능은 지속적으로 떨어지게 되고, 성능을 유지/향상하기 위해서는 엔진의 갱신이 필요하다. 그러나 엔진 갱신에 소요되는 시간, 갱신 동안 시스템 불안정성 등의 이유로 사실상 불가능하다.That is, in the conventional personal authentication, the structure of the discriminator for distinguishing 'I' and 'other person' is predetermined and used as an engine. Therefore, as the number of users increases, many similar facial images appear. Therefore, the performance of the facial images is continuously deteriorated. In order to maintain / improve the performance, the engine needs to be updated. However, it is virtually impossible because of the time it takes to update the engine, system instability during the update, and so on.
또한, 사용자의 생체정보가 카드나 DB 등에 저장되어 사용되어 있어야 하고, 이는 카드 분실이나 해킹 등으로 인하여 쉽게 개인신원정보가 유출되는 문제가 발생할 수 있다.In addition, the user's biometric information must be stored in a card or a DB and used. This may lead to a problem that the personal identification information easily leaked due to the loss of a card or hacking.
본 발명의 일 실시예는 사용자의 수나 분포, 환경 등의 변화에서도 갱신 기능을 통해 인식성능을 일정하게 유지할 수 있는 인증 방법 및 이를 이용한 인증 장치를 제공한다.An embodiment of the present invention provides an authentication method capable of constantly maintaining recognition performance through an update function even in a change in the number, distribution, environment, etc. of users, and an authentication apparatus using the authentication method.
또한, 사용자의 생체 특징이 저장되지 않으므로, 사용자 개인의 생체정보 노출부터 안전한 인증 방법 및 이를 이용한 인증 장치를 제공한다.In addition, since the biometric characteristic of the user is not stored, a secure authentication method from exposure of biometric information of a user and an authentication device using the same are provided.
본 발명의 일 실시예에 따른 인증 방법은 사용자 그룹 내로 제 1 사용자를 학습 및 등록하는 단계(A), 판별기에서 상기 제 1 사용자의 특징을 인식하는 단계(B) 및 상기 판별기에서 상기 제 1 사용자임을 판별하는 단계(C)를 포함하고, 상기 (A) 단계는 상기 제 1 사용자의 특징 벡터를 추출하는 단계(A-1) 및 상기 제 1 사용자의 특징 벡터를 통해 의사결정트리(Decision Tree)를 생성하는 단계(A-2)로 구성되고, 상기 (C) 단계에서는 상기 (B) 단계에서 인식한 상기 제 1 사용자의 특징 벡터를 상기 의사결정트리에 매칭하여, 상기 제 1 사용자임을 판별한다.The authentication method according to an embodiment of the present invention includes the steps of (A) learning and registering a first user into a user group, (B) recognizing a characteristic of the first user at a discriminator, and (A) extracting a feature vector of the first user from the feature vector of the first user; and (A) determining a decision tree (A-2). In the step (C), the feature vector of the first user recognized in the step (B) is matched to the decision tree to determine whether the first user .
상기 (A-1) 단계에서, 상기 제 1 사용자의 특징 벡터는 영상 특징 또는 음성 특징 중 적어도 하나일 수 있다.In the step (A-1), the feature vector of the first user may be at least one of an image feature or a voice feature.
상기 영상 특징은 Gabor, Gradient 및 국부이진패턴(Local Binary Pattern, LBP) 중 하나의 알고리즘으로 추출될 수 있다.The image feature may be extracted by one of an algorithm such as Gabor, Gradient, and Local Binary Pattern (LBP).
상기 (A-2) 단계에서, 상기 의사결정트리의 노드(node)의 결정함수는 정준상관분석(Canonical Correlation Analysis, CCA), 서포트 벡터 머신(Support Vector Machine, SVM), 주성분분석(Principle Component Analysis, PCA), LDA(Linear Discriminant Analysis) 및 Ada-boost 중 어느 하나로 이루어질 수 있다.In step (A-2), the decision function of a node of the decision tree is determined by canonical correlation analysis (CCA), support vector machine (SVM), principal component analysis , PCA), Linear Discriminant Analysis (LDA), and Ada-boost.
상기 (A-2) 단계에서 상기 정준상관분석을 이용하여 상기 의사결정트리를 생성하는 경우, 상기 의사결정트리에서 상기 제 1 사용자의 기댓값에 하기의 수식과 같이 가중치를 부여할 수 있다.In the case of generating the decision tree using the canonical correlation analysis in the step (A-2), the decision tree may weight the expected value of the first user as shown in the following equation.
여기서, 상기 제 1 사용자의 특징 벡터를 x0로, 상기 사용자 그룹 내에서 제 1 사용자를 제외한 다른 사용자들의 특징 벡터 각각을 x1, x2, ... , xn 이라 하고, 상기 의사결정트리에서의 x0의 라벨(Label)을 "1"로, x1, x2, ... , xn의 라벨들을 "0"으로 하고, Y i 는 i번째 사용자의 특징 벡터의 라벨을, 은 제 1 사용자의 특징 벡터의 개수를, N은 상기 사용자 그룹 내에서 제 1 사용자를 제외한 다른 사용자들의 특징 벡터의 개수를 의미한다.Herein, the feature vector of the first user is denoted by x 0 , the feature vectors of the users other than the first user in the user group are denoted by x 1 , x 2 , ..., x n , a label (label) of the x 0 in the "1", x 1, x 2, ..., the label of the label of xn to "0", Y i is the i-th user feature vector, Denotes the number of feature vectors of the first user and N denotes the number of feature vectors of the users other than the first user in the user group.
상기 사용자 그룹 내로 새로운 제 3 사용자를 추가시킴에 있어, 상기 제 3 사용자와 유사한 특징 벡터를 가진 제 1 사용자의 의사결정트리를 갱신하는 단계(D)를 더 포함할 수 있다.And adding (D) a decision tree of a first user having a feature vector similar to the third user in adding a new third user into the user group.
상기 (D) 단계에서, 상기 제 1 사용자의 의사결정트리에는 제 3 사용자와 구별되는 결정함수로 구성된 자식 로드(child node)가 추가될 수 있다.In the step (D), a child node composed of a decision function distinguishable from the third user may be added to the decision tree of the first user.
상기 제 1 사용자의 의사결정트리를 재구성하는 단계(E)를 더 포함할 수 있다.And reconstructing the decision tree of the first user (E).
상기 (A) 단계에서 생성된 상기 제 1 사용자의 의사결정트리는 상기 제 1 사용자가 소지하는 식별 부재에 저장되고, 상기 (C) 단계에서는 상기 (B) 단계에서 인식한 상기 제 1 사용자의 특징 벡터를 상기 식별 부재의 상기 의사결정트리에 매칭하여, 상기 제 1 사용자임을 판별할 수 있다.
Wherein the decision tree of the first user generated in the step (A) is stored in the identification member possessed by the first user, and in the step (C), the decision tree of the first user recognized in the step (B) Is matched to the decision tree of the identification member to determine the first user.
본 발명의 일 실시예에 따른 인증 장치는 사용자 그룹 내의 다른 사용자들과 제 1 사용자가 구별되는 특징 벡터를 통해 생성된 의사결정트리를 포함하는 식별 부재 및 상기 제 1 사용자를 인식하고, 인식한 상기 제 1 사용자의 특징 벡터를 상기 의사결정트리에 매칭하여, 상기 제 1 사용자임을 판별하는 판별기를 포함한다.An authentication apparatus according to an embodiment of the present invention includes an identification member including a decision tree generated through a feature vector distinguishing between other users in a user group and a first user, And a discriminator for discriminating the first user by matching the feature vector of the first user with the decision tree.
상기 판별기는 상기 제 1 사용자를 인식하는 인식 유닛에 연결될 수 있다.The discriminator may be connected to a recognition unit recognizing the first user.
상기 인식 유닛은 상기 제 1 사용자의 영상 특징 또는 음성 특징 중 적어도 하나의 특징 벡터를 검출할 수 있다.The recognition unit may detect at least one feature vector among the image feature or the voice feature of the first user.
본 발명의 일 실시예에 따른 인증 방법 및 이를 이용한 인증 장치는 사용자의 수나 분포, 환경 등의 변화에서도 갱신 기능을 통해 인식성능을 일정하게 유지할 수 있다.The authentication method according to the embodiment of the present invention and the authentication apparatus using the same can maintain the recognition performance constantly through the update function even in the change of the number of users, distribution, environment, and the like.
또한, 본 발명의 일 실시예에 따른 인증 방법 및 이를 이용한 인증 장치는 사용자의 생체 특징이 저장되지 않으므로, 사용자 개인의 생체정보 노출부터 안전하다.In addition, the authentication method according to an embodiment of the present invention and the authentication device using the authentication method are safe from the exposure of the user's biometric information because the biometric characteristic of the user is not stored.
도 1은 본 발명의 일 실시예에 따른 인증 장치를 도시한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 인증 방법을 도시한 흐름도이다.
도 3 내지 5는 본 발명의 일 실시예에 따른 의사결정트리의 특징을 도시한 개념도이다.1 is a conceptual diagram showing an authentication apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an authentication method according to an embodiment of the present invention.
3 to 5 are conceptual diagrams illustrating features of a decision tree according to an embodiment of the present invention.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.
본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다. 또한, 본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 더불어, 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 더욱이, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급한 단계, 동작, 부재, 요소, 수치 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 단계, 동작, 부재, 요소, 수치 및 /또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.As used herein, the term "and / or" includes any and all combinations of one or more of the listed items. In addition, the terminology used herein is for the purpose of describing particular embodiments only, and is not intended to be limiting of the invention. In addition, as used herein, the singular forms "a," "an," and "the" include plural referents unless the context clearly dictates otherwise. Furthermore, " comprise "and / or" comprising "as used herein specify the presence of stated steps, operations, elements, elements, numerical values and / But does not preclude the presence or addition of other steps, operations, elements, elements, numerical values and / or groups.
도 1은 본 발명의 일 실시예에 따른 인증 장치를 도시한 개념도이다.1 is a conceptual diagram showing an authentication apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 인증 장치(100)는 식별 부재(110), 인식 유닛(120) 및 판별기(130)를 포함한다.Referring to FIG. 1, an
상기 식별 부재(110)는 제 1 사용자(P1)를 식별할 수 있도록, 상기 제 1 사용자(P1)의 특징 벡터를 통해 생성된 의사결정트리(Decision Tree)가 저장되어있다.The
여기서, 상기 식별 부재(110)는 개인 식별 카드(111) 또는 개인 휴대용 모바일(112)로 구성될 수 있다.Here, the
상기 인식 유닛(120)은 판별기(130)에 연결되며, 상기 제 1 사용자(P1)의 특징 벡터(생체 정보)를 식별 및 추출하고, 상기 특징 벡터를 판별기(130)에 전달한다.The
여기서, 상기 제 1 사용자(P1)의 특징 벡터는 영상, 음성 또는 지문 중 적어도 하나 이상으로 구성될 수 있다. 따라서, 상기 인식 유닛(120)은 상기 제 1 사용자(P1)의 영상 특징을 추출하기 위한 카메라, 음성 특징을 추출하기 위한 카메라 또는 지문 특징을 추출하기 위한 지문 인식기 등으로 구성될 수 있다.Here, the feature vector of the first user P1 may be composed of at least one of video, audio, or fingerprint. Accordingly, the
다만, 아래에서는 설명의 편의를 위해 상기 인식 유닛(120)이 카메라로 구성되어 제 1 사용자(P1)의 영상(ex, 얼굴) 특징을 추출하는 것을 중점으로 설명한다.Hereinafter, for the sake of convenience of explanation, the
상기 판별기(130)는 상기 인식 유닛(120)에서 추출한 제 1 사용자(P1)의 영상(ex, 얼굴) 특징을 통해 의사결정트리를 생성하여 이를 식별 부재(110)에 저장한다.The
또한, 상기 판별기(130)는 상기 식별 부재(110)를 함께 인식하여, 인식 유닛(120)에서 인식한 제 1 사용자(P1)의 영상(ex, 얼굴) 특징을 식별 부재(110)의 의사결정트리에 매칭하여, 제 1 사용자(P1)임을 판별한다.
The
다음은 도 2 내지 도 5를 참조하여, 본 발명의 일 실시예에 따른 인증 방법에 대해 설명한다.Next, an authentication method according to an embodiment of the present invention will be described with reference to FIG. 2 to FIG.
도 2는 본 발명의 일 실시예에 따른 인증 방법을 도시한 흐름도이고, 도 3 내지 5는 본 발명의 일 실시예에 따른 의사결정트리의 특징을 도시한 개념도이다.FIG. 2 is a flowchart illustrating an authentication method according to an embodiment of the present invention, and FIGS. 3 to 5 are conceptual diagrams illustrating a feature of a decision tree according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 인증 방법은 사용자를 학습하는 단계(S10), 사용자를 인식하는 단계(S20), 사용자를 판별하는 단계(S30) 및 사용자를 갱신하는 단계(S40)를 포함한다.Referring to FIG. 2, an authentication method according to an exemplary embodiment of the present invention includes a step of learning a user (S10), a step of recognizing a user (S20), a step of discriminating a user (S30) S40).
상기 사용자를 학습하는 단계(S10)에서는 사용자 그룹 내로 제 1 사용자를 학습 및 등록시키는 작업을 수행한다. 여기서, 상기 사용자를 학습하는 단계(S10)는 제 1 사용자(P1)의 얼굴 특징을 추출하는 단계 및 의사결정트리(Decision tree)를 생성하는 단계로 구성된다.In step S10 of learning the user, an operation of learning and registering the first user in the user group is performed. Here, the step of learning the user (S10) comprises extracting a face feature of the first user (P1) and generating a decision tree.
즉, 우선, 상기 인식 유닛(120)에서 제 1 사용자의 영상(ex, 얼굴) 특징을 추출하여, 이를 판별기(130)에 전달하고, 이에, 판별기(130)에서는 제 1 사용자(P1) 고유의 영상(ex, 얼굴) 특징을 다른 사용자(타인, ~P1)와 구별되는 초평면(Hyperplane) 계수들로 의사결정트리를 구성한다.First, the
여기서, 상기 영상(ex, 얼굴) 특징은 Gabor, Gradient 및 국부이진패턴(Local Binary Pattern, LBP) 중 하나의 알고리즘으로 추출될 수 있으나, 이러한 알고리즘으로 본 발명을 한정하는 것은 아니다.Here, the image (ex, facial) feature may be extracted by one of Gabor, Gradient, and Local Binary Pattern (LBP), but the present invention is not limited thereto.
또한, 상기 의사결정트리의 노드(node)의 결정함수로 정준상관분석(Canonical Correlation Analysis, CCA), 서포트 벡터 머신(Support Vector Machine, SVM), 주성분분석(Principle Component Analysis, PCA), 선형 판별 분석(Linear Discriminant Analysis, LDA) 및 Ada-boost 중 어느 하나를 이용할 수 있다.In addition, canonical correlation analysis (CCA), support vector machine (SVM), principal component analysis (PCA), linear discriminant analysis (Linear Discriminant Analysis, LDA) and Ada-boost.
다만, 이하에서는 설명의 편의를 위하여, 정준상관분석을 이용한 의사결정트리에 대해 설명한다.Hereinafter, for convenience of explanation, a decision tree using canonical correlation analysis will be described.
먼저, 정준상관분석을 이용하여 사용자 그룹 내의 제 1 사용자(P1)와 타인(~P1)의 영상(ex, 얼굴) 특징을 구별하는 계수(Coefficient)를 찾아낸다.First, a coefficient that distinguishes the image (ex, face) characteristic of the first user (P1) and the other person (P1) in the user group is found using the canonical correlation analysis.
이후, 상기 계수를 이용하여 제 1 사용자(P1)와 타인(~P1)의 영상(ex, 얼굴) 특징 집합을 분류하고, 상기 의사결정트리를 구성하여 이를 식별 부재(110)에 저장한다.Then, the image (ex, facial) feature set of the first user P1 and the other person P1 is classified using the coefficient, and the decision tree is constructed and stored in the
다만, 정준상관분석의 계수를 구할 때, 제 1 사용자(P1)의 특징 데이터 개수와 타인(~P1)들의 특징 데이터 개수는 크게 차이가 있으므로 이들 사이에 구별력이 떨어질 수 있고, 이는 결국 의사결정트리의 크기(복잡도)를 증가 시킬 수 있다.However, when the coefficients of the canonical correlation analysis are obtained, since the number of feature data of the first user P1 and the number of feature data of the other users P1 are different from each other, the distinction between them can be deteriorated, The size (complexity) of the tree can be increased.
따라서, 본 발명에서는 제 1 사용자(P1)의 기댓값에 가중치를 부여하여, 다음의 수학식 1과 같이, 가중치-정준상관분석(Weighted-CCA)을 설정한다.Therefore, in the present invention, the expected value of the first user (P1) is weighted and weighted-canonical correlation analysis (Weighted-CCA) is set as shown in the following Equation (1).
여기서, 상기 제 1 사용자의 특징 벡터를 x0로, 상기 사용자 그룹 내에서 제 1 사용자를 제외한 다른 사용자들의 특징 벡터 각각을 x1, x2, ... , xn 이라 하고, 상기 의사결정트리에서의 x0의 라벨(Label)을 "1"로, x1, x2, ... , xn의 라벨들을 "0"으로 하고, Y i 는 i번째 사용자의 특징 벡터의 라벨을, 은 제 1 사용자의 특징 벡터의 개수를, N은 상기 사용자 그룹 내에서 제 1 사용자를 제외한 다른 사용자들의 특징 벡터의 개수를 의미한다.Herein, the feature vector of the first user is denoted by x 0 , the feature vectors of the users other than the first user in the user group are denoted by x 1 , x 2 , ..., x n , a label (label) of the x 0 in the "1", x 1, x 2, ..., the label of the label of xn to "0", Y i is the i-th user feature vector, Denotes the number of feature vectors of the first user and N denotes the number of feature vectors of the users other than the first user in the user group.
이와 같이, 제 1 사용자(P1)와 타인(~P1)에 대한 가중치-정준상관분석의 계수를 PAC_P1(Person associated classifier)으로 하여, 도 3에 도시된 바와 같이 의사결정트리를 구성할 수 있다. 물론, 도 3에 도시된 제 2 사용자(P2) 내지 제 N 사용자(PN) 각각의 의사결정트리는 제 1 사용자(P1)에 대한 의사결정트리와 동일한 방법으로 구성된다.In this manner, a decision tree can be constructed as shown in FIG. 3 by using the coefficient of the weight-canonical correlation analysis for the first user P1 and the other person (P1) as a person associated classifier (PAC_P1). Of course, the decision tree of each of the second user P2 to the user N (PN) shown in FIG. 3 is configured in the same manner as the decision tree for the first user P1.
상기 사용자를 인식하는 단계(S20) 및 사용자를 판별하는 단계(S30)는 상기 인식 유닛(120)에서, 제 1 사용자(P1)의 영상(ex, 얼굴) 특징을 추출하여, 상기 의사결정트리 구조를 따라 순행함으로써 인식된다. 즉, 의사결정트리의 결정함수에 따라 트리의 구조를 순행하며 최종적으로 찾아지는 결과에 따라 본인인지 아닌지 판별된다.The recognition step S20 of the user and the step of discriminating the user S30 may be performed by the
여기서, 상술한 정준상관분석을 사용하였을 경우에는 제 1 사용자(P1)의 영상(ex, 얼굴) 특징과 계수의 선형결합으로 결정함수가 빠르게 계산될 수 있다.
Here, when the canonical correlation analysis is used, the decision function can be calculated quickly by linear combination of the image (ex, face) characteristic of the first user P1 and the coefficient.
여기서, 사용자 그룹 내로 새로운 사용자 제 3 사용자(P3)가 신규로 추가되는 경우, 제 3 사용자(P3) 외에 다른 사용자들은 갱신(재학습) 할 필요가 없다. Here, when a new user third user P3 is newly added to the user group, the users other than the third user P3 need not update (re-learn).
하지만, 제 3 사용자(P3)가 기존의 제 1 사용자(P1)와 영상(ex, 얼굴) 특징이 유사하여, 제 3 사용자(P3)를 제 1 사용자(P1)로 제 1 사용자(P1)를 제 3 사용자(P3)로 오인할 경우가 발생할 수 있다. 이에, 본 발명에서는 사용자를 갱신하는 단계(S40)를 더 포함한다.However, if the third user P3 is similar to the existing first user P1 and the image (ex, facial) characteristic, the third user P3 is referred to as the first user P1 as the first user P1 The third user P3 may be misidentified. Accordingly, the present invention further includes a step of updating the user (S40).
상기 사용자를 갱신하는 단계(S40)에서는 기존의 제 1 사용자(P1)의 의사결정트리를 갱신한다. 즉, 도 4에 도시된 바와 같이, PAC_P1에서 제 3 사용자(P3)와 구별되는 결정함수로 구성된 자식 로드(child node)를 추가하여 PAC_P1,1 및 PAC_P1,2로 갱신한다. 물론, 제 3 사용자(P3)는 사용자 그룹 내로 추가되면서, 타인(~P3)들과 구별되는 결정함수로 의사결정트리가 구성되고, 제 3 사용자(P3)와 구별되는 제 2 사용자(P2) 내지 제 N 사용자(PN)는 의사결정트리를 갱신할 필요가 없다.In step S40 of updating the user, the decision tree of the existing first user P1 is updated. That is, as shown in FIG. 4, a child node configured by a decision function distinguishable from the third user P3 in PAC_P1 is added to update PAC_P1,1 and PAC_P1,2. Of course, the third user P3 is added to the user group, and a decision tree is constructed by a decision function that is distinguished from the others P3, and the second user P2, which is distinguished from the third user P3, The Nth user (PN) does not need to update the decision tree.
여기서, 신규 사용자들이 계속적으로 추가되면 오인되는 사용자들과의 구별을 위해 기존의 제 1 사용자(P1)의 의사결정트리에는 자식 로드가 복잡하게 추가될 것이다. 따라서, 제 1 사용자(P1)의 의사결정트리가 어느 수준 이상으로 복잡하게 형성될 경우, 도 5에 도시된 바와 같이, 제 1 사용자(P1)의 의사결정트리만 재학습하여 현재 사용자 그룹 내의 타인(~P1)과 구별되는 결정함수 (PAC_P1)로 의사결정트리를 재구성한다.
Here, if the new users are continuously added, the child loads are added to the decision tree of the existing first user P1 in order to distinguish them from the users who are misunderstood. Therefore, when the decision tree of the first user P1 is complicatedly formed at a certain level or more, as shown in FIG. 5, only the decision tree of the first user P1 is re- (PAC_P1) which is different from the decision function (~ P1).
이상에서 설명한 것은 본 발명에 따른 인증 방법 및 이를 이용한 인증 장치를 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.As described above, the present invention is not limited to the above-described embodiment, and it is to be understood that the present invention is not limited to the above- It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.
100; 인증 장치
110; 식별 부재
120; 인식 유닛(120)
130; 판별기100;
120; Recognition unit (120) 130; Discriminator
Claims (12)
판별기에서 상기 제 1 사용자의 특징을 인식하는 단계(B); 및
상기 판별기에서 상기 제 1 사용자임을 판별하는 단계(C)를 포함하고,
상기 (A) 단계는 상기 제 1 사용자의 특징 벡터를 추출하는 단계(A-1) 및 상기 제 1 사용자의 특징 벡터를 통해 의사결정트리(Decision Tree)를 생성하는 단계(A-2)로 구성되고,
상기 (C) 단계에서는 상기 (B) 단계에서 인식한 상기 제 1 사용자의 특징 벡터를 상기 의사결정트리에 매칭하여, 상기 제 1 사용자임을 판별하는 것을 특징으로 하는 인증 방법.(A) learning and registering a first user into a user group;
(B) recognizing the characteristics of the first user at the discriminator; And
And a step (C) of discriminating the first user by the discriminator,
The step (A) comprises: (A-1) extracting a feature vector of the first user; and (A-2) generating a decision tree through a feature vector of the first user And,
Wherein the step (C) identifies the first user by matching the feature vector of the first user recognized in the step (B) with the decision tree.
상기 (A-1) 단계에서,
상기 제 1 사용자의 특징 벡터는 영상 특징 또는 음성 특징 중 적어도 하나인 것을 특징으로 하는 인증 방법.The method according to claim 1,
In the step (A-1)
Wherein the feature vector of the first user is at least one of an image feature or a voice feature.
상기 영상 특징은 Gabor, Gradient 및 국부이진패턴(Local Binary Pattern, LBP) 중 하나의 알고리즘으로 추출되는 것을 특징으로 하는 인증 방법.3. The method of claim 2,
Wherein the image feature is extracted by one of an algorithm of Gabor, Gradient and Local Binary Pattern (LBP).
상기 (A-2) 단계에서,
상기 의사결정트리의 노드(node)의 결정함수는 정준상관분석(Canonical Correlation Analysis, CCA), 서포트 벡터 머신(Support Vector Machine, SVM), 주성분분석(Principle Component Analysis, PCA), LDA(Linear Discriminant Analysis) 및 Ada-boost 중 어느 하나로 이루어지는 것을 특징으로 하는 인증 방법.The method according to claim 1,
In the step (A-2)
The decision function of the node of the decision tree is determined by canonical correlation analysis (CCA), support vector machine (SVM), principal component analysis (PCA), linear discriminant analysis ) And Ada-boost, respectively.
상기 (A-2) 단계에서 상기 정준상관분석을 이용하여 상기 의사결정트리를 생성하는 경우,
상기 의사결정트리에서 상기 제 1 사용자의 기댓값에 하기의 수식과 같이 가중치를 부여하는 것을 특징으로 하는 인증 방법.
여기서, 상기 제 1 사용자의 특징 벡터를 x0로, 상기 사용자 그룹 내에서 제 1 사용자를 제외한 다른 사용자들의 특징 벡터 각각을 x1, x2, ... , xn 이라 하고, 상기 의사결정트리에서의 x0의 라벨(Label)을 "1"로, x1, x2, ... , xn의 라벨들을 "0"으로 하고, Y i 는 i번째 사용자의 특징 벡터의 라벨을, 은 제 1 사용자의 특징 벡터의 개수를, N은 상기 사용자 그룹 내에서 제 1 사용자를 제외한 다른 사용자들의 특징 벡터의 개수를 의미.5. The method of claim 4,
If the decision tree is generated using the canonical correlation analysis in the step (A-2)
Wherein a weight is given to the expected value of the first user in the decision tree as shown in the following equation.
Herein, the feature vector of the first user is denoted by x 0 , the feature vectors of the users other than the first user in the user group are denoted by x 1 , x 2 , ..., x n , a label (label) of the x 0 in the "1", x 1, x 2, ..., the label of the label of xn to "0", Y i is the i-th user feature vector, Denotes the number of feature vectors of the first user, and N denotes the number of feature vectors of the users other than the first user in the user group.
상기 사용자 그룹 내로 새로운 제 3 사용자를 추가시킴에 있어,
상기 제 3 사용자와 유사한 특징 벡터를 가진 제 1 사용자의 의사결정트리를 갱신하는 단계(D)를 더 포함하는 것을 특징으로 하는 인증 방법.The method according to claim 1,
In adding a new third user into the user group,
Further comprising: (D) updating a decision tree of a first user having a feature vector similar to the third user.
상기 (D) 단계에서,
상기 제 1 사용자의 의사결정트리에는 제 3 사용자와 구별되는 결정함수로 구성된 자식 로드(child node)가 추가되는 것을 특징으로 하는 인증 방법.The method according to claim 6,
In the step (D)
Wherein a child node consisting of a decision function distinguishable from a third user is added to the decision tree of the first user.
상기 제 1 사용자의 의사결정트리를 재구성하는 단계(E)를 더 포함하는 것을 특징으로 하는 인증 방법.8. The method of claim 7,
Further comprising: (E) reconfiguring the decision tree of the first user.
상기 (A) 단계에서 생성된 상기 제 1 사용자의 의사결정트리는 상기 제 1 사용자가 소지하는 식별 부재에 저장되고,
상기 (C) 단계에서는 상기 (B) 단계에서 인식한 상기 제 1 사용자의 특징 벡터를 상기 식별 부재의 상기 의사결정트리에 매칭하여, 상기 제 1 사용자임을 판별하는 것을 특징으로 하는 인증 방법.The method according to claim 1,
Wherein the decision tree of the first user generated in the step (A) is stored in an identification member possessed by the first user,
Wherein, in the step (C), the feature vector of the first user recognized in the step (B) is matched to the decision tree of the identification member to determine that the user is the first user.
상기 제 1 사용자를 인식하고, 인식한 상기 제 1 사용자의 특징 벡터를 상기 의사결정트리에 매칭하여, 상기 제 1 사용자임을 판별하는 판별기를 포함하는 것을 특징으로 하는 인증 장치.An identification member including a decision tree generated through a feature vector in which a first user and other users in a user group are distinguished;
And a discriminator for recognizing the first user and matching the recognized feature vector of the first user with the decision tree to determine that the first user is the first user.
상기 판별기는 상기 제 1 사용자를 인식하는 인식 유닛에 연결된 것을 특징으로 하는 인증 장치.11. The method of claim 10,
Wherein the discriminator is connected to a recognition unit which recognizes the first user.
상기 인식 유닛은 상기 제 1 사용자의 영상 특징 또는 음성 특징 중 적어도 하나의 특징 벡터를 검출하는 것을 특징으로 하는 인증 장치.12. The method of claim 11,
Wherein the recognition unit detects at least one feature vector among the video feature or the voice feature of the first user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140046108A KR101567686B1 (en) | 2014-04-17 | 2014-04-17 | authentication method and authentication device using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140046108A KR101567686B1 (en) | 2014-04-17 | 2014-04-17 | authentication method and authentication device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150120188A true KR20150120188A (en) | 2015-10-27 |
KR101567686B1 KR101567686B1 (en) | 2015-11-09 |
Family
ID=54428489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140046108A KR101567686B1 (en) | 2014-04-17 | 2014-04-17 | authentication method and authentication device using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101567686B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619206A (en) * | 2019-08-15 | 2019-12-27 | 中国平安财产保险股份有限公司 | Operation and maintenance risk control method, system, equipment and computer readable storage medium |
CN110705585A (en) * | 2019-08-22 | 2020-01-17 | 深圳壹账通智能科技有限公司 | Network fraud identification method and device, computer device and storage medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101116737B1 (en) | 2010-10-12 | 2012-02-22 | 고려대학교 산학협력단 | System for watchlist identification |
-
2014
- 2014-04-17 KR KR1020140046108A patent/KR101567686B1/en active IP Right Grant
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619206A (en) * | 2019-08-15 | 2019-12-27 | 中国平安财产保险股份有限公司 | Operation and maintenance risk control method, system, equipment and computer readable storage medium |
CN110619206B (en) * | 2019-08-15 | 2024-04-02 | 中国平安财产保险股份有限公司 | Operation and maintenance risk control method, system, equipment and computer readable storage medium |
CN110705585A (en) * | 2019-08-22 | 2020-01-17 | 深圳壹账通智能科技有限公司 | Network fraud identification method and device, computer device and storage medium |
WO2021031825A1 (en) * | 2019-08-22 | 2021-02-25 | 深圳壹账通智能科技有限公司 | Network fraud identification method and device, computer device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR101567686B1 (en) | 2015-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107633204B (en) | Face occlusion detection method, apparatus and storage medium | |
KR100734849B1 (en) | Method for recognizing face and apparatus thereof | |
KR101464446B1 (en) | Method for user vertification using face recognition and head pose estimation and apparatus thereof | |
JP6111297B2 (en) | Method, apparatus, and program | |
EP2763102A1 (en) | Face recognition method, apparatus, and computer-readable recording medium for executing the method | |
CN111382666B (en) | Apparatus and method with user authentication | |
KR20160011916A (en) | Method and apparatus of identifying user using face recognition | |
KR20150099129A (en) | Facical expression recognition method using adaptive decision tree based on local feature extraction and apparatus using thereof | |
US20140254892A1 (en) | Face recognition apparatus, system and method for managing users based on user grouping | |
US20170185827A1 (en) | Emotion estimation apparatus using facial images of target individual, emotion estimation method, and non-transitory computer readable medium | |
KR102483650B1 (en) | User verification device and method | |
KR102427853B1 (en) | Method and apparatus for adaptively updating registration database for user authentication | |
US20190278894A1 (en) | Multiple-tiered facial recognition | |
WO2017192719A1 (en) | User specific classifiers for biometric liveness detection | |
WO2020195732A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
Sabir et al. | Gait-based gender classification using smartphone accelerometer sensor | |
KR101455666B1 (en) | Authentication apparatus and authentication method thereof | |
KR20200020107A (en) | Method and system for authenticating stroke-based handwritten signature using machine learning | |
KR101491832B1 (en) | Apparatus and method for selecting image | |
KR101195539B1 (en) | Door on/off switching system using face recognition and detection method therefor | |
KR101567686B1 (en) | authentication method and authentication device using the same | |
Dhruva et al. | Novel algorithm for image processing based hand gesture recognition and its application in security | |
Sharma et al. | Multimodal classification using feature level fusion and SVM | |
KR20210018586A (en) | Method and apparatus for identifying video content using biometric features of characters | |
CN114169443B (en) | Word-level text countermeasure sample detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |