KR102434483B1 - Method for managing biometrics system and apparatus for performing the same - Google Patents

Method for managing biometrics system and apparatus for performing the same Download PDF

Info

Publication number
KR102434483B1
KR102434483B1 KR1020200177509A KR20200177509A KR102434483B1 KR 102434483 B1 KR102434483 B1 KR 102434483B1 KR 1020200177509 A KR1020200177509 A KR 1020200177509A KR 20200177509 A KR20200177509 A KR 20200177509A KR 102434483 B1 KR102434483 B1 KR 102434483B1
Authority
KR
South Korea
Prior art keywords
feature point
user
extraction model
feature extraction
feature
Prior art date
Application number
KR1020200177509A
Other languages
Korean (ko)
Other versions
KR20220087121A (en
Inventor
이강의
정자연
조동민
Original Assignee
주식회사 알체라
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 알체라 filed Critical 주식회사 알체라
Priority to KR1020200177509A priority Critical patent/KR102434483B1/en
Priority to PCT/KR2021/007524 priority patent/WO2022131464A1/en
Publication of KR20220087121A publication Critical patent/KR20220087121A/en
Application granted granted Critical
Publication of KR102434483B1 publication Critical patent/KR102434483B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

생체인증 시스템의 관리 방법은, 사용자가 생체정보 등록을 요청하면, 제1 특징추출모델을 이용하여 상기 사용자의 생체정보로부터 제1 특징점을 추출하고, 상기 제1 특징점을 상기 사용자에 매칭시켜 저장하는 단계, 상기 제1 특징추출모델이 제2 특징추출모델로 업데이트되면, 상기 제1 특정추출모델의 출력을 상기 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성하는 단계 및 상기 변환모델을 이용하여 상기 저장된 제1 특징점을 제2 특징점으로 변환하고, 상기 제2 특징점을 상기 사용자에 매칭시켜 저장하는 단계를 포함한다.The management method of a biometric authentication system, when a user requests biometric information registration, extracts a first feature point from the user's biometric information using a first feature extraction model, matches the first feature point to the user, and stores it step, when the first feature extraction model is updated with the second feature extraction model, generating a transformation model for converting the output of the first specific extraction model into the output of the second feature extraction model, and the transformation model and converting the stored first feature point into a second feature point by using the stored first feature point, and matching the second feature point with the user and storing the stored first feature point.

Description

생체인증 시스템의 관리 방법 및 이를 수행하기 위한 장치 {METHOD FOR MANAGING BIOMETRICS SYSTEM AND APPARATUS FOR PERFORMING THE SAME}Management method of biometric authentication system and device for performing the same

본 명세서에서 개시되는 실시예들은 생체인증 시스템을 관리하는 방법에 관한 것이며, 자세하게는 사용자의 생체정보를 등록하고 업데이트하는 방법에 관한 것이다.Embodiments disclosed herein relate to a method of managing a biometric authentication system, and more particularly, to a method of registering and updating a user's biometric information.

생체인증 기술이란 사용자의 지문, 홍채, 혈관, 얼굴모양 등과 같은 생체정보를 이용하여 사용자를 인증하는 기술을 의미한다. 생체인증을 수행하기 위해서는 사용자의 생체정보를 사용자에 매칭시켜 미리 저장해 놓아야 한다.The biometric authentication technology refers to a technology for authenticating a user using biometric information such as a user's fingerprint, iris, blood vessels, and face shape. In order to perform biometric authentication, the user's biometric information must be matched to the user and stored in advance.

그런데, 일반적으로 사용자의 생체정보를 그대로 시스템에 저장하는 것이 아니라, 인공신경망 모델을 이용하여 사용자의 생체정보로부터 특징점을 추출하고, 추출한 특징점을 사용자에 매칭시켜 저장한다.However, in general, instead of storing the user's biometric information as it is in the system, a feature point is extracted from the user's biometric information using an artificial neural network model, and the extracted feature point is matched to the user and stored.

사용자의 생체정보(e.g. 얼굴을 촬영한 영상 등)는 개인정보 보호를 위해 특징점 저장 후 폐기된다. 따라서, 특징점을 추출하는 인공신경망 모델이 업데이트되면 생체정보 등록을 위해 사용자로부터 다시 생체정보를 받아야 해 번거로울 수 있다.The user's biometric information (e.g. a face shot, etc.) is discarded after saving the key points to protect personal information. Therefore, when the artificial neural network model for extracting key points is updated, it may be cumbersome to receive biometric information from the user again for biometric information registration.

관련하여 선행기술 문헌인 한국공개특허 제10-2020-0004666호에는 머신러닝과 블록체인을 이용한 생체정보 인증 시스템이 개시되어 있으며, 자세하게는 딥러닝 모델을 이용해 생체정보로부터 특징을 추출하여 블록체인에 저장하고 이를 이용하여 인증을 수행하는 내용이 개시되어 있다.In relation to this, a prior art document, Korean Patent Application Laid-Open No. 10-2020-0004666, discloses a biometric information authentication system using machine learning and block chain. The contents of storing and performing authentication using this are disclosed.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background art is technical information that the inventor possessed for the derivation of the present invention or acquired in the process of derivation of the present invention, and it cannot be said that it is necessarily a known technique disclosed to the general public before the filing of the present invention. .

본 명세서에서 개시되는 실시예들은, 생체인증 시스템에서 생체정보로부터 특징점을 추출하기 위해 사용되는 인공신경망 모델 업데이트 시 이미 저장된 특징점을 간편하게 업데이트할 수 있는 기술을 제공하고자 한다.Embodiments disclosed in this specification are intended to provide a technique for easily updating an already stored feature point when an artificial neural network model used to extract a feature point from biometric information in a biometric authentication system is updated.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서 일 실시예에 따르면, 생체인증 시스템의 관리 방법은, 사용자가 생체정보 등록을 요청하면, 제1 특징추출모델을 이용하여 상기 사용자의 생체정보로부터 제1 특징점을 추출하고, 상기 제1 특징점을 상기 사용자에 매칭시켜 저장하는 단계, 상기 제1 특징추출모델이 제2 특징추출모델로 업데이트되면, 상기 제1 특정추출모델의 출력을 상기 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성하는 단계 및 상기 변환모델을 이용하여 상기 저장된 제1 특징점을 제2 특징점으로 변환하고, 상기 제2 특징점을 상기 사용자에 매칭시켜 저장하는 단계를 포함할 수 있다.According to an embodiment, as a technical means for achieving the above-described technical problem, in the management method of the biometric authentication system, when a user requests biometric information registration, the first feature extraction model is used to extract the first information from the user's biometric information. extracting a feature point, matching the first feature point to the user and storing it; when the first feature extraction model is updated with a second feature extraction model, the output of the first specific extraction model is output to the second feature extraction model generating a transformation model for converting the output of .

다른 실시예에 따르면, 생체인증 시스템의 관리 방법을 수행하기 위한 컴퓨터 프로그램으로서, 생체인증 시스템의 관리 방법은, 사용자가 생체정보 등록을 요청하면, 제1 특징추출모델을 이용하여 상기 사용자의 생체정보로부터 제1 특징점을 추출하고, 상기 제1 특징점을 상기 사용자에 매칭시켜 저장하는 단계, 상기 제1 특징추출모델이 제2 특징추출모델로 업데이트되면, 상기 제1 특정추출모델의 출력을 상기 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성하는 단계 및 상기 변환모델을 이용하여 상기 저장된 제1 특징점을 제2 특징점으로 변환하고, 상기 제2 특징점을 상기 사용자에 매칭시켜 저장하는 단계를 포함할 수 있다.According to another embodiment, as a computer program for performing a management method of a biometric authentication system, when a user requests biometric information registration, the biometric information of the user is obtained by using a first feature extraction model. extracting a first feature point from , and storing the first feature point by matching the first feature point with the user; generating a transformation model for converting the output of the feature extraction model; converting the stored first feature point into a second feature point using the transformation model; and storing the stored first feature point by matching the second feature point with the user can do.

또 다른 실시예에 따르면, 생체인증 시스템의 관리 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체로서, 생체인증 시스템의 관리 방법은, 사용자가 생체정보 등록을 요청하면, 제1 특징추출모델을 이용하여 상기 사용자의 생체정보로부터 제1 특징점을 추출하고, 상기 제1 특징점을 상기 사용자에 매칭시켜 저장하는 단계, 상기 제1 특징추출모델이 제2 특징추출모델로 업데이트되면, 상기 제1 특정추출모델의 출력을 상기 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성하는 단계 및 상기 변환모델을 이용하여 상기 저장된 제1 특징점을 제2 특징점으로 변환하고, 상기 제2 특징점을 상기 사용자에 매칭시켜 저장하는 단계를 포함할 수 있다.According to another embodiment, there is a computer-readable recording medium on which a program for performing a management method of a biometric authentication system is recorded, wherein the management method of the biometric authentication system generates a first feature extraction model when a user requests to register biometric information. extracting a first feature point from the biometric information of the user using generating a transformation model for converting the output of the model into the output of the second feature extraction model, and converting the stored first feature point into a second feature point using the transformation model, and converting the second feature point to the user It may include the step of matching and storing.

또 다른 실시예에 따르면, 생체인증 시스템의 관리하기 위한 컴퓨팅 장치는, 사용자로부터 생체정보 등록 또는 생체인증에 대한 요청을 수신하고, 생체인증 결과를 출력하기 위한 입출력부, 상기 생체정보로부터 특징점을 추출하고, 상기 생체인증을 수행하기 위한 프로그램이 저장되는 저장부 및 적어도 하나의 프로세서를 포함하는 제어부를 포함하며, 상기 제어부는, 상기 저장부에 저장된 프로그램을 실행함으로써, 상기 사용자가 생체정보 등록을 요청하면 제1 특징추출모델을 이용하여 상기 사용자의 생체정보로부터 제1 특징점을 추출하고 상기 제1 특징점을 상기 사용자에 매칭시켜 저장하며, 상기 제1 특징추출모델이 제2 특징추출모델로 업데이트되면 상기 제1 특징추출모델의 출력을 상기 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성하고, 상기 변환모델을 이용하여 상기 저장된 제1 특징점을 제2 특징점으로 변환하고 상기 제2 특징점을 상기 사용자에 매칭시켜 저장할 수 있다.According to another embodiment, a computing device for managing a biometric authentication system receives a request for biometric information registration or biometric authentication from a user, an input/output unit for outputting a biometric authentication result, and extracts feature points from the biometric information and a control unit including a storage unit storing a program for performing the biometric authentication and at least one processor, wherein the control unit executes the program stored in the storage unit, thereby allowing the user to request biometric information registration When the first feature extraction model is used to extract a first feature point from the user's biometric information, the first feature point is matched to the user and stored, and when the first feature extraction model is updated to a second feature extraction model, the A transformation model for converting the output of the first feature extraction model into the output of the second feature extraction model is generated, the stored first feature point is converted into a second feature point using the transformation model, and the second feature point is the It can be saved by matching with the user.

전술한 과제 해결 수단 중 어느 하나에 의하면, 생체정보로부터 특징점을 추출하기 위한 인공신경망 모델이 업데이트되더라도 사용자로부터 생체정보를 다시 획득할 필요 없이, 기존에 저장된 특징점을 변환함으로써 특징점을 업데이트할 수 있다. 따라서, 사용자로부터 다시 생체정보를 획득하고 이를 등록하는 번거로운 절차를 생략할 수 있으므로 편의성이 증대되는 효과를 기대할 수 있다.According to any one of the above-described problem solving means, even if the artificial neural network model for extracting the key points from the biometric information is updated, the key points can be updated by converting the previously stored key points without the need to re-acquire the biometric information from the user. Accordingly, since the cumbersome procedure of acquiring biometric information from the user again and registering it can be omitted, the effect of increasing convenience can be expected.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are clear to those of ordinary skill in the art to which the embodiments disclosed from the description below belong. will be able to be understood

도 1은 일 실시예에 따른 생체인증 시스템에서 사용자의 생체정보를 등록하는 과정을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 생체인증 시스템을 관리하기 위한 컴퓨팅 장치의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 생체인증 시스템에서 특징추출모델의 업데이트에 따라 기 저장된 특징점을 업데이트하는 방법을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 생체인증 시스템에서 특징점을 변환하기 위한 변환모델을 생성하는 방법을 설명하기 위한 도면이다.
도 5 및 도 6은 실시예들에 따른 생체인증 시스템의 관리 방법을 설명하기 위한 순서도들이다.
1 is a diagram for explaining a process of registering a user's biometric information in a biometric authentication system according to an embodiment.
2 is a diagram illustrating a configuration of a computing device for managing a biometric authentication system according to an embodiment.
3 is a diagram for explaining a method of updating a pre-stored feature point according to an update of a feature extraction model in a biometric authentication system according to an embodiment.
4 is a diagram for explaining a method of generating a transformation model for converting a feature point in a biometric authentication system according to an embodiment.
5 and 6 are flowcharts for explaining a management method of a biometric authentication system according to embodiments.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the characteristics of the embodiments, detailed descriptions of matters widely known to those of ordinary skill in the art to which the following embodiments belong are omitted. And, in the drawings, parts not related to the description of the embodiments are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is said to be "connected" with another component, it includes not only the case where it is 'directly connected' but also the case where it is 'connected with another component in between'. In addition, when a component "includes" a component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 생체인증 시스템에서 사용자의 생체정보를 등록하는 과정을 설명하기 위한 도면이다. 도 1을 참고하면, 일 실시예에 따른 생체인증 시스템은 서버(100) 및 사용자 단말(200)을 포함하도록 구성될 수 있다.1 is a diagram for explaining a process of registering a user's biometric information in a biometric authentication system according to an embodiment. Referring to FIG. 1 , a biometric authentication system according to an embodiment may be configured to include a server 100 and a user terminal 200 .

사용자 A(1)가 사용자 단말(200)을 이용하여 서버(100)에 생체정보를 등록하는 과정에 대해서 설명하면 다음과 같다.A process in which user A (1) registers biometric information in the server 100 using the user terminal 200 will be described as follows.

사용자 A(1)가 사용자 단말(200)을 통해 서버(100)에 생체정보 등록을 요청하면, 서버(100)는 사용자 단말(200)을 통해 사용자 A(1)에게 생체정보를 요청한다. 이에 따라, 사용자 A(1)는 사용자 단말(200)을 이용해 자신의 생체정보를 획득(e.g. 얼굴 영상을 촬영)하고, 획득한 생체정보(e.g. 얼굴을 촬영한 이미지)를 서버(100)로 전송할 수 있다. 본 명세서에서, ‘생체정보 등록’이란 얼굴을 촬영한 이미지 등과 같이 생체정보 자체를 저장하는 것이 아니라, 인공신경망을 이용해 생체정보로부터 추출한 특징점을 저장하는 것을 의미한다.When user A(1) requests biometric information registration from server 100 through user terminal 200, server 100 requests biometric information from user A(1) through user terminal 200. Accordingly, user A (1) obtains his/her own biometric information (e.g. photographing a face image) using the user terminal 200 and transmits the obtained biometric information (e.g. an image obtained by photographing the face) to the server 100 . can In this specification, 'biometric information registration' means not storing biometric information itself, such as an image of a face, but storing feature points extracted from biometric information using an artificial neural network.

서버(100)는 사용자 단말(200)로부터 수신한 생체정보로부터 특징점을 추출하고, 추출된 특징점을 사용자 A(1)에 매칭시켜 저장할 수 있다. 구체적으로 서버(100)는 생체정보로부터 특징점을 추출하기 위한 인공신경망 모델인 제1 특징추출모델(10)을 실행시키고, 제1 특징추출모델(10)에 생체정보를 입력으로서 인가하고, 그 결과 생체정보로부터 출력된 특징점을 사용자 A(1)에 매칭시켜 저장할 수 있다. 서버(100)는 추후에 사용자 A(1)가 생체인증을 요청하면, 사용자 A(1)에 매칭되어 저장된 특징점을 이용하여 생체인증을 수행할 수 있다.The server 100 may extract a feature point from the biometric information received from the user terminal 200 , match the extracted feature point to the user A ( 1 ) and store it. Specifically, the server 100 executes the first feature extraction model 10 , which is an artificial neural network model for extracting feature points from biometric information, and applies biometric information as an input to the first feature extraction model 10 , as a result The feature points output from the biometric information may be matched to the user A(1) and stored. When the user A(1) requests biometric authentication later, the server 100 may perform biometric authentication using the stored feature points matched to the user A(1).

서버(100)는 도 1에 도시된 바와 같이 하나의 장치로 구현될 수도 있지만, 각각 역할을 분담하는 복수의 서버들로 구현될 수도 있다.The server 100 may be implemented as one device as shown in FIG. 1 , but may also be implemented as a plurality of servers each sharing a role.

서버(100)는 사용자 A(1)에 대한 생체정보 등록이 완료되면, 사용자 A(1)의 개인정보를 보호하기 위해 특징점 추출 시 사용된 생체정보는 폐기할 수 있다.When the biometric information registration for the user A(1) is completed, the server 100 may discard the biometric information used for extracting key points in order to protect the personal information of the user A(1).

생체정보로부터 특징점 추출 시 사용되는 인공신경망 모델은 성능 향상 등의 목적으로 인해 종종 업데이트될 수 있는데, 생체정보가 폐기된 후에 인공신경망 모델이 업데이트될 때마다 다시 생체정보를 등록하기 위해 사용자 A(1)로부터 생체정보를 수신해야 한다면 번거로울 뿐 아니라 매우 비효율적이다.The artificial neural network model used when extracting key points from biometric information can be updated often for the purpose of improving performance, and each time the artificial neural network model is updated after biometric information is discarded, user A (1) ), it is cumbersome and very inefficient if it is necessary to receive biometric information.

본 명세서에서 설명되는 실시예들에서는 이러한 문제점을 해결하기 위해, 특징점 추출 시 사용되는 인공신경망 모델이 업데이트되더라도 사용자의 생체정보를 다시 수신할 필요 없이 이미 저장된 특징점을 변환함으로써 특징점을 업데이트하는 방법을 제시한다.In order to solve this problem, in the embodiments described in this specification, even if the artificial neural network model used for extracting the key points is updated, a method of updating the key points by converting the previously stored key points without the need to receive the user's biometric information again is proposed. do.

도 2는 일 실시예에 따른 생체인증 시스템을 관리하기 위한 컴퓨팅 장치의 구성을 도시한 도면이다. 도 2에 도시된 컴퓨팅 장치는 도 1의 서버(100)에 해당될 수 있다. 도 2를 참조하면, 서버(100)는 입출력부(110), 제어부(120) 및 저장부(130)를 포함할 수 있다.2 is a diagram illustrating a configuration of a computing device for managing a biometric authentication system according to an embodiment. The computing device shown in FIG. 2 may correspond to the server 100 of FIG. 1 . Referring to FIG. 2 , the server 100 may include an input/output unit 110 , a control unit 120 , and a storage unit 130 .

입출력부(110)는 사용자로부터 생체정보 등록 또는 생체인증에 대한 요청을 수신하고, 생체인증 결과를 출력하기 위한 구성이다. 또한, 입출력부(110)는 사용자로부터 생체정보 등록 또는 생체인증과 관련한 다양한 제어 명령을 수신할 수도 있다. 입출력부(110)는 키보드, 하드 버튼 및 터치스크린 등과 같은 입력을 수신하기 위한 구성과, LCD 패널 등과 같은 출력을 위한 구성, 그리고 유무선 통신 포트와 같은 입출력을 위한 구성을 포함할 수 있다. 도 1에 도시된 생체인증 시스템에서 입출력부(110)는 사용자 단말(200)과 통신을 수행할 수 있는 기능을 구비함으로써 사용자 단말(200)로부터 생체정보를 수신하고, 사용자 단말(200)에 생체인증 결과를 전송할 수도 있다.The input/output unit 110 is configured to receive a request for biometric information registration or biometric authentication from a user, and output a biometric authentication result. In addition, the input/output unit 110 may receive various control commands related to biometric information registration or biometric authentication from the user. The input/output unit 110 may include a configuration for receiving an input such as a keyboard, a hard button and a touch screen, a configuration for output such as an LCD panel, and a configuration for input/output such as a wired/wireless communication port. In the biometric authentication system shown in FIG. 1 , the input/output unit 110 has a function capable of performing communication with the user terminal 200 , thereby receiving biometric information from the user terminal 200 and providing the biometric information to the user terminal 200 . An authentication result may also be transmitted.

제어부(120)는 CPU 등과 같은 적어도 하나의 프로세서를 포함하는 구성으로서, 서버(100)의 전반적인 동작을 제어한다. 특히, 제어부(120)는 후술할 저장부(130)에 저장된 프로그램을 실행함으로써 생체정보로부터 특징점을 추출하기 위한 인공신경망 모델(특징추출모델)을 구현하고, 인공신경망 모델 업데이트 시 특징점을 변환하기 위한 인공신경망 모델(변환모델)을 구현할 수 있다. 제어부(120)가 변환모델을 생성하고, 변환모델을 이용하여 특징점을 업데이트하는 구체적인 방법에 대해서는 아래에서 자세히 설명한다.The controller 120 is a configuration including at least one processor such as a CPU, and controls the overall operation of the server 100 . In particular, the controller 120 implements an artificial neural network model (feature extraction model) for extracting feature points from biometric information by executing a program stored in the storage unit 130, which will be described later, and converts the feature points when the artificial neural network model is updated. An artificial neural network model (transformation model) can be implemented. A detailed method for the control unit 120 to generate a transformation model and update the feature point using the transformation model will be described in detail below.

저장부(130)는 데이터 및 프로그램 등이 저장될 수 있는 구성으로서, RAM, HDD 및 SSD 등과 같이 다양한 종류의 메모리 중 적어도 하나를 포함하도록 구성될 수 있다. 저장부(130)에는 생체정보로부터 특징점을 추출하는 인공신경망 모델(특징추출모델)을 구현하기 위한 프로그램이 저장될 수 있으며, 또한 특징추출모델 업데이트 시 특징점을 변환하기 위한 인공신경망 모델(변환모델)을 구현하기 위한 프로그램도 저장될 수 있다. 또한, 저장부(130)에는 생체정보로부터 추출된 특징점이 사용자에 매칭되어 저장되고, 저장된 특징점은 추후 사용자에 대한 생체인증 시 사용될 수 있다.The storage unit 130 is a configuration in which data and programs may be stored, and may be configured to include at least one of various types of memories such as RAM, HDD, and SSD. A program for implementing an artificial neural network model (feature extraction model) for extracting feature points from biometric information may be stored in the storage unit 130, and an artificial neural network model (conversion model) for converting feature points when the feature extraction model is updated A program for implementing the . In addition, the feature points extracted from the biometric information are matched to the user and stored in the storage unit 130 , and the stored feature points can be used for biometric authentication for the user later.

이하에서는 도 3을 참조하여, 특징추출모델이 업데이트된 경우 서버(100)가 기 저장된 특징점을 변환하여 업데이트하는 방법에 대해서 자세히 설명한다.Hereinafter, with reference to FIG. 3 , when the feature extraction model is updated, a method in which the server 100 converts and updates pre-stored feature points will be described in detail.

먼저 사용자 A(1)의 생체정보를 등록하는 과정부터 설명하면, 서버(100)의 제어부(120)는 사용자 A(1)로부터 생체정보 등록 요청을 수신하면, 저장부(130)에 저장된 프로그램을 실행시킴으로써 제1 특징추출모델(10)을 구현하고, 제1 특징추출모델(10)을 이용하여 사용자 A(1)의 생체정보로부터 제1 특징점(11)을 추출한다. 제어부(120)는 제1 특징점(11)을 사용자 A(1)에 매칭시켜 저장함으로써 사용자 A(1)에 대한 생체정보 등록을 완료한다.First, the process of registering biometric information of user A(1) will be described. When receiving a biometric information registration request from user A(1), the control unit 120 of the server 100 saves the program stored in the storage unit 130. By executing it, the first feature extraction model 10 is implemented, and the first feature point 11 is extracted from the biometric information of the user A (1) using the first feature extraction model 10. The control unit 120 matches and stores the first feature point 11 to the user A(1), thereby completing the biometric information registration for the user A(1).

위와 같이 사용자 A(1)에 대한 생체정보 등록이 완료된 후에 제1 특징추출모델(10)이 제2 특징추출모델(20)로 업데이트되었다고 가정한다. 서버(100)의 제어부(120)는 제1 특정추출모델(10)의 출력을 제2 특징추출모델(20)의 출력으로 변환하기 위한 변환모델(30)을 생성한다. 좀 더 정확하게 설명하면, 변환모델(30)은 특정 생체정보에 대한 제1 특징추출모델(10)의 출력을, 동일한 특정 생체정보에 대한 제2 특징추출모델(20)의 출력과 매우 유사한 값으로 변환하기 위한 인공신경망 모델이다.It is assumed that the first feature extraction model 10 is updated to the second feature extraction model 20 after biometric information registration for user A (1) is completed as described above. The control unit 120 of the server 100 generates a transformation model 30 for converting the output of the first specific extraction model 10 into the output of the second feature extraction model 20 . More precisely, the transformation model 30 converts the output of the first feature extraction model 10 for specific biometric information to a value very similar to the output of the second feature extraction model 20 for the same specific biometric information. It is an artificial neural network model for transformation.

서버(100)의 제어부(120)는 특징추출모델의 업데이트에 대응하여 변환모델(30)을 생성하고, 기 저장된 제1 특징점(11)을 제2 특징점(31)으로 변환한 후 사용자 A(1)에 매칭시켜 저장함으로써 특징점을 업데이트할 수 있다. 제2 특징추출모델(20)을 이용하여 사용자 A(1)의 생체정보로부터 추출되는 특징점을 제3 특징점(21)이라고 한다면, 제2 특징점(31)과 제3 특징점(21)은 매우 유사한 값을 갖는다.The control unit 120 of the server 100 generates the transformation model 30 in response to the update of the feature extraction model, converts the pre-stored first feature point 11 into the second feature point 31, and then the user A (1) ) by matching and saving the feature point can be updated. If the feature point extracted from the biometric information of user A (1) using the second feature extraction model 20 is referred to as the third feature point 21, the second feature point 31 and the third feature point 21 are very similar values. has

서버(100)는 제1 특징추출모델(10)이 제2 특징추출모델(20)로 업데이트되었을 때 사용자 A(1)로부터 다시 생체정보를 획득하여 제3 특징점(21)을 추출한 뒤 이를 사용자 A(1)에 매칭시켜 저장하는 방식으로 특징점을 업데이트할 수도 있다. 하지만, 이와 같이 할 경우 특징추출모델의 업데이트 이전에 생체정보를 등록한 모든 사용자들에 대해서 생체정보를 다시 획득해야 하므로 번거롭고 시간 및 자원 측면에서 비효율적이게 된다. 따라서, 본 명세서에서 설명되는 실시예들에서 서버(100)는 사용자 A(1)로부터 다시 생체정보를 수신하여 제3 특징점(21)을 저장하는 대신에 제3 특징점(21)과 매우 유사한 제2 특징점(31)을 사용자 A(1)에 매칭시켜 저장한다.When the first feature extraction model 10 is updated to the second feature extraction model 20, the server 100 obtains biometric information again from the user A (1), extracts the third feature point 21, It is also possible to update the feature point by matching with (1) and storing it. However, in this case, it is cumbersome and inefficient in terms of time and resources because it is necessary to re-acquire biometric information for all users who registered the biometric information before the update of the feature extraction model. Accordingly, in the embodiments described herein, the server 100 receives the biometric information from the user A 1 again and stores the third feature point 21 instead of storing the third feature point 21 with a second feature very similar to the third feature point 21 . The feature point 31 is matched with the user A(1) and stored.

특징추출모델의 업데이트 전 생체정보를 등록한 사용자에 대해서, 특징추출모델 업데이트 후 생체인증을 수행하는 방법에 대해서 설명하면 다음과 같다. 서버(100)는 특징추출모델이 업데이트되고 그에 따라 사용자 A(1)에 매칭되는 특징점도 제1 특징점(11)에서 제2 특징점(31)으로 업데이트된 후에 사용자 A(1)로부터 생체인증 요청을 수신하면, 제2 특징추출모델(20)을 이용하여 사용자 A(1)의 생체정보로부터 제3 특징점(21)을 추출한다. 이어서, 서버(100)는 제3 특징점(21)을 사용자 A(1)에 매칭되어 저장된 제2 특징점(31)과 비교하고, 두 특징점 간 유사도가 일정 기준 이상이라면 사용자 A(1)에 대한 생체인증에 성공한 것으로 판단한다.A method of performing biometric authentication after updating the feature extraction model for a user who has registered biometric information before updating the feature extraction model will be described as follows. The server 100 receives the biometric authentication request from the user A(1) after the feature extraction model is updated and the feature point matching the user A(1) is also updated from the first feature point 11 to the second feature point 31. Upon reception, the third feature point 21 is extracted from the biometric information of the user A 1 using the second feature extraction model 20 . Next, the server 100 compares the third feature point 21 with the second feature point 31 stored by matching with the user A(1), and if the similarity between the two feature points is equal to or greater than a certain standard, the biometric data for the user A(1) It is judged that the authentication was successful.

한편, 특징추출모델이 제2 특징추출모델(20)로 업데이트된 후에 새로운 사용자에 대해서 생체정보 등록 요청을 수신하면, 서버(100)는 새로운 사용자로부터 생체정보를 획득하고, 제2 특징추출모델(20)을 이용하여 생체정보로부터 특징점을 추출하고, 추출된 특징점을 새로운 사용자에 매칭시켜 저장할 수 있다.On the other hand, when receiving a biometric information registration request for a new user after the feature extraction model is updated to the second feature extraction model 20, the server 100 obtains biometric information from the new user, and the second feature extraction model ( 20) can be used to extract key points from biometric information, match the extracted key points to a new user, and store them.

서버(100)의 제어부(120)가 변환모델(30)을 생성하는 방법에 대해서는 아래에서 도 4를 참조하여 자세히 설명한다. 도 4는 일 실시예에 따른 생체인증 시스템에서 특징점을 변환하기 위한 변환모델을 생성하는 방법을 설명하기 위한 도면이다.A method for the control unit 120 of the server 100 to generate the transformation model 30 will be described in detail below with reference to FIG. 4 . 4 is a diagram for explaining a method of generating a transformation model for converting a feature point in a biometric authentication system according to an embodiment.

도 4를 참고하면, 특징추출모델의 개발 및 업데이트 시 사용되는 훈련용 데이터 그룹(400)이 존재한다. 제1 특징추출모델(10)을 제2 특징추출모델(20)로 업데이트할 때, 서버(100)는 제1 특징추출모델(10) 및 제2 특징추출모델(20) 각각에 훈련용 데이터 그룹(400)을 입력으로 인가하여 제1 특징점 그룹(410) 및 제2 특징점 그룹(420)을 얻는다. 서버(100)는 제1 특징점 그룹(410)을 입력에 대한 훈련용 데이터로 사용하고, 제2 특징점 그룹(420)을 출력에 대한 훈련용 데이터로 사용하여 인공신경망을 학습시키고, 학습된 인공신경망을 변환모델(30)로 설정할 수 있다.Referring to FIG. 4 , there is a training data group 400 used for developing and updating a feature extraction model. When updating the first feature extraction model 10 to the second feature extraction model 20 , the server 100 provides a training data group to each of the first feature extraction model 10 and the second feature extraction model 20 . (400) is applied as an input to obtain a first feature point group 410 and a second feature point group 420 . The server 100 uses the first feature point group 410 as training data for the input, and uses the second feature point group 420 as training data for the output to train the artificial neural network, and the learned artificial neural network can be set as the transformation model 30 .

이와 같이 학습된 변환모델(30)은 동일한 생체정보 입력에 대해서, 제1 특징추출모델(10)의 출력을 제2 특징추출모델(20)의 출력으로 변환할 수 있다.The learned transformation model 30 may convert the output of the first feature extraction model 10 into the output of the second feature extraction model 20 for the same biometric information input.

도 5 및 도 6은 실시예들에 따른 생체인증 시스템의 관리 방법을 설명하기 위한 순서도들이다. 도 5 및 도 6을 참조하여 설명되는 생체인증 시스템의 관리 방법은 도 1 및 도 2에 도시된 서버(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 및 도 2에 도시된 서버(100)에 관하여 이상에서 기술한 내용은 도 5 및 도 6에 도시된 실시예들에 따른 생체인증 시스템의 관리 방법에도 적용될 수 있다.5 and 6 are flowcharts for explaining a management method of a biometric authentication system according to embodiments. The management method of the biometric authentication system described with reference to FIGS. 5 and 6 includes steps processed in time series by the server 100 shown in FIGS. 1 and 2 . Therefore, even if omitted below, the contents described above with respect to the server 100 shown in FIGS. 1 and 2 are also applicable to the management method of the biometric authentication system according to the embodiments shown in FIGS. 5 and 6 . can

도 5를 참고하면, 501 단계에서 서버(100)는 제1 특징추출모델을 이용하여 사용자의 생체정보로부터 제1 특징점을 추출하고, 제1 특징점을 사용자에 매칭시켜 저장한다.Referring to FIG. 5 , in step 501 , the server 100 extracts a first feature point from the user's biometric information using the first feature extraction model, matches the first feature point to the user, and stores it.

502 단계에서 서버(100)는 제1 특징추출모델이 제2 특징추출모델로 업데이트되면, 제1 특징추출모델의 출력을 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성한다. 서버(100)가 변환모델을 생성하는 구체적인 프로세스, 즉 502 단계에 포함되는 세부단계들을 도 6에 도시하였다.In step 502, when the first feature extraction model is updated with the second feature extraction model, the server 100 generates a transformation model for converting the output of the first feature extraction model into the output of the second feature extraction model. The detailed process of the server 100 generating the transformation model, that is, detailed steps included in step 502 is shown in FIG. 6 .

도 6을 참고하면, 서버(100)는 601 단계에서 제1 특징추출모델을 이용하여 훈련용 데이터 그룹으로부터 제1 특징점을 추출하고, 602 단계에서 제2 특징추출모델을 이용하여 훈련용 데이터 그룹으로부터 제2 특징점을 추출한다.Referring to FIG. 6 , the server 100 extracts a first feature point from the training data group using the first feature extraction model in step 601, and from the training data group using the second feature extraction model in step 602. A second feature point is extracted.

603 단계에서 서버(100)는 제1 특징점 그룹을 입력에 대한 훈련용 데이터로 사용하고, 제2 특징점 그룹을 출력에 대한 훈련용 데이터로 사용하여 인공신경망을 학습시킨다.In step 603, the server 100 uses the first key point group as training data for the input and uses the second key point group as training data for the output to train the artificial neural network.

604 단계에서 서버(100)는 학습된 인공신경망을 변환모델로 설정한다.In step 604, the server 100 sets the learned artificial neural network as a transformation model.

다시 도 5로 돌아와서, 서버(100)는 503 단계에서 변환모델을 이용하여 제1 특징점을 제2 특징점으로 변환하고, 제2 특징점을 사용자에게 매칭시켜 저장함으로써 특징점을 업데이트한다.Returning to FIG. 5 , the server 100 converts the first feature point into the second feature point using the transformation model in step 503 , matches the second feature point to the user, and stores it to update the feature point.

한편, 도면에 도시되지는 않았지만 일 실시예에 따르면 생체인증 시스템의 관리 방법은, 도 5에 도시된 단계들에 추가적으로 생체인증을 수행하는 단계들을 더 포함할 수도 있다. 자세하게는 제2 특징점이 매칭되어 저장된 사용자로부터 생체인증 요청을 수신하면, 서버(100)는 사용자로부터 생체정보를 수신하고 제2 특징추출모델을 이용하여 생체정보로부터 제3 특징점을 추출할 수 있다. 이어서 서버(100)는 제3 특징점을 제2 특징점과 비교하여, 두 특징점 간 유사도가 미리 설정된 일정 기준 이상이라면 사용자에 대한 생체인증에 성공한 것으로 판단할 수 있다.Meanwhile, although not shown in the drawings, according to an embodiment, the method of managing a biometric authentication system may further include steps of performing biometric authentication in addition to the steps shown in FIG. 5 . In detail, when receiving a biometric authentication request from a user in which the second feature point is matched and stored, the server 100 may receive biometric information from the user and extract the third feature point from the biometric information using the second feature extraction model. Next, the server 100 may compare the third feature point with the second feature point, and if the similarity between the two feature points is equal to or greater than a preset predetermined criterion, it may be determined that the biometric authentication for the user has been successful.

한편, 도면에 도시되지는 않았지만 일 실시예에 따르면 생체인증 시스템의 관리 방법은, 도 5에 도시된 단계들에 추가적으로 새로운 사용자에 대한 생체정보 등록을 수행하는 단계들을 더 포함할 수도 있다. 자세하게는 제1 특징추출모델이 제2 특징추출모델로 업데이트된 이후에 새로운 사용자로부터 생체정보 등록 요청을 수신하면, 서버(100)는 제2 특징추출모델을 이용하여 새로운 사용자의 생체정보로부터 제4 특징점을 추출하고, 제4 특징점을 새로운 사용자에 매칭시켜 저장할 수 있다.Meanwhile, although not shown in the drawings, according to an embodiment, the method for managing a biometric authentication system may further include steps of registering biometric information for a new user in addition to the steps shown in FIG. 5 . In detail, when receiving a biometric information registration request from a new user after the first feature extraction model is updated to the second feature extraction model, the server 100 uses the second feature extraction model to obtain the fourth feature from the biometric information of the new user. The feature point may be extracted, and the fourth feature point may be matched to a new user and stored.

이상에서 설명한 실시예들에 따르면, 생체정보로부터 특징점을 추출하기 위한 인공신경망 모델이 업데이트되더라도 사용자로부터 생체정보를 다시 획득할 필요 없이, 기존에 저장된 특징점을 변환함으로써 특징점을 업데이트할 수 있다. 따라서, 사용자로부터 다시 생체정보를 획득하고 이를 등록하는 번거로운 절차를 생략할 수 있으므로 편의성이 증대되는 효과를 기대할 수 있다.According to the embodiments described above, even if the artificial neural network model for extracting key points from biometric information is updated, it is possible to update the key points by converting the previously stored key points without the need to re-acquire biometric information from the user. Accordingly, since the cumbersome procedure of acquiring biometric information from the user again and registering it can be omitted, the effect of increasing convenience can be expected.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~ unit' used in the above embodiments means software or hardware components such as field programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. '~unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.Functions provided in components and '~ units' may be combined into a smaller number of components and '~ units' or separated from additional components and '~ units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

도 3 내지 도 6을 통해 설명된 실시예들에 따른 생체인증 시스템의 관리 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.The management method of the biometric authentication system according to the embodiments described with reference to FIGS. 3 to 6 may also be implemented in the form of a computer-readable medium for storing instructions and data executable by a computer. In this case, the instructions and data may be stored in the form of program codes, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. In addition, computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer readable medium may be a computer recording medium, which is a volatile and non-volatile and non-volatile embodied in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. It may include both volatile, removable and non-removable media. For example, the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD, and Blu-ray disc, or a memory included in a server accessible through a network.

또한 도 3 내지 도 6을 통해 설명된 실시예들에 따른 생체인증 시스템의 관리 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. Also, the management method of the biometric authentication system according to the embodiments described with reference to FIGS. 3 to 6 may be implemented as a computer program (or computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor, and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language. . In addition, the computer program may be recorded in a tangible computer-readable recording medium (eg, a memory, a hard disk, a magnetic/optical medium, or a solid-state drive (SSD), etc.).

따라서 도 3 내지 도 6을 통해 설명된 실시예들에 따른 생체인증 시스템의 관리 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.Therefore, the management method of the biometric authentication system according to the embodiments described with reference to FIGS. 3 to 6 may be implemented by executing the computer program as described above by the computing device. The computing device may include at least a portion of a processor, a memory, a storage device, a high-speed interface connected to the memory and the high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using various buses, and may be mounted on a common motherboard or mounted in any other suitable manner.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.Here, the processor may process commands within the computing device, such as for displaying graphic information for providing a Graphical User Interface (GUI) on an external input or output device, such as a display connected to a high-speed interface. For example, instructions stored in memory or a storage device. In other embodiments, multiple processors and/or multiple buses may be used with multiple memories and types of memory as appropriate. In addition, the processor may be implemented as a chipset formed by chips including a plurality of independent analog and/or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.Memory also stores information within the computing device. As an example, the memory may be configured as a volatile memory unit or a set thereof. As another example, the memory may be configured as a non-volatile memory unit or a set thereof. The memory may also be another form of computer readable medium such as, for example, a magnetic or optical disk.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.In addition, the storage device may provide a large-capacity storage space to the computing device. The storage device may be a computer-readable medium or a component comprising such a medium, and may include, for example, devices or other components within a storage area network (SAN), a floppy disk device, a hard disk device, an optical disk device, Alternatively, it may be a tape device, a flash memory, or other semiconductor memory device or device array similar thereto.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustration, and those of ordinary skill in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical idea or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through this specification is indicated by the claims described below rather than the above detailed description, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and their equivalents. .

10: 제1 특징추출모델 20: 제2 특징추출모델
30: 변환모델 100: 서버
110: 입출력부 120: 제어부
130: 저장부 200: 사용자 단말
10: first feature extraction model 20: second feature extraction model
30: conversion model 100: server
110: input/output unit 120: control unit
130: storage unit 200: user terminal

Claims (10)

생체인증 시스템의 관리 방법에 있어서,
사용자가 생체정보 등록을 요청하면, 제1 특징추출모델을 이용하여 상기 사용자의 생체정보로부터 제1 특징점을 추출하고, 상기 제1 특징점을 상기 사용자에 매칭시켜 저장하는 단계;
상기 제1 특징추출모델이 제2 특징추출모델로 업데이트되면, 상기 제1 특징추출모델의 출력을 상기 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성하는 단계; 및
상기 변환모델을 이용하여 상기 저장된 제1 특징점을 제2 특징점으로 변환하고, 상기 제2 특징점을 상기 사용자에 매칭시켜 저장하는 단계를 포함하며,
변환모델을 생성하는 단계는,
훈련용 데이터 그룹으로부터 상기 제1 특징추출모델을 이용하여 제1 특징점 그룹을 추출하고, 상기 훈련용 데이터 그룹으로부터 상기 제2 특징추출모델을 이용하여 제2 특징점 그룹을 추출하는 단계;
상기 제1 특징점 그룹을 입력에 대한 훈련용 데이터로 사용하고, 상기 제2 특징점 그룹을 출력에 대한 훈련용 데이터로 사용하여 인공신경망을 학습시키는 단계; 및
상기 학습된 인공신경망을 상기 변환모델로 설정하는 단계를 포함하는, 방법.
In the management method of the biometric authentication system,
when a user requests biometric information registration, extracting a first feature point from the user's biometric information using a first feature extraction model, matching the first feature point with the user, and storing;
generating a transformation model for converting an output of the first feature extraction model into an output of the second feature extraction model when the first feature extraction model is updated to a second feature extraction model; and
Transforming the stored first feature point into a second feature point using the transformation model, and storing the second feature point by matching it with the user,
The steps to create a transformation model are:
extracting a first feature point group from the training data group using the first feature extraction model, and extracting a second feature point group from the training data group using the second feature extraction model;
training an artificial neural network using the first group of key points as training data for an input and using the second group of key points as training data for an output; and
Comprising the step of setting the learned artificial neural network as the transformation model, the method.
삭제delete 제1항에 있어서,
상기 사용자로부터 생체인증 요청을 수신하면, 상기 사용자로부터 생체정보를 수신하는 단계;
상기 제2 특징추출모델을 이용하여 상기 수신한 생체정보로부터 제3 특징점을 추출하는 단계;
상기 제3 특징점을 상기 저장된 제2 특징점과 비교하는 단계; 및
상기 제3 특징점과 상기 제2 특징점 간 유사도가 미리 설정된 기준 이상이라면, 상기 사용자에 대한 생체인증에 성공한 것으로 판단하는 단계를 더 포함하는 것을 특징으로 하는 방법.
According to claim 1,
receiving biometric information from the user when receiving a biometric authentication request from the user;
extracting a third feature point from the received biometric information using the second feature extraction model;
comparing the third feature point with the stored second feature point; and
If the similarity between the third feature point and the second feature point is greater than or equal to a preset criterion, the method further comprising the step of determining that the biometric authentication for the user is successful.
제1항에 있어서,
상기 제1 특징추출모델이 상기 제2 특징추출모델로 업데이트된 이후에 새로운 사용자로부터 생체정보 등록 요청을 수신하면, 상기 제2 특징추출모델을 이용하여 상기 새로운 사용자의 생체정보로부터 제4 특징점을 추출하고, 상기 제4 특징점을 상기 새로운 사용자에 매칭시켜 저장하는 단계를 더 포함하는 것을 특징으로 하는 방법.
According to claim 1,
When a biometric information registration request is received from a new user after the first feature extraction model is updated to the second feature extraction model, a fourth feature point is extracted from the biometric information of the new user using the second feature extraction model and matching and storing the fourth feature point to the new user.
컴퓨터에 제1항에 기재된 방법을 실행시키기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium in which a computer program for executing the method according to claim 1 is recorded on a computer. 컴퓨팅 장치에 의해 수행되며, 제1항에 기재된 방법을 수행하기 위해 컴퓨터 판독가능한 매체에 저장된 컴퓨터 프로그램.A computer program stored on a computer readable medium for performing the method of claim 1 performed by a computing device. 생체인증 시스템을 관리하기 위한 컴퓨팅 장치에 있어서,
사용자로부터 생체정보 등록 또는 생체인증에 대한 요청을 수신하고, 생체인증 결과를 출력하기 위한 입출력부;
상기 생체정보로부터 특징점을 추출하고, 상기 생체인증을 수행하기 위한 프로그램이 저장되는 저장부; 및
적어도 하나의 프로세서를 포함하는 제어부를 포함하며,
상기 제어부는,
상기 저장부에 저장된 프로그램을 실행함으로써, 상기 사용자가 생체정보 등록을 요청하면 제1 특징추출모델을 이용하여 상기 사용자의 생체정보로부터 제1 특징점을 추출하고 상기 제1 특징점을 상기 사용자에 매칭시켜 저장하며, 상기 제1 특징추출모델이 제2 특징추출모델로 업데이트되면 상기 제1 특징추출모델의 출력을 상기 제2 특징추출모델의 출력으로 변환하기 위한 변환모델을 생성하고, 상기 변환모델을 이용하여 상기 저장된 제1 특징점을 제2 특징점으로 변환하고 상기 제2 특징점을 상기 사용자에 매칭시켜 저장하며,
상기 제어부는 상기 변환모델을 생성함에 있어서,
훈련용 데이터 그룹으로부터 상기 제1 특징추출모델을 이용하여 제1 특징점 그룹을 추출하고, 상기 훈련용 데이터 그룹으로부터 상기 제2 특징추출모델을 이용하여 제2 특징점 그룹을 추출하고, 상기 제1 특징점 그룹을 입력에 대한 훈련용 데이터로 사용하고 상기 제2 특징점 그룹을 출력에 대한 훈련용 데이터로 사용하여 인공신경망을 학습시키고, 상기 학습된 인공신경망을 상기 변환모델로 설정하는, 컴퓨팅 장치.
A computing device for managing a biometric authentication system, comprising:
an input/output unit for receiving a request for biometric information registration or biometric authentication from a user and outputting a biometric authentication result;
a storage unit in which a program for extracting a feature point from the biometric information and performing the biometric authentication is stored; and
A control unit including at least one processor,
The control unit is
By executing the program stored in the storage unit, when the user requests biometric information registration, a first feature point is extracted from the user's biometric information using a first feature extraction model, and the first feature point is matched to the user and stored and, when the first feature extraction model is updated with the second feature extraction model, a transformation model for converting the output of the first feature extraction model into the output of the second feature extraction model is generated, and using the transformation model converting the stored first feature point into a second feature point, matching the second feature point with the user, and storing,
The control unit in generating the transformation model,
Extracting a first feature point group from the training data group using the first feature extraction model, extracting a second feature point group from the training data group using the second feature extraction model, and the first feature point group A computing device for training an artificial neural network by using as training data for an input and using the second feature point group as training data for an output, and setting the learned artificial neural network as the transformation model.
삭제delete 제7항에 있어서,
상기 제어부는,
상기 사용자로부터 생체인증 요청을 수신하면 상기 사용자로부터 생체정보를 수신하고, 상기 제2 특징추출모델을 이용하여 상기 수신한 생체정보로부터 제3 특징점을 추출하고, 상기 제3 특징점을 상기 저장된 제2 특징점과 비교하고, 상기 제3 특징점과 상기 제2 특징점 간 유사도가 미리 설정된 기준 이상이라면 상기 사용자에 대한 생체인증에 성공한 것으로 판단하는 것을 특징으로 하는 컴퓨팅 장치.
8. The method of claim 7,
The control unit is
Upon receiving the biometric authentication request from the user, biometric information is received from the user, a third feature point is extracted from the received biometric information using the second feature extraction model, and the third feature point is used as the stored second feature point. and, if the degree of similarity between the third feature point and the second feature point is greater than or equal to a preset criterion, it is determined that the biometric authentication for the user is successful.
제7항에 있어서,
상기 제어부,
상기 제1 특징추출모델이 상기 제2 특징추출모델로 업데이트된 이후에 새로운 사용자로부터 생체정보 등록 요청을 수신하면, 상기 제2 특징추출모델을 이용하여 상기 새로운 사용자의 생체정보로부터 제4 특징점을 추출하고, 상기 제4 특징점을 상기 새로운 사용자에 매칭시켜 저장하는 것을 특징으로 하는 컴퓨팅 장치.
8. The method of claim 7,
the control unit,
When a biometric information registration request is received from a new user after the first feature extraction model is updated to the second feature extraction model, a fourth feature point is extracted from the biometric information of the new user using the second feature extraction model and matching and storing the fourth characteristic point to the new user.
KR1020200177509A 2020-12-17 2020-12-17 Method for managing biometrics system and apparatus for performing the same KR102434483B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200177509A KR102434483B1 (en) 2020-12-17 2020-12-17 Method for managing biometrics system and apparatus for performing the same
PCT/KR2021/007524 WO2022131464A1 (en) 2020-12-17 2021-06-16 Method for managing biometric system and device for performing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200177509A KR102434483B1 (en) 2020-12-17 2020-12-17 Method for managing biometrics system and apparatus for performing the same

Publications (2)

Publication Number Publication Date
KR20220087121A KR20220087121A (en) 2022-06-24
KR102434483B1 true KR102434483B1 (en) 2022-08-19

Family

ID=82057768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177509A KR102434483B1 (en) 2020-12-17 2020-12-17 Method for managing biometrics system and apparatus for performing the same

Country Status (2)

Country Link
KR (1) KR102434483B1 (en)
WO (1) WO2022131464A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040048114A (en) * 2002-12-02 2004-06-07 주식회사 시큐아이티 Authentication method and device using multi biological identification in portable radiotelephone
US20070036400A1 (en) * 2005-03-28 2007-02-15 Sanyo Electric Co., Ltd. User authentication using biometric information
JP4996904B2 (en) * 2006-10-04 2012-08-08 株式会社日立製作所 Biometric authentication system, registration terminal, authentication terminal, and authentication server
KR101768213B1 (en) * 2016-03-14 2017-08-31 주식회사 슈프리마아이디 Method and apparatus for authenticating using biometric information
KR102428920B1 (en) * 2017-01-03 2022-08-04 삼성전자주식회사 Image display device and operating method for the same
KR20200110064A (en) * 2019-03-15 2020-09-23 삼성전자주식회사 Authentication method and apparatus using transformation model

Also Published As

Publication number Publication date
KR20220087121A (en) 2022-06-24
WO2022131464A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
JP6226802B2 (en) Method and system for authenticating biometric data obtained from a user's fingerprint and biometric authentication system
US9576121B2 (en) Electronic device and authentication system therein and method
US20140250523A1 (en) Continuous Authentication, and Methods, Systems, and Software Therefor
US9232339B2 (en) Mobile push notification
JP7006584B2 (en) Biometric data processing device, biometric data processing system, biometric data processing method, biometric data processing program, storage medium for storing biometric data processing program
US9106422B2 (en) System and method for personalized security signature
US9830445B1 (en) Personal identification number (PIN) replacement in a one-time passcode based two factor authentication system
US20210243186A1 (en) Systems and methods for providing data access based on physical proximity to device
US11115214B2 (en) Biometric signature system and biometric signature method
KR102317598B1 (en) Server, method for controlling the server and terminal apparatus
US20210034895A1 (en) Matcher based anti-spoof system
KR102558741B1 (en) Device and method to register user
KR102434483B1 (en) Method for managing biometrics system and apparatus for performing the same
US20220245963A1 (en) Method, apparatus and computer program for authenticating a user
JP6432634B2 (en) Authentication device, authentication method, and program
US20200266992A1 (en) Electronic device and control method thereof
WO2023010701A1 (en) Image generation method, apparatus, and electronic device
US11977555B2 (en) Biometric data distributed management system, and biometric recognition method using same
US20230027328A1 (en) Biometric information registration method and biometric information registration device for performing same
WO2017054193A1 (en) Unlocking method and terminal
US20210105139A1 (en) Method and apparatus for user authentication
CN112446408A (en) Method and apparatus for identifying user based on-device training
KR102357763B1 (en) Method and apparatus for controlling device by gesture recognition
KR102301786B1 (en) Method and appauatus for face verification using deep learning based real-time on-device
CN113409051B (en) Risk identification method and device for target service

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant