KR102215535B1 - Partial face image based identity authentication method using neural network and system for the method - Google Patents

Partial face image based identity authentication method using neural network and system for the method Download PDF

Info

Publication number
KR102215535B1
KR102215535B1 KR1020200066327A KR20200066327A KR102215535B1 KR 102215535 B1 KR102215535 B1 KR 102215535B1 KR 1020200066327 A KR1020200066327 A KR 1020200066327A KR 20200066327 A KR20200066327 A KR 20200066327A KR 102215535 B1 KR102215535 B1 KR 102215535B1
Authority
KR
South Korea
Prior art keywords
partial
feature information
similarity
identity authentication
user
Prior art date
Application number
KR1020200066327A
Other languages
Korean (ko)
Inventor
최호열
정기수
Original Assignee
주식회사 카카오뱅크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카카오뱅크 filed Critical 주식회사 카카오뱅크
Priority to KR1020200066327A priority Critical patent/KR102215535B1/en
Application granted granted Critical
Publication of KR102215535B1 publication Critical patent/KR102215535B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00268
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

According to the present invention, an identity authentication method using a learned neural network includes the steps of: extracting a plurality of partial images according to a predetermined criterion from the facial image in the identification of a user; extracting partial feature information by inputting the partial image into a plurality of individually learned neural networks according to the criteria, and calculating a partial similarity by comparing the extracted partial feature information with pre-stored user partial feature information; recalculating an integrated similarity using the calculated partial similarity; and performing identity authentication of the user using the recalculated integrated similarity. According to the present invention, more accurate identification is possible even when a part of the face in the image is difficult to recognize.

Description

신경망을 이용한 안면 부분 이미지 기반 신분 인증 방법 및 이를 수행하는 시스템{Partial face image based identity authentication method using neural network and system for the method}Partial face image based identity authentication method using neural network and system for the method}

본 발명은 신분 인증 방법에 관한 것으로 신경망을 이용한 신분 인증에 관한 것이다.The present invention relates to an identity authentication method, and to identity authentication using a neural network.

비대면 방식의 신분 인증 방식이 다양한 산업 분야에 적용됨에 따라 온라인 상의 사용자의 신분을 확인하기 위한 다양한 방식들이 고안되고 있다.As the non-face-to-face identity authentication method is applied to various industrial fields, various methods for verifying the identity of users online are being devised.

또한, 인공지능 기술의 발달로 다양한 분야에 인공지능 기술 들이 적용되고 있으며, 기존의 영상 처리 방식을 대신하여 신경망 모델을 통해 영상 내 객체를 검출하고, 추적하는 방법들이 개발되고 있다. 인공지능을 위해 이용되는 신경망 모델은 학습을 통하여 일반적인 영상 처리에 비해 입력된 이미지 내에서 보다 빠르고, 정확하게 객체를 검출을 수행할 수 있다.In addition, with the development of artificial intelligence technology, artificial intelligence technologies are being applied in various fields, and methods of detecting and tracking objects in images through neural network models are being developed instead of the existing image processing methods. The neural network model used for artificial intelligence can detect objects faster and more accurately in the input image than in general image processing through learning.

인공지능 기술을 신분증 영상에 적용하여 카메라로부터 실시간으로 입력되는 사용자의 안면 영상과 신분증 내의 안면 영상을 상호 비교하여 사용자의 신분을 인증하는 방식들이 실제 금융 서비스 상에서 적용되고 있다.Methods of authenticating the user's identity by applying artificial intelligence technology to the ID card image and comparing the user's facial image inputted from the camera in real time with the facial image in the ID card are being applied in actual financial services.

하지만, 신분증의 경우 오염 방지와 위조 방지를 위해 코팅과 홀로그램 등의 다양한 기술들이 접목되어 있어 빛반사나 그림지, 훼손 등의 다양한 환경적 요소에 따라 인식 성능에 차이를 보이는 문제가 있다.However, in the case of identification cards, various technologies such as coating and hologram are combined to prevent contamination and forgery, so there is a problem that the recognition performance differs according to various environmental factors such as light reflection, picture paper, and damage.

따라서, 현재에는 비대면 방식의 신분 인식을 위해서 직접 사람이 육안으로 동일성을 판단하는 기술과 영상 인식 기반의 동일성 판단 기술을 병행하고 있으며, 따라서 보다 효율적인 인식을 위해서는 환경 요소에 강인한 성능을 보이는 신분 인증 방법이 고안될 필요가 있다.Therefore, nowadays, a technology for directly determining identity with the naked eye and a technology for determining identity based on image recognition are concurrently used to recognize identity in a non-face-to-face manner. Therefore, for more efficient recognition, identity authentication showing strong performance against environmental factors. Methods need to be devised.

본 발명은 환경 요소에 강인한 성능을 갖는 신분 인증 방법을 제안하는 것을 목적으로 한다.An object of the present invention is to propose an identity authentication method having robust performance against environmental factors.

또한, 본 발명은 촬영되는 이미지내 안면 부분의 일부가 인식이 어려운 경우에도 보다 정확한 신분 인증이 가능한 방법을 제안하는 것을 목적으로 한다.In addition, an object of the present invention is to propose a method capable of more accurate identification even when a part of the facial part in a photographed image is difficult to recognize.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 학습된 신경망을 이용한 신분 인증 방법에 있어서, 사용자의 신분증 내 안면 이미지로부터 미리 결정된 기준에 따른 복수의 부분 이미지를 추출하는 단계; 상기 부분 이미지를 상기 기준에 따라 개별적으로 학습된 복수의 신경망에 입력하여 부분 특징 정보를 추출하고 상기 부분 특징 정보를 통합하는 단계; 상기 통합된 통합 특징 정보와 기 저장된 사용자 특징 정보를 비교하여 유사도를 산출하는 단계; 및 상기 유사도에 따라 상기 사용자의 신분 인증을 수행하는 단계를 포함한다.In the identification authentication method using a learned neural network according to the present invention for solving the above technical problem, the method comprising: extracting a plurality of partial images according to a predetermined criterion from a facial image in the user's identification card; Extracting partial feature information by inputting the partial image into a plurality of neural networks individually learned according to the criterion and integrating the partial feature information; Calculating a similarity by comparing the integrated integrated feature information and pre-stored user feature information; And performing identification of the user according to the similarity.

상기 미리 결정된 기준은 안면을 구성하는 특징 요소 중 적어도 일부를 포함하도록 결정된 것이 바람직하다.It is preferable that the predetermined criterion is determined to include at least some of the feature elements constituting the face.

상기 통합하는 단계는 상기 특징 요소의 안면 내 위치 관계에 따라 상기 특징 정보를 조합하여 상기 통합 특징 정보를 생성하는 것이 바람직하다.In the integrating step, it is preferable to generate the integrated feature information by combining the feature information according to the positional relationship of the feature element in the face.

상기 미리 결정된 기준은 상기 특징 요소 중 적어도 일부를 동시에 포함하도록 결정된 것이 바람직하다.It is preferable that the predetermined criterion is determined to simultaneously include at least some of the feature elements.

상기 통합하는 단계는 하나의 특징 요소를 포함하는 부분 이미지에 대하여 생성된 부분 특징 정보와 복수의 특징 요소를 동시에 포함하는 부분 이미지에 대하여 생성된 부분 특정 정보를 공통된 특징 요소를 이용하여 통합하는 것이 바람직하다.In the integrating step, it is preferable to integrate partial feature information generated for a partial image including one feature element and partial specific information generated for a partial image simultaneously including a plurality of feature elements using a common feature element. Do.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 학습된 신경망을 이용한 신분 인증 방법에 있어서, 사용자의 신분증 내 안면 이미지로부터 미리 결정된 기준에 따른 복수의 부분 이미지를 추출하는 단계; 상기 부분 이미지를 상기 기준에 따라 개별적으로 학습된 복수의 신경망에 입력하여 부분 특징 정보를 추출하고 상기 추출된 부분 특징 정보와 기 저장된 사용자 부분 특징 정보를 비교하여 부분 유사도를 산출하는 단계; 상기 산출된 부분 유사도를 이용하여 통합 유사도를 재산출하는 단계; 및 상기 재산출된 통합 유사도를 이용하여 상기 사용자의 신분 인증을 수행하는 단계를 포함한다.In the identification authentication method using a learned neural network according to the present invention for solving the above technical problem, the method comprising: extracting a plurality of partial images according to a predetermined criterion from a facial image in the user's identification card; Extracting partial feature information by inputting the partial image into a plurality of neural networks individually learned according to the criteria, and calculating partial similarity by comparing the extracted partial feature information with pre-stored user partial feature information; Recalculating the integrated similarity by using the calculated partial similarity; And performing identity authentication of the user by using the recalculated integrated similarity.

상기 재산출하는 단계는, 상기 기준 별로 결정된 가중치에 따라 상기 유사도를 가중합하여 통합 유사도를 재산출하는 것이 바람직하다.In the recalculating step, it is preferable to recalculate the integrated similarity by weighting the similarity according to the weight determined for each criterion.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 학습된 신경망을 이용한 신분 인증을 수행하는 신분 인증 서버에 있어서, 사용자의 신분증 내 안면 이미지로부터 미리 결정된 기준에 따른 복수의 부분 이미지를 추출하는 부분 이미지 추출부; 상기 부분 이미지를 상기 기준에 따라 개별적으로 학습된 복수의 신경망에 입력하여 부분 특징 정보를 추출하는 특징 정보 추출부; 상기 부분 특징 정보를 통합하고, 상기 통합된 통합 특징 정보와 기 저장된 사용자 특징 정보를 비교하여 유사도를 산출하는 유사도 산출부; 및 상기 유사도에 따라 상기 사용자의 신분 인증을 수행하는 인증부를 포함한다.In an identity authentication server performing identity authentication using a learned neural network according to the present invention for solving the above technical problem, a partial image extracting unit for extracting a plurality of partial images according to a predetermined criterion from a facial image in a user's identification card ; A feature information extracting unit that extracts partial feature information by inputting the partial image into a plurality of neural networks that are individually learned according to the criteria; A similarity calculation unit for integrating the partial feature information and calculating a similarity by comparing the combined integrated feature information and pre-stored user feature information; And an authentication unit that authenticates the user's identity according to the similarity.

상기 미리 결정된 기준은 안면을 구성하는 특징 요소 중 적어도 일부를 포함하도록 결정된 것이 바람직하다.It is preferable that the predetermined criterion is determined to include at least some of the feature elements constituting the face.

상기 통합하는 단계는 상기 특징 요소의 안면 내 위치 관계에 따라 상기 특징 정보를 조합하여 상기 통합 특징 정보를 생성하는 것이 바람직하다.In the integrating step, it is preferable to generate the integrated feature information by combining the feature information according to the positional relationship of the feature element in the face.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 학습된 신경망을 이용한 신분 인증을 수행하는 신분 인증 서버에 있어서, 사용자의 신분증 내 안면 이미지로부터 미리 결정된 기준에 따른 복수의 부분 이미지를 추출하는 부분 이미지 추출부; 상기 부분 이미지를 상기 기준에 따라 개별적으로 학습된 복수의 신경망에 입력하여 특징 정보를 추출하는 부분 특징 정보 추출부; 상기 추출된 부분 특징 정보와 기 저장된 사용자 부분 특징 정보를 비교하여 부분 유사도를 산출하고, 상기 산출된 부분 유사도를 이용하여 통합 유사도를 재산출하는 유사도 산출부; 및 상기 재산출된 통합 유사도를 이용하여 상기 사용자의 신분 인증을 수행하는 단계를 포함한다.In an identity authentication server performing identity authentication using a learned neural network according to the present invention for solving the above technical problem, a partial image extracting unit for extracting a plurality of partial images according to a predetermined criterion from a facial image in a user's identification card ; A partial feature information extracting unit for extracting feature information by inputting the partial image into a plurality of neural networks individually learned according to the criteria; A similarity calculation unit for calculating a partial similarity by comparing the extracted partial characteristic information and pre-stored user partial characteristic information, and recalculating an integrated similarity using the calculated partial similarity; And performing identity authentication of the user by using the recalculated integrated similarity.

상기 유사도 산출부는, 상기 기준 별로 결정된 가중치에 따라 상기 유사도를 가중합하여 통합 유사도를 재산출하는 것이 바람직하다.It is preferable that the similarity calculation unit weights the similarity according to a weight determined for each criterion to recalculate the integrated similarity.

본 발명에 따르면 비대면 상황에서 신분 인증의 효율을 보다 높일 수 있다.According to the present invention, the efficiency of identity authentication can be further improved in a non-face-to-face situation.

또한, 신분증의 훼손이나 주변 환경에 따라서 안면의 일부가 인식이 불가능하더라도 신분 인식이 가능하도록 하여 사용자의 사용 편의성을 높일 수 있다.In addition, even if a part of the face cannot be recognized depending on the damage of the ID card or the surrounding environment, it is possible to increase the user's convenience by enabling identification to be recognized.

또한, 다양한 안면의 구성 요소에 따라 신분 인증을 수행하여 위조 상황을 보다 정확히 판단하고, 신분 도용에 따른 문제 발생 가능성을 낮출 수 있다.In addition, it is possible to more accurately determine a forgery situation by performing identity authentication according to various facial components, and to reduce the possibility of occurrence of a problem due to identity theft.

도 1은 본 발명의 일 실시예에 따른 신분 인증 시스템을 나타내는 도이다.
도 2는 본 발명의 일 실시예에 따른 신분 인증 방법을 나타내는 도이다.
도 3은 본 발명의 일 실시예에 따른 신분 인증 방법의 구체적인 동작을 나타내는 도이다.
도 4 내지 5는 본 발명의 일 실시예에 따른 신분 인증 방법의 특징 정보를 나타내는 도이다.
도 6은 본 발명의 다른 일 실시예에 따른 신분 인증 방법을 나타내는 도이다.
도 7은 본 발명의 다른 실시예에 따른 신분 인증 방법의 구체적인 동작을 나타내는 도이다.
도 8은 본 발명의 일 실시예에 따른 신분 인증 방법을 수행하는 인증 서버의 구성을 나타내는 도이다.
1 is a diagram showing an identity authentication system according to an embodiment of the present invention.
2 is a diagram showing an identity authentication method according to an embodiment of the present invention.
3 is a diagram showing a specific operation of an identity authentication method according to an embodiment of the present invention.
4 to 5 are diagrams showing characteristic information of an identity authentication method according to an embodiment of the present invention.
6 is a diagram showing an identity authentication method according to another embodiment of the present invention.
7 is a diagram illustrating a specific operation of an identity authentication method according to another embodiment of the present invention.
8 is a diagram showing the configuration of an authentication server that performs an identity authentication method according to an embodiment of the present invention.

이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이외같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following content merely illustrates the principle of the invention. Therefore, although those skilled in the art can implement the principles of the invention and invent various devices included in the concept and scope of the invention, although not clearly described or illustrated herein. In addition, it should be understood that all conditional terms and examples listed in the present specification are, in principle, clearly intended only for the purpose of understanding the concept of the invention, and are not limited to the specifically listed embodiments and states. .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-described objects, features, and advantages will become more apparent through the following detailed description in connection with the accompanying drawings, and accordingly, a person of ordinary skill in the technical field to which the invention pertains will be able to easily implement the technical idea of the invention. .

또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, when it is determined that a detailed description of a known technology related to the invention may unnecessarily obscure the subject matter of the invention, a detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 신분 인증 시스템을 나타내는 도이다.1 is a diagram showing an identity authentication system according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 따른 신분 인증 시스템은 사용자 단말(1000)을 이용하여 인증을 수행하는 사용자(10)와, 사용자(10)로부터 입력되는 정보를 이용하여 인증 여부를 판단하는 인증 서버(100)로 구성될 수 있다.Referring to FIG. 1, the identity authentication system according to the present embodiment includes a user 10 performing authentication using a user terminal 1000, and authentication determining whether to authenticate using information input from the user 10. It may be configured as a server 100.

사용자(10)는 인증을 위해 영상 통화를 수행하거나, 자신의 신분증 이미지(25)를 직접 촬영하여 사용자 정보를 인증 서버(100)로 송신할 수 있다.The user 10 may perform a video call for authentication, or may directly photograph his/her ID image 25 and transmit user information to the authentication server 100.

송신된 사용자 정보를 수신한 인증 서버(100)는 수신된 정보와 기 저장된 데이터베이스 내의 정보를 비교하여 동일인 여부를 판단하여 인증을 수행한다.Upon receiving the transmitted user information, the authentication server 100 compares the received information with information in a pre-stored database to determine whether they are the same person and performs authentication.

또는 별도의 인증 기관으로부터 사용자(10)의 신분증 정보를 수신하고, 수신된 신분증 정보와 영상 통화 상의 사용자 안면(30) 또는 사용자(10)가 촬영한 신분증과의 비교를 통해 동일인 여부를 판단하는 것도 가능하다.Alternatively, it is also possible to receive identification information of the user 10 from a separate certification authority, and to determine whether the person is the same by comparing the received identification information with the user's face 30 on a video call or an identification card photographed by the user 10. It is possible.

하지만, 이때 이용되는 신분증의 경우 촬영 환경이나 신분증 자체의 열화에 따른 훼손으로 신분증 내에 인쇄된 사용자(10)의 안면 이미지(20) 자체의 품질이 떨어지는 경우가 발생할 수 있으며, 오인식에 따른 사용자(10)의 불편을 초래할 수 있다.However, in the case of the identification card used at this time, the quality of the face image 20 of the user 10 printed in the identification card itself may be deteriorated due to damage caused by the shooting environment or the identification card itself. ) Can cause inconvenience.

또한, 현재의 인증 방식은 안면 이미지(20)의 전체에 대한 특징 값과 저장된 특징 값들의 비교를 통해 수행하므로 안면 이미지(20) 중 일부 영역에 대한 영향으로 전체 인증에 문제가 발생될 수 있다.In addition, since the current authentication method is performed by comparing the feature values of the entire facial image 20 and the stored feature values, a problem may occur in the entire authentication due to an effect on some areas of the facial image 20.

따라서, 이를 해결하기 위해 본 발명에 따른 신분 인증 시스템은 안면 이미지(20) 전체가 아닌 안면을 복수의 부분 이미지로 분할하고 분할 이미지를 이용하여 동일인 여부를 판단하는 방식을 제안한다.Accordingly, in order to solve this problem, the identity authentication system according to the present invention proposes a method of dividing the face, not the entire face image 20, into a plurality of partial images and determining whether or not the person is the same by using the divided images.

이하, 도 2를 참조하여 본 실시예에 따른 신분 인증 시스템의 인증 방법에 대하여 설명한다.Hereinafter, an authentication method of the identity authentication system according to the present embodiment will be described with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 신분 인증 방법을 나타내는 흐름도이다. 2 is a flowchart illustrating an identity authentication method according to an embodiment of the present invention.

먼저, 신분 인증을 위해 신분증 내 안면 이미지(20)로부터 복수의 부분 이미지 추출한다(S100).First, a plurality of partial images are extracted from the facial image 20 in the identification card for identification (S100).

이때 부분 이미지의 추출은 미리 결정된 기준에 따라 추출될 수 있다.In this case, the partial image may be extracted according to a predetermined criterion.

일예로, 안면 내 특징 요소로서 사람의 눈, 코, 입, 눈썹 등을 포함하는 부분 이미지들을 각각 추출할 수 있다.For example, partial images including human eyes, nose, mouth, and eyebrows may be extracted as feature elements in the face.

또한, 각각의 특징 요소를 중복하여 포함하는 부분 이미지를 추출하는 것도 가능하다. 예를 들어 양쪽 눈을 모두 포함하는 부분 이미지 또는 눈과 눈썹을 모두 포함하는 부분 이미지를 추출할 수 있다. 또는 코의 일부로서 코 끝과 입을 포함하는 부분 이미지를 추출하는 것도 가능하다.In addition, it is also possible to extract a partial image including each feature element overlapping. For example, a partial image including both eyes or a partial image including both eyes and eyebrows may be extracted. Alternatively, it is possible to extract a partial image including the tip of the nose and the mouth as part of the nose.

이상의 기준에 따라 부분 이미지가 추출되면 상기 기준에 따라 개별적으로 학습된 복수의 신경망(30)에 입력하여 부분 특징 정보를 추출하고 상기 기준에 따라 상기 부분 특징 정보를 통합한다(S200).When a partial image is extracted according to the above criteria, the partial feature information is extracted by inputting it into a plurality of neural networks 30 individually learned according to the criteria, and the partial feature information is integrated according to the criteria (S200).

즉, 본 실시예에서 인증에 이용되는 이미지에 대한 특징 정보를 추출하는 신경망(30)은 안면 전체 이미지에 대한 특징 정보가 아닌, 부분 이미지에 대한 각각의 특징 정보를 추출하도록 학습될 수 있다.That is, in the present embodiment, the neural network 30 for extracting feature information for an image used for authentication may be trained to extract feature information for each partial image, not feature information for the entire face image.

따라서, 안면 인증에 단일 신경망이 아닌 복수의 신경망(30)을 이용하며, 신경망(30)을 통해 각 부분 이미지에 대한 특징 정보를 추출할 수 있다.Accordingly, a plurality of neural networks 30 are used instead of a single neural network for facial authentication, and feature information for each partial image may be extracted through the neural network 30.

이하, 도 3을 참조하여 보다 상세히 설명한다.Hereinafter, it will be described in more detail with reference to FIG. 3.

도 3을 참조하면, 안면 이미지(20)는 상술한 바와 같이 소정의 기준에 따라 복수의 부분 이미지(20-n)로 분할될 수 있다. Referring to FIG. 3, the facial image 20 may be divided into a plurality of partial images 20-n according to a predetermined criterion as described above.

또한 각 부분 이미지(20-n)에 대해 학습된 신경망(30)들은 부분 이미지(20-n)에 포함된 특징 요소들에 대한 값들을 강화하도록 학습될 수 있으며, 이를 위해 신경망(30)은 복수의 합성곱 연산을 수행하는 레이어로 구성된 CNN(Convolution Neural Network) 모델일 수 있다.In addition, the neural networks 30 learned for each partial image 20-n may be trained to reinforce values for the feature elements included in the partial image 20-n, and for this purpose, the neural network 30 It may be a convolution neural network (CNN) model composed of a layer that performs a convolution operation of.

따라서, 부분 이미지(20-n)들이 입력된 신경망(30) 내부의 레이어들은 이미지 내에 포함된 특징 요소의 형상이나 색상에 따른 특징 값들을 강조하도록 합성곱 연산을 수행한다.Accordingly, the layers inside the neural network 30 into which the partial images 20-n are input perform a convolution operation to emphasize feature values according to the shape or color of the feature element included in the image.

최종 출력으로 결정된 차원 수의 특징 정보가 각각의 부분 이미지에 대하여 출력될 수 있다.Feature information of the number of dimensions determined as final output may be output for each partial image.

다음 출력된 부분 이미지들에 대한 특징 정보들은 통합 네트워크(Integration Network) (40)를 통해 하나의 통합 특징 정보(42)로 조합될 수 있다.Feature information for the next output partial images may be combined into one integrated feature information 42 through an integration network 40.

즉, 복수의 부분 이미지 각각에 대해 신경망(30)에 따른 연산이 수행되어 복수의 특징 정보들이 생성되면, 인증을 위해 특징 정보를 통합한다. 이때 특징 정보의 통합에는 부분 이미지의 추출에 기준이 된 안면 특징 요소들의 위치 관계가 이용될 수 있다.That is, when an operation according to the neural network 30 is performed on each of a plurality of partial images to generate a plurality of feature information, the feature information is integrated for authentication. In this case, for the integration of the feature information, a positional relationship between facial feature elements, which is a reference for extracting a partial image, may be used.

도 4를 참조하면, 예를 들어 통합 특징 정보(42)가 2차원의 행렬 형태로 결정되어 있다면 각 2차원의 부분 특징 정보들에 포함된 특징 요소들의 해부학적 기준에 따라 결정된 위치에 매핑되도록 특징 정보들을 통합할 수 있다.Referring to FIG. 4, for example, if the integrated feature information 42 is determined in a two-dimensional matrix form, the feature is mapped to a position determined according to an anatomical standard of feature elements included in each two-dimensional partial feature information. Information can be integrated.

즉, 각각의 추출된 특징 정보는 독립된 부분 이미지로부터 생성되나, 부분 이미지에 포함된 특징 요소들은 예를 들어 눈 및 눈썹과 같이 서로 물리적인 위치간에 결정된 관계가 있다. 따라서 눈에 대한 부분 이미지로부터 생성된 특징 정보는 눈썹에 대해 생성된 특징 정보에 비해 상대적으로 통합된 통합 특징 정보(42) 상에서는 아래에 위치하도록 매핑될 수 있다.That is, each of the extracted feature information is generated from an independent partial image, but the feature elements included in the partial image have a determined relationship between their physical positions, such as, for example, eyes and eyebrows. Accordingly, the feature information generated from the partial image of the eye may be mapped to be positioned below the integrated feature information 42 that is relatively integrated compared to the feature information generated for the eyebrow.

즉, 본 실시예에서는 부분 이미지의 추출에 기준이 되는 안면의 특징 요소들 간의 상대적인 위치 관계를 이용하여 부분 이미지에 대한 특징 정보들을 통합한다.That is, in the present embodiment, feature information on a partial image is integrated using a relative positional relationship between facial feature elements that are a reference for extracting a partial image.

따라서 좌안에 대한 특징 정보를 통합 특징 정보(4a) 내 좌측 상단 위치에 매핑하고, 코와 입에 대한 특징 정보(4b, 4c)는 서로 상하의 위치에서 매핑되도록 통합할 수 있다. Accordingly, the feature information for the left eye may be mapped to the upper left position in the integrated feature information 4a, and the feature information 4b and 4c for the nose and mouth may be integrated so that they are mapped at the upper and lower positions of each other.

또한, 본 실시예에서 부분 이미지 정보는 특징 요소를 중복하여 포함할 수도 있으므로 생성된 특징 정보 내의 값들을 통합 시 기준으로 활용하는 것도 가능하다.In addition, in the present embodiment, since partial image information may include feature elements in duplicate, it is possible to use values in the generated feature information as a reference when integrating.

예를 들어, 코끝과 입을 동시에 포함하는 부분 이미지에 대한 특징 정보를 이용하여 코 전체에 대한 특징 정보 중 공통되는 코 끝에 대해서 서로 동일하거나 유사한 특징 값을 갖도록 특징 정보를 통합하는 것도 가능하다.For example, it is possible to integrate the feature information so as to have the same or similar feature values for the common tip of the nose among the feature information for the entire nose by using feature information on a partial image including the tip of the nose and the mouth at the same time.

또는 도 5를 참조하면, 통합 네트워크가 각각의 부분 특징 정보들을 완전 연결 네트워크와 같이 1차원의 행렬로 매핑되도록 하는 것도 가능하다. 따라서 부분 특징 정보에 포함된 값들은 평탄화(5a, 5b, 5c )되어 1차원의 행렬로 통합할 수 있다.Alternatively, referring to FIG. 5, it is possible for the integrated network to map each partial feature information into a one-dimensional matrix like a fully connected network. Accordingly, values included in the partial feature information can be flattened (5a, 5b, 5c) to be integrated into a one-dimensional matrix.

이상의 통합된 통합 특징 정보(42)와 기 저장된 사용자 특징 정보를 비교하여 유사도를 산출한다.The degree of similarity is calculated by comparing the integrated integrated feature information 42 and previously stored user feature information.

비교 대상인 사용자 특징 정보는 지난 인증에 사용된 사용자(10)의 안면 이미지(20)로부터 추출된 특징 정보로 전체 안면 이미지(20)에 대해 신경망(30)을 통해 생성된 값일 수 있다.The user feature information to be compared is feature information extracted from the face image 20 of the user 10 used for the last authentication, and may be a value generated through the neural network 30 for the entire face image 20.

이때 통합 특징 정보(42)와 사용자 특징 정보는 서로 동일한 차원으로 구성되어 상호 유사도를 판단할 수 있다.At this time, the integrated feature information 42 and the user feature information are configured in the same dimension, so that the degree of similarity can be determined.

예를 들어 각각의 특징 정보가 n차원의 벡터로 나타난다면, 통합 특징 정보(42)에 대한 벡터 A와 벡터 B에 대한 유사도는 코사인 유사도(수학식 1)로 결정될 수 있다.For example, if each feature information appears as an n-dimensional vector, the similarity to the vector A and the vector B for the integrated feature information 42 may be determined as a cosine similarity (Equation 1).

[수학식 1][Equation 1]

Figure 112020056578344-pat00001
Figure 112020056578344-pat00001

또는 각 특징 정보 간의 거리나, 특징 정보 내 값들의 차이를 이용하여 유사도를 판단하는 것도 가능하다.Alternatively, the degree of similarity may be determined using a distance between each feature information or a difference between values in the feature information.

이상의 과정을 통해 유사도가 산출되면, 유사도에 따라 상기 사용자(10)의 신분 인증을 수행한다.When the similarity is calculated through the above process, the identity of the user 10 is authenticated according to the similarity.

신분 인증은 유사도와 미리 결정된 임계값의 비교로 수행될 수 있다. 임계값은 동일인으로 판단되는 값으로, 예를 들어 0~1 사이의 확률 값으로 결정될 수 있으며 예를 들어, 0.5가 임계값인 경우 산출된 유사도가 0.5 이상인 경우 동일인으로 인증을 허용하도록 할 수 있다.Identity authentication may be performed by comparing similarity and a predetermined threshold. The threshold value is a value determined to be the same person, for example, can be determined as a probability value between 0 and 1, for example, when 0.5 is the threshold value, if the calculated similarity is 0.5 or more, authentication as the same person can be allowed. .

이상의 임계값은 신분 인증 시스템 내부적으로 결정될 수 있으며, 인증에 이용되는 환경적 요소로 신분증 촬영 장소, 신분증 촬영에 이용되는 사용자 단말(1000)의 기종, 이미지의 해상도 등의 정보를 이용하여 가변적으로 결정되는 것도 가능하다.The above threshold can be determined internally by the identity authentication system, and is variably determined by using information such as the location where the ID card is photographed, the model of the user terminal 1000 used for the ID card shooting, and the resolution of the image as an environmental factor used for authentication. It is also possible to become.

본 실시예에 따르면 각각의 부분 이미지를 기초로 생성된 부분 특징 정보를 이용하여 인증을 수행하므로 신분증의 상태나 촬영 환경에 따라 일부의 특징 요소들이 가려지거나 훼손되더라도, 다른 부분 이미지의 유사도에 따라 전체 유사도가 조절되어 동일인을 보다 잘 판단할 수 있다.According to this embodiment, authentication is performed using partial feature information generated based on each partial image, so even if some of the feature elements are hidden or damaged depending on the state of the ID or the shooting environment, the entire The degree of similarity is adjusted so that the same person can be better judged.

이하, 본 발명의 다른 실시예에 따른 신분 인증 방법에 대하여 설명한다.Hereinafter, an identity authentication method according to another embodiment of the present invention will be described.

제2 실시예에 따른 신분 인증 방법으로, 본 실시예에 따른 신분 인증 시스템은 특징 정보를 통합하는 대신 부분 특징 정보와 사용자(10) 부분 특징 정보를 비교하여 유사도를 산출하여 인증에 직접 이용하는 것도 가능하다.As the identity authentication method according to the second embodiment, the identity authentication system according to the present embodiment compares partial feature information with partial feature information of the user 10, instead of integrating feature information, and calculates a similarity and directly used for authentication. Do.

도 6을 참조하면, 상술한 실시예와 동일하게 신분 인증을 위해 신분증 내 안면 이미지(20)로부터 복수의 부분 이미지 추출한다(S110). 이때 부분 이미지의 추출은 미리 결정된 기준에 따라 추출될 수 있다.6, in the same manner as in the above-described embodiment, a plurality of partial images are extracted from the facial image 20 in the identification card for identification (S110). In this case, the partial image may be extracted according to a predetermined criterion.

다음, 복수의 신경망(30)을 이용하여 부분 특징 정보를 추출한다(S210).Next, partial feature information is extracted using a plurality of neural networks 30 (S210).

도 7을 참조하면 각 부분 이미지에 대해 학습된 신경망(30)들은 부분 이미지에 포함된 특징 요소들의 특징 값들을 강화하도록 합성곱 연산을 CNN(Convolution Neural Network) 모델 형태로 구성될 수 있다.Referring to FIG. 7, the neural networks 30 trained for each partial image may be configured to perform a convolution operation in the form of a Convolution Neural Network (CNN) model to reinforce feature values of feature elements included in the partial image.

따라서, 부분 이미지들이 입력된 신경망(30) 내부의 레이어들은 이미지 내에 포함된 특징 요소의 형상이나 색상에 따른 특징들을 강조하도록 합성곱 연산을 수행하고, 최종 출력으로 결정된 특징 정보가 각각의 부분 이미지에 대하여 출력될 수 있다.Therefore, the layers inside the neural network 30 to which the partial images are input perform a convolution operation to emphasize features according to the shape or color of the feature element included in the image, and feature information determined as the final output is applied to each partial image. Can be output.

다만, 제2 실시예에서는 각 특징 정보를 하나의 통합 특징 정보(42)로 매핑하는 대신, 부분 특징 정보와 데이터베이스 상에 저장된 사용자 부분 특징 정보와 비교하여 유사도를 산출하도록 구현될 수 있다.However, in the second embodiment, instead of mapping each feature information to one integrated feature information 42, it may be implemented to calculate the similarity by comparing the partial feature information with the user partial feature information stored in the database.

즉, 부분 이미지를 구분하는 기준에 따라 개별적으로 학습된 복수의 신경망(30)에 입력하여 부분 특징 정보를 추출하고 추출된 부분 특징 정보와 기 저장된 사용자 부분 특징 정보를 비교하여 부분 유사도를 산출한다(S310).That is, partial feature information is extracted by inputting to a plurality of neural networks 30 individually learned according to the criteria for classifying partial images, and partial similarity is calculated by comparing the extracted partial feature information with pre-stored user partial feature information ( S310).

부분 유사도는 상술한 바와 같이 특징 정보 내의 벡터 간의 코사인 유사도나 거리 등을 이용하여 산출될 수 있다.As described above, the partial similarity may be calculated using a cosine similarity or distance between vectors in the feature information.

부분 유사도가 산출되면, 산출된 부분 유사도를 이용하여 통합 유사도를 재산출한다(S410). 통합 유사도(72)는 일반적인 부분 유사도의 합이나 평균으로 산출되거나 또는 부분 이미지의 추출 기준 별로 결정된 가중치에 따라 상기 유사도를 가중합하여 산출될 수 있다.When the partial similarity is calculated, the integrated similarity is recalculated using the calculated partial similarity (S410). The integrated similarity 72 may be calculated as a sum or average of general partial similarities, or may be calculated by weighting the similarity according to a weight determined for each extraction criterion for partial images.

예를 들어, 부분 이미지 중 복수의 특징 요소를 동시에 포함하고 있는 부분 이미지에 대한 특징 정보들 간의 유사도는 눈썹에 대한 단일 부분 이미지에 대한 유사도에 비해 높은 가중치를 갖도록 결정될 수 있다.For example, a similarity between feature information for a partial image including a plurality of feature elements simultaneously among the partial images may be determined to have a higher weight than a similarity for a single partial image with respect to an eyebrow.

이상 결정된 가중치에 따라 통합 유사도(72)가 재 산출되면 통합 유사도(72)를 이용하여 신분 인증을 수행한다(S510).When the integrated similarity 72 is recalculated according to the determined weight, identity authentication is performed using the integrated similarity 72 (S510).

즉, 통합 유사도(72)를 미리 결정된 임게값과 비교하여 임계값 이상인 경우에는 동일인으로 판단하고 인증을 허용할 수 있다.That is, the integrated similarity 72 is compared with a predetermined threshold value, and if it is greater than or equal to the threshold value, it is determined as the same person and authentication is allowed.

이하 도 8을 참조하여, 본 실시예에 따른 신분 인증 방법을 수행하는 신분 인증 서버(100)의 구성에 대하여 설명한다.Hereinafter, a configuration of the identity authentication server 100 that performs the identity authentication method according to the present embodiment will be described with reference to FIG. 8.

신분 인증 서버(100)는 부분 이미지 추출부(110), 특징 정보 추출부(120), 유사도 산출부(130) 및 인증부(140)를 포함한다.The identity authentication server 100 includes a partial image extracting unit 110, a feature information extracting unit 120, a similarity calculating unit 130, and an authentication unit 140.

부분 이미지 추출부(110)는 사용자(10)의 신분증 내 안면 이미지(20)로부터 미리 결정된 기준에 따른 복수의 부분 이미지를 추출한다.The partial image extracting unit 110 extracts a plurality of partial images according to a predetermined criterion from the facial image 20 in the identification card of the user 10.

미리 결정된 기준은 안면 내 동일인 판단에 영향을 미치는 특징 요소들로 눈, 코, 입 등을 포함하는 부분 이미지들을 추출하도록 결정될 수 있다.The predetermined criterion may be determined to extract partial images including an eye, a nose, a mouth, etc. as feature elements that influence the determination of the same person in the face.

특징 정보 추출부(120)는 추출된 부분 이미지를 상기 기준에 따라 개별적으로 학습된 복수의 신경망(30)에 입력하여 부분 특징 정보를 추출한다. 또한, 도시하지 않았으나 특징 정보 추출부(120)는 복수의 부분 이미지에 대하여 특징 정보를 출력하도록 학습된 신경망(30)을 포함할 수 있다.The feature information extraction unit 120 extracts partial feature information by inputting the extracted partial image into a plurality of neural networks 30 that are individually learned according to the criteria. Also, although not shown, the feature information extraction unit 120 may include a neural network 30 that has been trained to output feature information for a plurality of partial images.

신경망(30)은 각각의 부분 이미지들에 포함된 특징 요소 별로 미리 학습되며, 특징 요소의 형상이나 색상을 강조하도록 학습될 수 있다.The neural network 30 is pre-trained for each feature element included in each of the partial images, and may be learned to emphasize the shape or color of the feature element.

따라서, 안면 이미지(20)에 대하여 추출된 각각의 부분 이미지에 대한 부분 특징 정보가 생성된다.Accordingly, partial feature information for each partial image extracted with respect to the facial image 20 is generated.

다음, 유사도 산출부(130)는 상기 기준에 따라 상기 부분 특징 정보를 통합하고, 상기 통합된 통합 특징 정보(42)와 기 저장된 사용자 특징 정보를 비교하여 유사도를 산출한다. 유사도 산출부는 인증을 위한 기준 정보로서 각 사용자(10)들의 특징 정보를 미리 저장하고 관리하는 사용자 특징 정보 데이터베이스(132)를 포함할 수 있다.Next, the similarity calculation unit 130 integrates the partial feature information according to the criterion, and calculates the similarity by comparing the integrated feature information 42 with pre-stored user feature information. The similarity calculation unit may include a user characteristic information database 132 that stores and manages characteristic information of each user 10 as reference information for authentication in advance.

유사도는 통합 특징 정보(42)와 사용자 특징 정보 데이터베이스(132)에 저장된 사용자 특징 정보간의 비교로 결정될 수 있다.The degree of similarity may be determined by comparison between the integrated feature information 42 and the user feature information stored in the user feature information database 132.

인증부(140)는 결정된 유사도에 따라 상기 사용자(10)의 신분 인증을 수행하고, 인증된 결과는 다시 사용자 단말(1000)로 제공되어 사용자(10)는 비대면 인증의 결과에 따른 서비스를 지속적으로 이용할 수 있도록 한다.The authentication unit 140 performs identity authentication of the user 10 according to the determined similarity, and the authentication result is provided to the user terminal 1000 again, so that the user 10 continues to provide services according to the result of non-face-to-face authentication. To be used

또한, 신분 인증 서버는 제2 실시예에 따른 인증 방법을 수행하는 것도 가능하다.In addition, the identity authentication server may perform the authentication method according to the second embodiment.

따라서, 유사도 산출부(130)는 특징 정보 추출부(120)에서 추출된 부분 특징 정보와 사용자 특징 정보 데이터베이스(132)에 저장된 사용자 부분 특징 정보를 비교하여 부분 유사도를 산출할 수 있다.Accordingly, the similarity calculation unit 130 may calculate the partial similarity by comparing the partial feature information extracted from the feature information extraction unit 120 with the user partial feature information stored in the user feature information database 132.

또한 유사도 산출부(130)는 산출된 부분 유사도를 이용하여 통합 유사도를 재산출하며, 부분 유사도를 가중합하는 방식으로 통합 유사도를 산출할 수 있다.Also, the similarity calculation unit 130 may calculate the integrated similarity by recalculating the integrated similarity using the calculated partial similarity and weighting the partial similarity.

인증부(140)는 이상의 과정으로 재산출된 통합 유사도를 이용하여 최종적으로 동일인 여부를 판단하고, 판단 결과를 사용자 단말(1000)로 송신한다.The authentication unit 140 finally determines whether the person is the same person using the integrated similarity recalculated through the above process, and transmits the determination result to the user terminal 1000.

이상의 본 발명에 따르면 비대면 상황에서 신분 인증의 효율을 보다 높일 수 있다.According to the present invention, it is possible to further increase the efficiency of identity authentication in a non-face-to-face situation.

또한, 신분증의 훼손이나 주변 환경에 따라서 안면의 일부가 인식이 불가능하더라도 신분 인식이 가능하도록 하여 사용자의 사용 편의성을 높일 수 있다.In addition, even if a part of the face cannot be recognized depending on the damage of the ID card or the surrounding environment, it is possible to increase the user's convenience by enabling the identification to be recognized.

또한, 다양한 안면의 구성 요소에 따라 신분 인증을 수행하여 위조 상황을 보다 정확히 판단하고, 신분 도용에 따른 문제 발생 가능성을 낮출 수 있다.In addition, it is possible to more accurately determine a forgery situation by performing identity authentication according to various facial components, and to reduce the possibility of occurrence of a problem due to identity theft.

나아가, 여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Furthermore, various embodiments described herein may be implemented in a recording medium that can be read by a computer or a similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어 모듈 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions, in some cases herein. The described embodiments may be implemented by the control module itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 씌여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리 모듈에 저장되고, 제어모듈에 의해 실행될 수 있다.According to the software implementation, embodiments such as procedures and functions described in the present specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code can be implemented as a software application written in an appropriate programming language. The software code may be stored in a memory module and executed by a control module.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the technical field to which the present invention belongs can make various modifications, changes, and substitutions within the scope not departing from the essential characteristics of the present invention. will be.

따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but are for description, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings. . The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (14)

학습된 신경망을 이용한 신분 인증 방법에 있어서,
사용자의 신분증 내 안면 이미지로부터 미리 결정된 기준에 따른 복수의 부분 이미지를 추출하는 단계;
상기 부분 이미지를 상기 기준에 따라 개별적으로 학습된 복수의 신경망에 입력하여 부분 특징 정보를 추출하고 상기 부분 특징 정보를 통합하는 단계;
상기 통합된 통합 특징 정보와 기 저장된 사용자 특징 정보를 비교하여 유사도를 산출하는 단계; 및
상기 유사도에 따라 상기 사용자의 신분 인증을 수행하는 단계를 포함하고,
상기 신경망은 추출된 부분 특징 정보를 통합하는 통합 네트워크를 더 포함하고,
상기 통합하는 단계는 상기 통합 네트워크를 통해 상기 부분 이미지의 추출에 기준이 된 안면 특징 요소들의 위치 관계를 이용하여 결정된 위치에 상기 부분 특징 정보를 매핑 시킴으로써 통합하는 것을 특징으로 하는 신분 인증 방법.
In the identity authentication method using a learned neural network,
Extracting a plurality of partial images according to a predetermined criterion from the facial image in the user's ID card;
Extracting partial feature information by inputting the partial image into a plurality of neural networks individually learned according to the criteria, and integrating the partial feature information;
Calculating a similarity by comparing the integrated integrated feature information and pre-stored user feature information; And
Including the step of performing the identity authentication of the user according to the similarity,
The neural network further includes an integrated network integrating the extracted partial feature information,
The integrating step is characterized in that the integration by mapping the partial feature information to a location determined by using a positional relationship of facial feature elements as a reference for extracting the partial image through the integrated network.
제 1 항에 있어서,
상기 미리 결정된 기준은 안면을 구성하는 특징 요소 중 적어도 일부를 포함하도록 결정된 것을 특징으로 하는 신분 인증 방법
The method of claim 1,
The predetermined criterion is an identity authentication method, characterized in that it is determined to include at least some of the feature elements constituting the face
삭제delete 제 2 항에 있어서,
상기 미리 결정된 기준은 상기 특징 요소 중 적어도 일부를 동시에 포함하도록 결정된 것을 특징으로 하는 신분 인증 방법.
The method of claim 2,
And the predetermined criterion is determined to simultaneously include at least some of the characteristic elements.
제 4 항에 있어서,
상기 통합하는 단계는 하나의 특징 요소를 포함하는 부분 이미지에 대하여 생성된 부분 특징 정보와 복수의 특징 요소를 동시에 포함하는 부분 이미지에 대하여 생성된 부분 특정 정보를 공통된 특징 요소를 이용하여 통합하는 것을 특징으로 하는 신분 인증 방법.
The method of claim 4,
In the integrating step, partial feature information generated for a partial image including one feature element and partial specific information generated for a partial image simultaneously including a plurality of feature elements are combined using a common feature element. Identity verification method.
삭제delete 삭제delete 학습된 신경망을 이용한 신분 인증을 수행하는 신분 인증 서버에 있어서,
사용자의 신분증 내 안면 이미지로부터 미리 결정된 기준에 따른 복수의 부분 이미지를 추출하는 부분 이미지 추출부;
상기 부분 이미지를 상기 기준에 따라 개별적으로 학습된 복수의 신경망에 입력하여 부분 특징 정보를 추출하고, 상기 부분 특징 정보를 통합하는 특징 정보 추출부;
상기 통합된 통합 특징 정보와 기 저장된 사용자 특징 정보를 비교하여 유사도를 산출하는 유사도 산출부; 및
상기 유사도에 따라 상기 사용자의 신분 인증을 수행하는 인증부를 포함하고,
상기 신경망은 추출된 부분 특징 정보를 통합하는 통합 네트워크를 더 포함하고,
상기 특징 정보 추출부는 상기 통합 네트워크를 통해 상기 부분 이미지의 추출에 기준이 된 안면 특징 요소들의 위치 관계를 이용하여 결정된 위치에 상기 부분 특징 정보를 매핑 시킴으로써 통합하는 것을 특징으로 하는 것을 특징으로 하는 신분 인증 서버.
In an identity authentication server that performs identity authentication using a learned neural network,
A partial image extraction unit for extracting a plurality of partial images according to a predetermined criterion from the facial image in the user's ID card;
A feature information extracting unit for extracting partial feature information by inputting the partial image into a plurality of neural networks individually learned according to the criteria, and integrating the partial feature information;
A similarity calculation unit for calculating a similarity by comparing the integrated integrated characteristic information and pre-stored user characteristic information; And
Including an authentication unit that performs identification of the user according to the similarity,
The neural network further includes an integrated network integrating the extracted partial feature information,
The feature information extracting unit integrates the partial feature information by mapping the partial feature information to a location determined using the positional relationship of facial feature elements as a reference for extracting the partial image through the integrated network. server.
제 8 항에 있어서,
상기 미리 결정된 기준은 안면을 구성하는 특징 요소 중 적어도 일부를 포함하도록 결정된 것을 특징으로 하는 신분 인증 서버.
The method of claim 8,
The identity authentication server, characterized in that the predetermined criterion is determined to include at least some of the feature elements constituting the face.
삭제delete 삭제delete 삭제delete 제 1 항, 제 2 항, 제 4 항, 제 5 항 중 어느 한 항에 따른 신분 인증 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium storing a program for performing the identity authentication method according to any one of claims 1, 2, 4, and 5. 제 1 항, 제 2 항, 제 4 항, 제 5 항 중 어느 한 항에 따른 신분 인증 방법을 수행하는 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램.A program stored in a computer-readable recording medium for performing the identification authentication method according to any one of claims 1, 2, 4, and 5.
KR1020200066327A 2020-06-02 2020-06-02 Partial face image based identity authentication method using neural network and system for the method KR102215535B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200066327A KR102215535B1 (en) 2020-06-02 2020-06-02 Partial face image based identity authentication method using neural network and system for the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200066327A KR102215535B1 (en) 2020-06-02 2020-06-02 Partial face image based identity authentication method using neural network and system for the method

Publications (1)

Publication Number Publication Date
KR102215535B1 true KR102215535B1 (en) 2021-02-10

Family

ID=74561084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200066327A KR102215535B1 (en) 2020-06-02 2020-06-02 Partial face image based identity authentication method using neural network and system for the method

Country Status (1)

Country Link
KR (1) KR102215535B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410588B1 (en) * 2021-09-15 2022-06-22 주식회사 풀스택 Device and method for detecting counterfeit indentification card
CN116959075A (en) * 2023-08-01 2023-10-27 湖北省电子信息产品质量监督检验院 Deep learning-based iterative optimization method for identity recognition robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170052328A (en) * 2015-11-04 2017-05-12 에스케이플래닛 주식회사 System and method for confirming real name in non-face using mobile terminal
KR20190016733A (en) * 2017-08-09 2019-02-19 한국과학기술연구원 Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170052328A (en) * 2015-11-04 2017-05-12 에스케이플래닛 주식회사 System and method for confirming real name in non-face using mobile terminal
KR20190016733A (en) * 2017-08-09 2019-02-19 한국과학기술연구원 Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410588B1 (en) * 2021-09-15 2022-06-22 주식회사 풀스택 Device and method for detecting counterfeit indentification card
CN116959075A (en) * 2023-08-01 2023-10-27 湖北省电子信息产品质量监督检验院 Deep learning-based iterative optimization method for identity recognition robot
CN116959075B (en) * 2023-08-01 2024-02-06 湖北省电子信息产品质量监督检验院 Deep learning-based iterative optimization method for identity recognition robot

Similar Documents

Publication Publication Date Title
US11288504B2 (en) Iris liveness detection for mobile devices
US20210287026A1 (en) Method and apparatus with liveness verification
BR112017016942B1 (en) SYSTEMS AND METHODS FOR PERFORMING USER AUTHENTICATION BASED ON FINGERPRINTS WITH THE USE OF IMAGE COLLECTIONS CAPTURED USING MOBILE DEVICES
US10922399B2 (en) Authentication verification using soft biometric traits
US11651624B2 (en) Iris authentication device, iris authentication method, and recording medium
KR20210062381A (en) Liveness test method and liveness test apparatus, biometrics authentication method and biometrics authentication apparatus
US11756338B2 (en) Authentication device, authentication method, and recording medium
US11704937B2 (en) Iris authentication device, iris authentication method and recording medium
KR102215535B1 (en) Partial face image based identity authentication method using neural network and system for the method
KR102197334B1 (en) Method for verifying Identification card using neural network and server for the method
KR102213445B1 (en) Identity authentication method using neural network and system for the method
KR102210959B1 (en) Method for quality evaluation of Identification Card and server for the method
KR102240495B1 (en) Method for managing abusing user about identification and authentication, and server for the method
KR102570071B1 (en) Liveness test method and liveness test apparatus, biometrics authentication method and face authentication apparatus
KR101718244B1 (en) Apparatus and method of processing wide angle image for recognizing face
JP7302680B2 (en) Information processing device, method and program
Fartukov et al. Approaches and Methods to Iris Recognition for Mobile
Dixit et al. SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People)
Choudhury Biometrics security based on face recognition
Ghosal et al. A THOROUGH SURVEY ON SECURITY ISSUES OF IRIS BIOMETRICS AND OPEN RESEARCH CHALLENGES

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant