KR102640356B1 - Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data - Google Patents

Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data Download PDF

Info

Publication number
KR102640356B1
KR102640356B1 KR1020230020858A KR20230020858A KR102640356B1 KR 102640356 B1 KR102640356 B1 KR 102640356B1 KR 1020230020858 A KR1020230020858 A KR 1020230020858A KR 20230020858 A KR20230020858 A KR 20230020858A KR 102640356 B1 KR102640356 B1 KR 102640356B1
Authority
KR
South Korea
Prior art keywords
facial
server
user
face
card
Prior art date
Application number
KR1020230020858A
Other languages
Korean (ko)
Inventor
자비어미라미로
Original Assignee
페이스피에이팍 유한회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 페이스피에이팍 유한회사 filed Critical 페이스피에이팍 유한회사
Priority to KR1020230020858A priority Critical patent/KR102640356B1/en
Application granted granted Critical
Publication of KR102640356B1 publication Critical patent/KR102640356B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/33User authentication using certificates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

본 발명은 상기 전자 장치가, 신분증을 촬영하여 생성된 신분증 이미지 내의 신분증 안면 이미지로부터 제1 안면 템플릿 데이터를 생성하는 단계; 상기 전자 장치가, 사용자를 촬영하여 생성된 사용자 이미지 내의 사용자 안면 이미지로부터 제2 안면 템플릿 데이터를 생성하는 단계; 상기 서버가, 두 안면 이미지 각각이 나타내는 안면 간에 안면 일치 값을 결정하도록 훈련된 제1 인공지능 모델에 상기 제1 안면 템플릿 데이터 및 상기 제2 안면 템플릿 데이터를 입력하여, 상기 신분증 안면 이미지가 나타내는 안면 및 상기 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계; 상기 서버가, 안면 이미지의 안면 라이브니스 값을 결정하도록 훈련된 제2 인공지능 모델에 상기 제2 안면 템플릿 데이터를 입력하여, 상기 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계; 및 상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값에 기초하여 상기 신분증의 신원이 상기 사용자인지를 판단하는 사용자 본인 인증을 수행하는 단계;를 포함할 수 있다.The present invention includes the steps of generating, by the electronic device, first facial template data from a facial image of an identification card in an identification card image generated by photographing an identification card; generating, by the electronic device, second facial template data from a user facial image in a user image generated by photographing the user; The server inputs the first facial template data and the second facial template data into a first artificial intelligence model trained to determine a facial match value between the faces represented by each of the two facial images, so that the face represented by the ID card facial image and obtaining a facial match value between faces represented by the user's facial image; obtaining, by the server, the facial liveness value of the user's facial image by inputting the second facial template data to a second artificial intelligence model trained to determine the facial liveness value of the facial image; and performing, by the server, user authentication to determine whether the identity of the identification card is the user based on the facial match value and the facial liveness value.

Description

안면 템플릿 데이터로 학습된 인공지능 모델을 이용한 비대면 본인 인증 시스템의 제어 방법 { CONTROL METHOD OF SYSTEM FOR NON-FACE-TO-FACE IDENTIFICATION USING ARTIFICIAL INTELLIGENCE MODEL LEAREED WITH FACE TEMPLATE DATA }Control method of a non-face-to-face identity authentication system using an artificial intelligence model learned with facial template data { CONTROL METHOD OF SYSTEM FOR NON-FACE-TO-FACE IDENTIFICATION USING ARTIFICIAL INTELLIGENCE MODEL LEAREED WITH FACE TEMPLATE DATA }

본 발명은 안면 인식 및 라이브니스를 이용하여 비대면 본인 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법에 관한 것으로, 보다 상세하게는, 신분증 안면 이미지와 사용자 안면 이미지의 안면 일치 값과 사용자 안면 이미지의 안면 라이브니스 값에 기초하여 신분증의 신원이 사용자인지를 판단하는 사용자 본인 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법에 관한 것이다.The present invention relates to a control method of a system including an electronic device and a server that performs non-face-to-face identity authentication using facial recognition and liveness. More specifically, the present invention relates to a facial match value between an identification card facial image and a user's facial image. The present invention relates to a control method of a system including an electronic device and a server that performs user identity authentication by determining whether the user's identity is that of the user based on the facial liveness value of the user's facial image.

일반적으로, 은행, 증권사, 보험사, 핀테크 관련 업체 등의 금융 관련 업체에서는 금융서비스를 요청한 고객의 신원 확인을 위해 대면 방식의 본인인증을 하고 있다. 그러나 이러한 대면 방식의 본인인증 방식은 고객이 금융 관련 업체에 방문해야 하는 불편함이 있으며, 해당 금융 관련 업체의 영업 시간이 아닌 경우에는 금융서비스를 이용하지 못하는 문제가 있다. 또한, 대면 방식의 본인인증 방식은 금융 관련 업체의 고객 확인 업무 부담을 가중시킬 뿐 아니라, 바이러스 등의 감염 질병이 유행하는 경우 감염 질병을 확산시키는 요인이 되며 이 때문에 고객이 금융 관련 업체에 방문을 꺼리게 되는 한계가 있다.In general, financial companies such as banks, securities companies, insurance companies, and fintech-related companies use face-to-face identity verification to verify the identity of customers who request financial services. However, this face-to-face identity authentication method has the inconvenience of requiring customers to visit a financial company, and there is the problem of not being able to use financial services outside of the business hours of the financial company. In addition, the face-to-face identity authentication method not only increases the burden of customer verification work for financial companies, but also becomes a factor in spreading infectious diseases such as viruses when they are prevalent, which prevents customers from visiting financial companies. There is a limit to reluctance.

이에 최근에 비대면 방식의 본인인증 방식이 각광받고 있다. 도 1 및 도 2는 종래의 비대면 본인인증 방법 및 그 문제점을 설명하기 위한 개념도이다. 종래의 비대면 본인인증 방법은 ① 실명확인증표 사본 또는 신분증 사본 촬영, ② 고객과 영상 통화를 통해 신분증표와 사진 대조, ③ 접근 매체 전달시 확인(현금카드, 보안카드, OTP 전달), ④ 기존 고객 계좌 활용(1원 인증), ⑤ 타기관 인증서(예: 공인인증서) 기타 이에 준하는 방법의 5가지 중 2가지 이상의 인증을 통해 고객의 신원을 확인하도록 되어 있다.Accordingly, non-face-to-face identity authentication methods have recently been in the spotlight. Figures 1 and 2 are conceptual diagrams to explain the conventional non-face-to-face identity authentication method and its problems. The conventional non-face-to-face identity authentication methods are ① taking a copy of the real name verification certificate or a copy of the ID card, ② comparing the ID card and photo through a video call with the customer, ③ confirmation when delivering the access medium (cash card, security card, OTP delivery), ④ existing The customer's identity is confirmed through two or more of five authentication methods: ⑤ utilization of customer account (1-way authentication), ⑤ certificate from another organization (e.g. public certificate), and other equivalent methods.

이러한 종래의 비대면 본인인증 방법은 금융 관련 업체 측에서 고객과 영상 통화를 해야 하거나, 고객에게 현금카드이나 보안카드 또는 OTP 전달을 해야 하거나, 고객이 자신의 계좌에 입금 내역을 확인하고 인증번호를 입력하여 1원 인증을 해야 하거나, 타기관 인증서를 준비해야 하는 등 고객이 계좌 개설 등의 금융 서비스를 제공받기 위한 절차가 복잡하다. 또한, 1원 인증 방식을 활용할 경우 금융 관련 업체에서 1원 인증을 위한 비용이 소요되는 단점도 있다.These conventional non-face-to-face identity authentication methods require the financial company to make a video call with the customer, deliver a cash card, security card, or OTP to the customer, or require the customer to check the deposit details in his or her account and provide an authentication number. The process for customers to receive financial services such as opening an account is complicated, as it requires entering and authenticating 1 won or preparing a certificate from another organization. In addition, when using the 1-won authentication method, there is a disadvantage that financial companies incur costs for 1-won authentication.

또한, 종래의 비대면 본인인증 방식은 신원 확인을 위해 필요한 정보 이상의 불필요한 개인 정보 노출을 꺼리는 고객이 주민등록번호 뒷자리를 메모지 등으로 가려야 하는 번거로움이 있다. 신분증을 이용한 비대면 본인인증 방식은 신분증 정보가 유출되거나 신분증 분실 우려가 있으며, 신분증을 분실하였거나 소지하고 있지 않은 경우 본인인증을 하지 못하게 된다.In addition, the conventional non-face-to-face identity authentication method has the inconvenience of requiring customers who are reluctant to expose unnecessary personal information beyond that required for identity verification to cover the last digits of their resident registration number with a note, etc. Non-face-to-face identity authentication methods using ID cards have the risk of ID information being leaked or ID cards being lost, and if the ID card is lost or not in your possession, you will not be able to authenticate yourself.

종래의 비대면 본인인증 방식은 대면 방식에 비해 신원 확인의 검증 정확도가 낮은 문제도 있다. 종래의 비대면 본인인증 방식은 고객이 제출한 사진의 실시간성 확보가 어렵고, 고객이 신분증을 위,변조하여 금융서비스를 이용하려는 경우 대면 방식에 비해 이를 적발하기 어렵다. 최근에는 신분증 또는 신분증 사진을 위·변조하고 대포 통장을 활용하여 계좌번호를 입력하고 1원 인증을 한 후 대포폰으로 인증을 완료하여 신규 계좌를 개설하거나 대출을 승인받는 등의 사기 행위도 증가하고 있다. 본인인증의 검증 정확도를 높이기 위해 고객에게 보안성이 높은 인증방식을 요구할 경우 고객이 불편함과 불쾌감을 느낄 수 있는 문제가 있다.Conventional non-face-to-face identity authentication methods also have the problem of lower identity verification accuracy compared to face-to-face methods. In the conventional non-face-to-face identity authentication method, it is difficult to secure the real-time accuracy of the photo submitted by the customer, and if a customer tries to use financial services by forging or altering his/her ID card, it is difficult to detect it compared to the face-to-face method. Recently, there has been an increase in fraudulent activities such as forging or altering an ID card or ID photo, using a Daepo bankbook, entering an account number, verifying 1 won, and then completing the authentication with a Daepo phone to open a new account or get a loan approved. there is. There is a problem that customers may feel inconvenience and discomfort when requiring a highly secure authentication method from customers in order to increase the verification accuracy of identity authentication.

한국공개특허 제10-2022-0081476호Korean Patent Publication No. 10-2022-0081476

본 발명이 해결하고자 하는 과제는 신분증 안면 이미지와 사용자 안면 이미지의 안면 일치 값과 사용자 안면 이미지의 안면 라이브니스 값에 기초하여 신분증의 신원이 사용자인지를 판단하는 사용자 본인 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법을 제공하고자 한다.The problem to be solved by the present invention is an electronic device and server that performs user identity authentication to determine whether the identity of the ID card is the user based on the facial match value between the facial image of the ID card and the user's facial image and the facial liveness value of the user's facial image. The purpose is to provide a control method for a system including.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood through the following description and will be more clearly understood by examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 안면 인식 및 라이브니스를 이용하여 비대면 본인 인증을 수행하는 전자 장치 및 서버를 포함하는 시스템의 제어 방법에 있어서, 상기 전자 장치가, 신분증을 촬영하여 생성된 신분증 이미지 내의 신분증 안면 이미지로부터 제1 안면 템플릿 데이터를 생성하는 단계; 상기 전자 장치가, 사용자를 촬영하여 생성된 사용자 이미지 내의 사용자 안면 이미지로부터 제2 안면 템플릿 데이터를 생성하는 단계; 상기 서버가, 두 안면 이미지 각각이 나타내는 안면 간에 안면 일치 값을 결정하도록 훈련된 제1 인공지능 모델에 상기 제1 안면 템플릿 데이터 및 상기 제2 안면 템플릿 데이터를 입력하여, 상기 신분증 안면 이미지가 나타내는 안면 및 상기 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계; 상기 서버가, 안면 이미지의 안면 라이브니스 값을 결정하도록 훈련된 제2 인공지능 모델에 상기 제2 안면 템플릿 데이터를 입력하여, 상기 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계; 및 상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값에 기초하여 상기 신분증의 신원이 상기 사용자인지를 판단하는 사용자 본인 인증을 수행하는 단계;를 포함할 수 있다.In the control method of a system including an electronic device and a server that performs non-face-to-face identity authentication using facial recognition and liveness according to one aspect of the present invention to solve the above-described problem, the electronic device Generating first facial template data from the ID card facial image in the ID card image generated by photographing; generating, by the electronic device, second facial template data from a user facial image in a user image generated by photographing the user; The server inputs the first facial template data and the second facial template data into a first artificial intelligence model trained to determine a facial match value between the faces represented by each of the two facial images, so that the face represented by the ID card facial image and obtaining a facial match value between faces represented by the user's facial image; obtaining, by the server, the facial liveness value of the user's facial image by inputting the second facial template data to a second artificial intelligence model trained to determine the facial liveness value of the facial image; and performing, by the server, user authentication to determine whether the identity of the identification card is the user based on the facial match value and the facial liveness value.

바람직하게, 상기 제1 안면 템플릿 데이터를 생성하는 단계는, 상기 전자 장치가, 상기 신분증 안면 이미지로부터 복수의 제1 안면 특징점을 추출하여 제1 안면 특징점 데이터를 생성하는 단계; 및 상기 전자 장치가, 상기 제1 안면 특징점 데이터를 암호화 및 토큰화하여 상기 제1 안면 템플릿 데이터를 생성하는 단계;를 포함할 수 있다.Preferably, generating the first facial template data includes: extracting, by the electronic device, a plurality of first facial feature points from the ID card facial image to generate first facial feature point data; and generating, by the electronic device, the first facial template data by encrypting and tokenizing the first facial feature point data.

바람직하게, 상기 제2 안면 템플릿 데이터를 생성하는 단계는, 상기 전자 장치가, 상기 사용자 안면 이미지로부터 복수의 제2 안면 특징점을 추출하여 제2 안면 특징점 데이터를 생성하는 단계; 및 상기 전자 장치가, 상기 제2 안면 특징점 데이터를 암호화 및 토큰화하여 상기 제2 안면 템플릿 데이터를 생성하는 단계;를 포함할 수 있다.Preferably, generating the second facial template data includes: extracting, by the electronic device, a plurality of second facial feature points from the user's facial image to generate second facial feature point data; and generating, by the electronic device, the second facial template data by encrypting and tokenizing the second facial feature point data.

바람직하게, 상기 사용자 본인 인증을 수행하는 단계는, 상기 서버가, 상기 안면 일치 값이 기준 안면 일치 값을 초과하는지 여부를 판단하는 단계; 상기 서버가, 상기 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하는지 여부를 판단하는 단계; 및 상기 서버가, 상기 안면 일치 값이 상기 기준 안면 일치 값을 초과하고, 상기 안면 라이브니스 값이 상기 기준 안면 라이브니스 값을 초과하면, 상기 신분증의 신원이 상기 사용자인 것으로 판단하는 단계;를 포함할 수 있다.Preferably, performing the user identity authentication includes: determining, by the server, whether the face match value exceeds a reference face match value; determining, by the server, whether the facial liveness value exceeds a reference facial liveness value; and determining, by the server, that the identity of the ID card is the user when the face match value exceeds the reference face match value and the face liveness value exceeds the reference face liveness value. can do.

상술된 시스템의 제어 방법은 상기 전자 장치 또는 상기 서버가, 상기 신분증 이미지로부터 문자를 인식하여 신분증 정보를 생성하는 단계; 상기 서버가, 상기 신분증 정보에 기초하여 상기 신분증의 진위 여부를 확인 요청하는 단계; 및 상기 서버가, 상기 확인 요청의 응답으로 상기 신분증의 진위 여부를 나타내는 신분증 진위 정보를 수신하는 단계;를 포함할 수 있다.The control method of the above-described system includes the steps of the electronic device or the server recognizing characters from the ID card image to generate ID information; requesting, by the server, to confirm the authenticity of the identification card based on the identification information; and receiving, by the server, identification information indicating authenticity of the identification card in response to the confirmation request.

바람직하게, 상기 사용자 본인 인증을 수행하는 단계는, 상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값 외에 상기 신분증 진위 정보를 더 기초하여 상기 신분증의 신원이 상기 사용자인지 여부를 판단하고, 상기 신분증의 신원이 상기 사용자인지 여부를 판단하는 단계는, 상기 서버가, 상기 안면 일치 값이 상기 기준 안면 일치 값을 초과하고, 상기 안면 라이브니스 값이 상기 기준 안면 라이브니스 값을 초과하고, 상기 신분증 진위 정보가 상기 신분증이 진짜임을 나타내면, 상기 신분증의 신원이 상기 사용자인 것으로 판단하는 단계;를 포함할 수 있다.Preferably, the step of performing the user identity authentication includes the server determining whether the identity of the identification card is the user based on the identity information of the identification card in addition to the facial match value and the facial liveness value, and The step of determining whether the identity of the identification card is that of the user includes: the server determining that the face match value exceeds the reference face match value, the face liveness value exceeds the reference face liveness value, and the identification card If the authenticity information indicates that the identification card is real, determining that the identity of the identification card is the user.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 안면 인식 및 라이브니스를 이용하여 비대면 본인 인증을 수행하는 서버의 제어 방법에 있어서, 상기 서버가, 신분증을 촬영하여 생성된 신분증 이미지 내의 신분증 안면 이미지로부터 생성된 제1 안면 템플릿 데이터를 수신하는 단계; 상기 서버가, 사용자를 촬영하여 생성된 사용자 이미지 내의 사용자 안면 이미지로부터 생성된 제2 안면 템플릿 데이터를 수신하는 단계; 상기 서버가, 두 안면 이미지 각각이 나타내는 안면 간에 안면 일치 값을 결정하도록 훈련된 제1 인공지능 모델에 상기 제1 안면 템플릿 데이터 및 상기 제2 안면 템플릿 데이터를 입력하여, 상기 신분증 안면 이미지가 나타내는 제1 안면 및 상기 사용자 안면 이미지가 나타내는 제2 안면 간에 안면 일치 값을 획득하는 단계; 상기 서버가, 안면 이미지의 안면 라이브니스 값을 결정하도록 훈련된 제2 인공지능 모델에 상기 제2 안면 템플릿 데이터를 입력하여, 상기 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계; 및 상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값에 기초하여 상기 신분증의 신원이 상기 사용자인지를 판단하는 사용자 본인 인증을 수행하는 단계;를 포함할 수 있다.In the control method of a server that performs non-face-to-face identity authentication using facial recognition and liveness according to one aspect of the present invention to solve the above-described problem, the server uses an ID card in an ID image generated by photographing an ID card. Receiving first facial template data generated from a facial image; Receiving, by the server, second facial template data generated from a user facial image in a user image generated by photographing the user; The server inputs the first facial template data and the second facial template data into a first artificial intelligence model trained to determine a facial match value between the faces represented by each of the two facial images, thereby Obtaining a facial match value between a first face and a second face represented by the user's facial image; obtaining, by the server, the facial liveness value of the user's facial image by inputting the second facial template data to a second artificial intelligence model trained to determine the facial liveness value of the facial image; and performing, by the server, user authentication to determine whether the identity of the identification card is the user based on the facial match value and the facial liveness value.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 따른 전자 장치 및 서버를 포함하는 시스템의 제어 방법은 신분증 안면 이미지와 사용자 안면 이미지의 안면 일치 값과 사용자 안면 이미지의 안면 라이브니스 값에 기초하여 신분증의 신원이 사용자인지를 판단하는 사용자 본인 인증을 수행함으로써, 신속하고 정확하게 신분증을 통한 인증을 가능하게 한다.A control method of a system including an electronic device and a server according to the present invention includes determining whether the identity of the identification card is the user based on the facial match value of the facial image of the identification card and the user's facial image and the facial liveness value of the user's facial image. By performing authentication, quick and accurate authentication through identification is possible.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른 시스템의 구성도이다.
도 2는 본 개시의 일 실시예에 따른 시스템에 포함된 전자 장치 및 서버의 구성도이다.
도 3은 본 개시의 일 실시예에 따른 사용자 본인 인증 과정에 대한 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치가 신분증 이미지를 획득하는 모습에 대한 예시도이다.
도 5 및 도 6은 본 개시의 일 실시예에 따른 전자 장치가 사용자 이미지를 획득하는 모습에 대한 예시도이다.
도 7은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 안면 이미지에 대한 안면 라이브니스 값을 획득하는 과정을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 두 안면 이미지 각각이 나타내는 안면 간의 안면 일치 값을 획득하는 과정을 설명하기 위한 도면이다.
1 is a configuration diagram of a system according to an embodiment of the present disclosure.
Figure 2 is a configuration diagram of an electronic device and a server included in a system according to an embodiment of the present disclosure.
Figure 3 is a flowchart of a user identity authentication process according to an embodiment of the present disclosure.
Figure 4 is an example diagram of an electronic device acquiring an identification card image according to an embodiment of the present disclosure.
5 and 6 are exemplary diagrams of how an electronic device acquires a user image according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating a process in which a server acquires a facial liveness value for a facial image using an artificial intelligence model according to an embodiment of the present disclosure.
FIG. 8 is a diagram illustrating a process in which a server according to an embodiment of the present disclosure obtains a facial match value between the faces represented by each of the two facial images using an artificial intelligence model.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used in the specification, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and the “unit” or “module” performs certain roles. However, “part” or “module” is not limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, a “part” or “module” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within components and “parts” or “modules” can be combined into smaller components and “parts” or “modules” or into additional components and “parts” or “modules”. Could be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings. For example, if you flip a component shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. You can. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer refers to all types of hardware devices including at least one processor, and depending on the embodiment, it may be understood as encompassing software configurations that operate on the hardware device. For example, a computer can be understood to include, but is not limited to, a smartphone, tablet PC, desktop, laptop, and user clients and applications running on each device.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 개시의 일 실시예에 따른 시스템의 구성도이다.1 is a configuration diagram of a system according to an embodiment of the present disclosure.

도 1에 도시된 바와 같이, 본 발명의 일 면에 따른 시스템은 전자 장치(100) 및 서버(200)를 포함할 수 있다.As shown in FIG. 1, a system according to one aspect of the present invention may include an electronic device 100 and a server 200.

전자 장치(100) 및 서버(200)는 생성된 값에 대한 정보, 판단 결과에 대한 정보, 데이터 및 신호를 송수신하며 사용자에 대해 사용자 본인 인증을 수행할 수 있다.The electronic device 100 and the server 200 transmit and receive information about the generated value, information about the judgment result, data, and signals, and can perform user identity authentication for the user.

여기서, 사용자 본인 인증은 신분증이 나타내는 신분이 사용자인지를 판단하는 과정일 수 있다.Here, user identity authentication may be a process of determining whether the identity indicated by the ID card is the user.

전자 장치(100)는 스마트폰, 태블릿 PC, TV, 콘솔 기기, 셋탑 박스, 기타 제어 기기 등으로 구현될 수 있다.The electronic device 100 may be implemented as a smartphone, tablet PC, TV, console device, set-top box, or other control device.

서버(200)는 전자 장치(100)로부터 수신되는 생성된 값에 대한 정보, 판단 결과에 대한 정보, 데이터 및 신호를 기초로 사용자에 대해 사용자 본인 인증을 수행하고, 사용자 본인 인증 결과를 전자 장치(100)로 송신할 수 있다.The server 200 performs user identity authentication for the user based on information about the generated value, information about the judgment result, data, and signals received from the electronic device 100, and reports the user identity authentication result to the electronic device ( 100).

도 2는 본 개시의 일 실시예에 따른 시스템에 포함된 전자 장치 및 서버의 구성도이다.Figure 2 is a configuration diagram of an electronic device and a server included in a system according to an embodiment of the present disclosure.

도 2를 참조하면, 전자 장치(100)는, 메모리(110), 카메라(120), 디스플레이(130), 프로세서(140) 및 통신부(150)를 포함할 수 있다.Referring to FIG. 2 , the electronic device 100 may include a memory 110, a camera 120, a display 130, a processor 140, and a communication unit 150.

메모리(110)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(110)는 비휘발성 메모리(110), 휘발성 메모리(110), 플래시메모리(110)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.The memory 110 can store various programs and data necessary for the operation of the electronic device 100. The memory 110 may be implemented as a non-volatile memory 110, a volatile memory 110, a flash-memory 110, a hard disk drive (HDD), or a solid state drive (SSD).

프로세서(140)는 메모리(110)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(140)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.The processor 140 can control the overall operation of the electronic device 100 using various programs stored in the memory 110. The processor 140 may be comprised of RAM, ROM, a graphics processing unit, a main CPU, first to n interfaces, and a bus. At this time, RAM, ROM, graphics processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치(100)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.RAM stores O/S and application programs. Specifically, when the electronic device 100 is booted, the O/S is stored in RAM, and various application data selected by the user may be stored in RAM.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(110)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.ROM stores a set of instructions for booting the system. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 110 to RAM according to the command stored in the ROM, executes the O/S, and boots the system. When booting is complete, the main CPU copies various application programs stored in the memory 110 to RAM and executes the application programs copied to RAM to perform various operations.

그래픽 처리부는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이(130)의 디스플레이 영역 내에 표시될 수 있다.The graphics processing unit uses a calculation unit (not shown) and a rendering unit (not shown) to create a screen containing various objects such as items, images, and text. Here, the calculation unit may be configured to calculate attribute values such as coordinate values, shape, size, color, etc. for each object to be displayed according to the layout of the screen using a control command received from the input unit. Additionally, the rendering unit may be configured to generate screens of various layouts including objects based on attribute values calculated by the calculation unit. The screen generated by this rendering unit may be displayed within the display area of the display 130.

메인 CPU는 메모리(110)에 액세스하여, 메모리(110)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU accesses the memory 110 and performs booting using the OS stored in the memory 110. And, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 110.

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces are connected to the various components described above. One of the first to n interfaces may be a network interface connected to an external device through a network.

한편, 프로세서(140)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Meanwhile, the processor 140 may include one or more cores (not shown) and a graphics processing unit (not shown) and/or a connection path (e.g., bus, etc.) for transmitting and receiving signals with other components. You can.

일 실시예에 따른 프로세서(140)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.Processor 140 according to one embodiment performs the method described in connection with the present invention by executing one or more instructions stored in memory 110.

예를 들어, 프로세서(140)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 추출된 제1 학습용 데이터를 신규 학습용 데이터로부터 삭제하고, 추출된 학습용 데이터가 삭제된 신규 학습용 데이터를 이용하여 학습된 모델을 다시 학습시킬 수 있다.For example, the processor 140 acquires new training data by executing one or more instructions stored in the memory 110, performs a test on the acquired new training data using the learned model, and performs a test on the acquired new training data, and the test result is, Extract first training data in which the labeled information is obtained with an accuracy higher than a predetermined first reference value, delete the extracted first training data from the new training data, and learn using the new training data from which the extracted training data was deleted. The model can be trained again.

한편, 프로세서(140)는 프로세서(140) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(140)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 140 includes random access memory (RAM) (not shown) and read-only memory (ROM) that temporarily and/or permanently store signals (or data) processed within the processor 140. , not shown) may be further included. Additionally, the processor 140 may be implemented in the form of a system on chip (SoC) including at least one of a graphics processing unit, RAM, and ROM.

메모리(110)에는 프로세서(140)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 110 may store programs (one or more instructions) for processing and controlling the processor 140. Programs stored in the memory 110 may be divided into a plurality of modules according to their functions.

카메라(120)는 적어도 하나의 피사체를 촬영하기 위한 구성으로, 사용자를 촬영하여 사용자의 안면이 포함된 사용자 이미지를 생성하고, 신분증을 촬영하여 신분증 이미지를 생성할 수 있다.The camera 120 is configured to photograph at least one subject, and can photograph a user to create a user image including the user's face, and photograph an ID card to create an ID image.

디스플레이(130)는 다양한 정보를 시각적으로 출력하기 위한 구성으로, LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The display 130 is a configuration for visually outputting various information and can be implemented as LCD (Liquid Crystal Display), PDP (Plasma Display Panel), OLED (Organic Light Emitting Diodes), TOLED (Transparent OLED), Micro LED, etc. However, it is not limited to this and may include various types of displays known in the art.

실시예로, 디스플레이(130)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.In an embodiment, the display 130 may be implemented in the form of a touch screen capable of detecting a user's touch operation, and may also be implemented as a flexible display that can be folded or bent.

통신부(150)는 서버(200)와 통신을 수행할 수 있다. 특히, 통신부(150)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.The communication unit 150 may communicate with the server 200. In particular, the communication unit 150 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and a low-energy Bluetooth chip (BLE chip). At this time, the Wi-Fi chip, Bluetooth chip, and NFC chip communicate in the LAN method, WiFi method, Bluetooth method, and NFC method, respectively. When using a Wi-Fi chip or Bluetooth chip, various connection information such as SSID and session key are first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this. A wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), and 5G (5th Generation).

도 2를 참조하면, 서버(200)는, 메모리(210), 프로세서(220) 및 통신부(230)를 포함할 수 있다.Referring to FIG. 2 , the server 200 may include a memory 210, a processor 220, and a communication unit 230.

메모리(210)는 서버(200)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(210)는 비휘발성 메모리(210), 휘발성 메모리(210), 플래시메모리(210)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.The memory 210 can store various programs and data necessary for the operation of the server 200. The memory 210 may be implemented as a non-volatile memory 210, a volatile memory 210, a flash memory 210 (flash-memory), a hard disk drive (HDD), or a solid state drive (SSD).

프로세서(220)는 메모리(210)에 저장된 각종 프로그램을 이용하여 서버(200)의 전반적인 동작을 제어할 수 있다. 프로세서(220)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.The processor 220 can control the overall operation of the server 200 using various programs stored in the memory 210. The processor 220 may be comprised of RAM, ROM, a graphics processing unit, a main CPU, first to n interfaces, and a bus. At this time, RAM, ROM, graphics processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 서버(200)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.RAM stores O/S and application programs. Specifically, when the server 200 is booted, the O/S is stored in RAM, and various application data selected by the user may be stored in RAM.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(210)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(210)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.ROM stores a set of instructions for booting the system. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 210 to RAM according to the command stored in the ROM, executes the O/S, and boots the system. When booting is complete, the main CPU copies various application programs stored in the memory 210 to RAM and executes the application programs copied to RAM to perform various operations.

메인 CPU는 메모리(210)에 액세스하여, 메모리(210)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(210)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU accesses the memory 210 and performs booting using the OS stored in the memory 210. And, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 210.

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces are connected to the various components described above. One of the first to n interfaces may be a network interface connected to an external device through a network.

한편, 나아가, 프로세서(220)는 인공지능 모델을 제어할 수 있다. 이 경우, 프로세서(220)는 인공지능 모델을 제어하기 위한 그래픽 전용 프로세서(예: GPU)를 포함할 수 있음은 물론이다.Meanwhile, furthermore, the processor 220 can control an artificial intelligence model. In this case, of course, the processor 220 may include a graphics processor (eg, GPU) for controlling the artificial intelligence model.

한편, 본 발명에 따른 인공지능 모델은 교사 지도학습(supervised learning) 또는 비교사 지도학습(unsupervised learning)기반의 모델일 수 있다. 나아가, 본 발명에 따른 인공지능 모델은 SVM(support vector machine), Decision tree, neural network 등 및 이들이 응용된 방법론을 포함할 수 있다.Meanwhile, the artificial intelligence model according to the present invention may be a model based on supervised learning or unsupervised learning. Furthermore, the artificial intelligence model according to the present invention may include SVM (support vector machine), decision tree, neural network, etc., and methodologies applied thereto.

일 실시예로, 본 발명에 따른 인공지능 모델은 학습데이터를 입력하여 학습된 합성곱 신경망(Convolutional deep Neural Networks, CNN) 기반의 인공지능 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 다양한 인공지능 모델이 본 발명에 적용될 수 있음은 물론이다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.In one embodiment, the artificial intelligence model according to the present invention may be an artificial intelligence model based on convolutional deep neural networks (CNN) that is learned by inputting learning data. However, it is not limited to this, and of course, various artificial intelligence models can be applied to the present invention. For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) can be used as artificial intelligence models, but are not limited to these.

이때, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.At this time, Convolutional deep Neural Networks (CNN) are a type of multilayer perceptrons designed to use minimal preprocessing. A convolutional neural network consists of one or several convolutional layers and general artificial neural network layers on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, the convolutional neural network can fully utilize input data with a two-dimensional structure. Additionally, convolutional neural networks can be trained via standard back propagation. Convolutional neural networks have the advantage of being easier to train and using fewer parameters than other feedforward artificial neural network techniques.

또한, 심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.Additionally, Deep Neural Networks (DNN) are Artificial Neural Networks (ANN) consisting of multiple hidden layers between an input layer and an output layer.

이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다.At this time, the structure of the deep neural network may be composed of a perceptron. A perceptron consists of several inputs, one processor, and one output. The processor multiplies multiple input values by their respective weights and then adds up all of the input values multiplied by the weights. Next, the processor substitutes the combined value into the activation function and outputs one output value. If you want a specific value to come out as the output value of the activation function, you can modify the weight multiplied by each input value and recalculate the output value using the modified weight. At this time, each perceptron can use a different activation function. Additionally, each perceptron accepts the outputs from the previous layer as input and then obtains the output using an activation function. The obtained output is passed to the input of the next layer. By going through the above-described process, you can finally obtain several output values.

순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.Recurrent Neural Network (RNN) refers to a neural network in which the connections between units that make up the artificial neural network form a directed cycle. Unlike a forward neural network, a recurrent neural network can utilize the memory inside the neural network to process arbitrary input.

심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.Deep Belief Networks (DBN) is a generative graphical model used in machine learning. In deep learning, it refers to a deep neural network composed of multiple layers of latent variables. It has the characteristic that there is a connection between layers, but no connection between units within the layer.

심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.Due to the nature of the deep trust neural network as a generative model, it can be used for prior learning, and after learning the initial weights through prior learning, the weights can be fine-tuned through backpropagation or other discriminant algorithms. This characteristic is very useful when there is little training data, because the smaller the training data, the stronger the influence of the initial value of the weights on the resulting model. The pre-learned weight initial value becomes closer to the optimal weight compared to the arbitrarily set initial weight value, which enables improved performance and speed of the fine-tuning stage.

상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 상술한 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.The content regarding the above-described artificial intelligence and its learning method is described for illustrative purposes, and the artificial intelligence and its learning method used in the above-described embodiments are not limited. For example, all types of artificial intelligence technologies and learning methods that can be applied by a person skilled in the art to solve the same problem can be used to implement the system according to the disclosed embodiments.

한편, 프로세서(220)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Meanwhile, the processor 220 may include one or more cores (not shown) and a graphics processing unit (not shown) and/or a connection path (e.g., bus, etc.) for transmitting and receiving signals with other components. You can.

일 실시예에 따른 프로세서(220)는 메모리(210)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.Processor 220 according to one embodiment performs the method described in connection with the present invention by executing one or more instructions stored in memory 210.

예를 들어, 프로세서(220)는 메모리(210)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 추출된 제1 학습용 데이터를 신규 학습용 데이터로부터 삭제하고, 추출된 학습용 데이터가 삭제된 신규 학습용 데이터를 이용하여 학습된 모델을 다시 학습시킬 수 있다.For example, the processor 220 acquires new training data by executing one or more instructions stored in the memory 210, uses a learned model, performs a test on the acquired new training data, and produces a test result, Extract first training data in which the labeled information is obtained with an accuracy higher than a predetermined first reference value, delete the extracted first training data from the new training data, and learn using the new training data from which the extracted training data was deleted. The model can be trained again.

한편, 프로세서(220)는 프로세서(220) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(220)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 220 includes RAM (Random Access Memory, not shown) and ROM (Read-Only Memory) that temporarily and/or permanently store signals (or data) processed within the processor 220. , not shown) may be further included. Additionally, the processor 220 may be implemented in the form of a system on chip (SoC) including at least one of a graphics processing unit, RAM, and ROM.

메모리(210)에는 프로세서(220)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(210)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 210 may store programs (one or more instructions) for processing and controlling the processor 220. Programs stored in the memory 210 may be divided into a plurality of modules according to their functions.

통신부(230)는 전자 장치(100)와 통신을 수행할 수 있다. 특히, 통신부(230)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.The communication unit 230 may perform communication with the electronic device 100. In particular, the communication unit 230 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and a low-energy Bluetooth chip (BLE chip). At this time, the Wi-Fi chip, Bluetooth chip, and NFC chip communicate in the LAN method, WiFi method, Bluetooth method, and NFC method, respectively. When using a Wi-Fi chip or Bluetooth chip, various connection information such as SSID and session key are first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this. A wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), and 5G (5th Generation).

도 3은 본 개시의 일 실시예에 따른 사용자 본인 인증 과정에 대한 흐름도이다.Figure 3 is a flowchart of a user identity authentication process according to an embodiment of the present disclosure.

도 3에 도시된 바와 같이, 본 발명의 일 면에 따른 안면 인식 및 라이브니스를 이용하여 비대면 본인 인증을 수행하는 시스템의 제어 방법은, 서버(200)가, 신분증의 진위 여부를 확인(S1)하고, 서버(200)가, 사용자 안면 이미지에 대해 라이브니스 여부를 판단(S2)하며, 서버(200)가, 신분증 이미지가 나타내는 안면과 사용자 이미지가 나타내는 안면 간의 일치 여부를 판단(S3)하고, 서버(200)가, 라이브니스 여부의 판단 결과와 안면 간의 일치 여부에 기초하여 사용자 본인 인증을 수행(S4)할 수 있다.As shown in FIG. 3, the control method of a system that performs non-face-to-face identity authentication using facial recognition and liveness according to one aspect of the present invention includes the server 200 confirming the authenticity of the ID card (S1) ), the server 200 determines whether the user's facial image is lively (S2), and the server 200 determines whether the face represented by the ID card image matches the face represented by the user image (S3) , the server 200 may perform user identity authentication (S4) based on whether the liveness determination result matches the face.

도 4는 본 개시의 일 실시예에 따른 전자 장치가 신분증 이미지를 획득하는 모습에 대한 예시도이다.Figure 4 is an example diagram of an electronic device acquiring an identification card image according to an embodiment of the present disclosure.

단계 S1에 대해 설명하면, 전자 장치(100)는, 디스플레이에 사용자가 신분증(ID)을 촬영하도록 하는 신분증 촬영 UI를 출력하여, 사용자가 신분증(ID)을 촬영하도록 할 수 있다.Describing step S1, the electronic device 100 may output an ID photographing UI on the display that allows the user to photograph an identification card (ID), allowing the user to photograph an identification card (ID).

이때, 전자 장치(100)는 카메라로부터 촬영되는 이미지로부터 신분증이 인식되면 해당 이미지를 신분증 이미지로 획득하는 오토스캔 기능을 통해 신분증 이미지를 획득할 수 있다.At this time, the electronic device 100 can obtain an ID card image through an auto-scan function that obtains the image as an ID card image when the ID card is recognized from an image captured by a camera.

다른 실시 예에 따르면, 전자 장치(100)는 촬영 버튼을 디스플레이에 표시하고, 사용자로부터 촬영 버튼이 선택 입력되면, 촬영 버튼이 선택 입력된 입력 시점에 카메라를 이용하여 신분증 이미지를 획득할 수 있다.According to another embodiment, the electronic device 100 displays a photographing button on the display, and when the photographing button is selected and input by the user, the electronic device 100 may obtain an identification card image using a camera at the time when the photographing button is selected and input.

이후, 전자 장치(100)는 신분증(ID)을 촬영하여 생성된 신분증 이미지(ID-I)로부터 문자(ID-C)를 인식하여 신분증 정보를 생성할 수 있다.Thereafter, the electronic device 100 may generate ID information by recognizing characters (ID-C) from the ID image (ID-I) generated by photographing the identification card (ID).

이를 위해, 전자 장치(100)는 문자 판독 모듈을 이용하여 문자(ID-C)를 인식할 수 있다.To this end, the electronic device 100 can recognize the character (ID-C) using a character reading module.

여기서, 신분증 정보는 신분증 종류 정보, 신분증 고유 정보(예를 들어, 주민등록번호), 신분증 유효일 정보, 신분증 발급일 정보, 신분증이 나타내는 신원의 이름 정보 및 주소 정보 중 하나 이상을 포함할 수 있다.Here, the ID information may include one or more of ID card type information, ID card unique information (for example, resident registration number), ID card validity date information, ID card issue date information, name information, and address information of the identity indicated by the ID card.

한편, 전자 장치(100)는 신분증 이미지(ID-I)로부터 신분증 외곽선을 인식하고, 상술된 신분증 정보 중 일부 정보를 신분증 이미지(ID-I)에서 블라인드 처리할 수 있다.Meanwhile, the electronic device 100 may recognize the outline of the ID card from the ID card image (ID-I) and blind some of the above-described ID information in the ID card image (ID-I).

여기서, 신분증은 실물의 주민등록증, 운전면허증, 여권 중 어느 하나일 수 있다.Here, the ID may be any one of a physical resident registration card, driver's license, or passport.

한편, 신분증은 모바일 운전면허증, 모바일 주민등록증, 전자 여권 중 어느 하나 일 수도 있다. 이때, 전자 장치(100)는 신분증을 촬영하지 않고, 전자적 방법을 통해 모바일 운전면허증, 모바일 주민등록증, 전자 여권으로부터 신분증 정보를 획득할 수 있다.Meanwhile, the identification card may be one of a mobile driver's license, mobile resident registration card, or electronic passport. At this time, the electronic device 100 can obtain ID information from a mobile driver's license, mobile resident registration card, or electronic passport through an electronic method without taking a photo of the ID card.

전자 장치(100)는 생성된 신분증 정보를 서버(200)로 송신할 수 있다.The electronic device 100 may transmit the generated ID information to the server 200.

한편, 전자 장치(100)를 대신하여 서버(200)가 상술된 문자 인식을 통한 신분증 정보의 생성을 수행할 수 있다.Meanwhile, on behalf of the electronic device 100, the server 200 may generate ID information through the above-described character recognition.

이를 위해, 전자 장치(100)는 신분증(ID)을 촬영하여 생성된 신분증 이미지(ID-I)를 서버(200)로 송신하고, 서버(200)는 신분증 이미지(ID-I)로부터 문자(ID-C)를 인식하여 신분증 정보를 생성할 수 있다.To this end, the electronic device 100 transmits an identification card image (ID-I) generated by photographing an identification card (ID) to the server 200, and the server 200 receives the text (ID -C) can be recognized to generate ID information.

이를 위해, 서버(200)는 문자 판독 모듈을 이용하여 문자(ID-C)를 인식할 수 있다.To this end, the server 200 can recognize the character (ID-C) using a character reading module.

서버(200)는 신분증 정보에 기초하여 신분증의 진위 여부를 확인 기관 서버에 확인 요청할 수 있다.The server 200 may request verification of the authenticity of the ID card from the verification agency server based on the ID information.

이를 위해, 서버(200)는 확인 기관 서버로 신분증 정보와 함께 진위 여부 확인 요청 신호를 송신할 수 있다.To this end, the server 200 may transmit an authenticity confirmation request signal along with ID information to the verification agency server.

이후, 서버(200)는 신분증의 진위 여부 확인 요청에 대한 응답으로 신분증의 진위 여부를 나타내는 신분증 진위 정보를 확인 기관 서버로부터 수신할 수 있다.Thereafter, the server 200 may receive ID authenticity information indicating the authenticity of the ID card from the verification agency server in response to a request to confirm the authenticity of the ID card.

여기서, 확인 기관 서버는 신분증을 발급한 기관이 해당 신분증의 진위 여부에 대한 확인 결과를 제공하기 위해 운영하는 서버일 수 있다.Here, the verification agency server may be a server operated by the organization that issued the ID card to provide verification results regarding the authenticity of the ID card.

서버(200)는 수신된 신분증 진위 정보를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit the received ID authenticity information to the electronic device 100.

전자 장치(100)는 수신된 신분증 진위 정보가 신분증이 진짜임을 나타내면 신분증이 가짜임을 알리는 메시지를 출력할 수 있다.If the received ID authenticity information indicates that the ID card is real, the electronic device 100 may output a message indicating that the ID card is fake.

또한, 전자 장치(100)는 수신된 신분증 진위 정보가 신분증이 진짜임을 나타내면 후속되는 사용자 안면 이미지에 대해 라이브니스 여부를 판단하는 과정에서 요구되는 이미지, 데이터 및 값을 획득하거나 생성할 수 있다.Additionally, if the received ID authenticity information indicates that the ID card is genuine, the electronic device 100 may obtain or generate images, data, and values required in the process of determining liveness for a subsequent user's facial image.

반대로, 전자 장치(100)는 수신된 신분증 진위 정보가 신분증이 가짜임을 나타내면 신분증이 가짜임을 알리는 메시지와 진짜인 신분증의 촬영을 요청하는 메시지를 출력할 수 있다.Conversely, if the received ID authenticity information indicates that the ID card is fake, the electronic device 100 may output a message indicating that the ID card is fake and a message requesting to take a photo of the real ID card.

또한, 전자 장치(100)는 신분증 촬영 및 신분증 정보 생성을 재수행하여 서버(200)로 신분증 정보를 송신할 수 있다.Additionally, the electronic device 100 may re-perform the identification card photographing and identification information generation and transmit the identification information to the server 200.

도 5 및 도 6은 본 개시의 일 실시예에 따른 전자 장치가 사용자 이미지를 획득하는 모습에 대한 예시도이다.5 and 6 are exemplary diagrams of how an electronic device acquires a user image according to an embodiment of the present disclosure.

단계 S2에 대해 설명하면, 전자 장치(100)는 디스플레이에 사용자가 사용자 자신을 촬영하도록 하는 사용자 촬영 UI를 출력하여, 사용자(U)가 자기 자신을 촬영하도록 할 수 있다.Describing step S2, the electronic device 100 outputs a user photography UI on the display that allows the user to take a picture of himself, allowing the user U to take a picture of himself.

이때, 전자 장치(100)는 사용자가 특정 포즈 및 특정 표정을 취하도록 유도하지 않고 임의의 포즈 및 임의의 표정을 취한 사용자를 촬영하여 패시브 라이브니스 여부를 판단할 수 있다. At this time, the electronic device 100 may determine whether passive liveness exists by photographing the user in a random pose and a random expression without inducing the user to take a specific pose and a specific expression.

이후, 전자 장치(100)는 사용자를 촬영하여 생성된 사용자 이미지(U-I) 내의 사용자 안면 이미지(U-FI)로부터 복수의 제2 안면 특징점을 추출하고, 복수의 제2 안면 특징점으로 구성된 제2 안면 특징점 데이터를 생성할 수 있다.Thereafter, the electronic device 100 extracts a plurality of second facial feature points from the user facial image (U-FI) in the user image (U-I) generated by photographing the user, and generates a second facial feature point composed of a plurality of second facial feature points. Feature point data can be generated.

여기서, 복수의 제2 안면 특징점은 사용자 안면 이미지(U-FI)가 나타내는 안면의 특징에 대한 정보일 수 있다. 예를 들어, 복수의 제2 안면 특징점은 안면 세부 부위(눈꼬리, 입꼬리, 코끝 등) 각각의 좌표 정보, 각 좌표 정보에 대응되는 위치의 단위 이미지의 색상값, 각 좌표 정보에 대응되는 위치의 단위 이미지의 노출값, 각 좌표 정보의 변화값, 각 좌표 정보에 대응되는 이미지의 깊이값(카메라와 객체 간의 거리), 깊이값의 변화값, 색상값의 변화값, 노출값의 변화값을 포함할 수 있다.Here, the plurality of second facial feature points may be information about facial features indicated by the user facial image (U-FI). For example, the plurality of second facial feature points include coordinate information for each detailed part of the face (corners of the eyes, corners of the mouth, tip of the nose, etc.), color values of the unit image of the position corresponding to each coordinate information, and unit of the position corresponding to each coordinate information. It may include the exposure value of the image, the change value of each coordinate information, the depth value of the image corresponding to each coordinate information (distance between camera and object), the change value of the depth value, the change value of the color value, and the change value of the exposure value. .

이를 위해, 전자 장치(100)는 사전에 학습된 3D 얼굴 기하 모델을 이용하여 사용자 안면 이미지(U-FI)로부터 10,000개 이상의 안면 특징점을 추출할 수 있다.To this end, the electronic device 100 can extract more than 10,000 facial feature points from the user facial image (U-FI) using a pre-learned 3D facial geometric model.

전자 장치(100)는 제2 안면 특징점 데이터를 암호화 및 토큰화하여 제2 안면 템플릿 데이터를 생성할 수 있다.The electronic device 100 may generate second facial template data by encrypting and tokenizing the second facial feature point data.

이후, 전자 장치(100)는 제2 안면 템플릿 데이터를 서버(200)로 송신할 수 있다.Thereafter, the electronic device 100 may transmit the second facial template data to the server 200.

도 7은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 안면 이미지에 대한 안면 라이브니스 값을 획득하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating a process in which a server acquires a facial liveness value for a facial image using an artificial intelligence model according to an embodiment of the present disclosure.

도 7을 더 참조하면, 서버(200)는 전자 장치(100)로부터 제2 안면 템플릿 데이터(U-FT)를 수신하면, 제2 인공지능 모델(M2)에 제2 안면 템플릿 데이터(U-FT)를 입력하여, 사용자 안면 이미지(U-FI)의 안면 라이브니스 값을 획득할 수 있다.Referring further to FIG. 7, when the server 200 receives the second facial template data (U-FT) from the electronic device 100, the server 200 stores the second facial template data (U-FT) in the second artificial intelligence model (M2). ), the facial liveness value of the user's facial image (U-FI) can be obtained.

여기서, 이미지에 대한 라이브니스 여부는 이미지가 실제 대상으로부터 획득된 이미지인지를 나타내는 것으로써, 라이브니스 값은 실제 대상으로부터 이미지가 획득되었을 확률을 나타내는 값일 수 있다.Here, the liveness of an image indicates whether the image was obtained from an actual object, and the liveness value may be a value indicating the probability that the image was obtained from an actual object.

이에 따라, 안면 라이브니스 값은 해당 안면 템플릿 데이터에 대응되는 안면 이미지가 실제 대상(사용자)으로부터 획득되었을 확률을 나타내는 값일 수 있다.Accordingly, the facial liveness value may be a value indicating the probability that the facial image corresponding to the facial template data was obtained from an actual subject (user).

예를 들어, 안면 라이브니스 값이 100%에 가까울수록 해당 안면 템플릿 데이터에 대응되는 안면 이미지가 실제 대상(사용자)으로부터 획득되었을 확률이 높음을 나타낼 수 있다.For example, the closer the facial liveness value is to 100%, the higher the probability that the facial image corresponding to the facial template data was obtained from an actual subject (user).

반대로, 안면 라이브니스 값이 0%에 가까울수록 해당 안면 템플릿 데이터에 대응되는 안면 이미지가 실제 대상(사용자)이 아닌 사용자 안면이 미리 쵤영된 사진, 영상 및 사용자 안면 형상의 가면 등으로부터 획득되었을 확률이 높음을 나타낼 수 있다.Conversely, the closer the facial liveness value is to 0%, the more likely it is that the facial image corresponding to the facial template data was obtained from a photo, video, or mask of the user's facial shape in advance, rather than from the actual target (user). It can indicate high.

한편, 제2 인공지능 모델(M2)은 안면 이미지의 안면 라이브니스 값을 결정하도록 훈련된 인공지능 모델일 수 있다.Meanwhile, the second artificial intelligence model (M2) may be an artificial intelligence model trained to determine the facial liveness value of the facial image.

이를 위해, 서버(200)는 안면 라이브니스 값을 출력하는 제2 인공지능 모델을 훈련시키는 인공지능 훈련 모듈을 구비할 수 있다.To this end, the server 200 may be equipped with an artificial intelligence training module that trains a second artificial intelligence model that outputs facial liveness values.

구체적으로, 서버(200)는 안면 이미지로부터 생성된 안면 템플릿 데이터 및 안면 템플릿 데이터에 대해 미리 정해진 안면 라이브니스 값으로 구성된 학습 데이터를 이용하여 제2 인공지능 모델(M2)을 학습시킬 수 있다.Specifically, the server 200 may train the second artificial intelligence model (M2) using facial template data generated from facial images and learning data consisting of facial liveness values predetermined for the facial template data.

이를 통해, 서버(200)는 제2 인공지능 모델(M2)에 입력 데이터로써 제2 안면 템플릿 데이터(U-FT)를 입력하고, 제2 인공지능 모델(M2)의 출력 데이터로써 안면 라이브니스 값을 획득할 수 있다.Through this, the server 200 inputs the second facial template data (U-FT) as input data to the second artificial intelligence model (M2), and the facial liveness value as output data of the second artificial intelligence model (M2). can be obtained.

서버(200)는 획득된 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하면 사용자 안면 이미지(U-FI)가 실제 사용자로부터 촬영된 이미지인 것으로 판단하여 사용자 안면 이미지(U-FI)가 라이브니스를 가지는 것으로 판단할 수 있다.If the acquired facial liveness value exceeds the reference facial liveness value, the server 200 determines that the user facial image (U-FI) is an image taken from an actual user, and determines that the user facial image (U-FI) has liveness. It can be judged to have .

반대로, 서버(200)는 획득된 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하지 않으면 사용자 안면 이미지(U-FI)가 실제 사용자로부터 촬영된 이미지가 아닌 것으로 판단하여 사용자 안면 이미지(U-FI)가 라이브니스를 가지지 않는 것으로 판단할 수 있다.Conversely, if the acquired facial liveness value does not exceed the reference facial liveness value, the server 200 determines that the user facial image (U-FI) is not an image taken from an actual user and determines that the user facial image (U-FI) is not an image taken from an actual user. ) can be judged to have no liveness.

서버(200)는 안면 라이브니스 값에 따른 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit a result of determining whether the user's facial image (U-FI) is lively according to the facial liveness value to the electronic device 100.

전자 장치(100)는 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 사용자 안면 이미지(U-FI)가 라이브니스를 가짐을 알리는 메시지를 출력할 수 있다.If the determination result of whether the user's facial image (U-FI) has liveness indicates that the electronic device 100 has liveness, the electronic device 100 may output a message indicating that the user's facial image (U-FI) has liveness. there is.

또한, 전자 장치(100)는 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가짐을 나타내면, 후속되는 신분증 이미지가 나타내는 안면과 사용자 이미지가 나타내는 안면 간의 일치 여부를 판단하는 과정에서 요구되는 이미지, 데이터 및 값을 획득하거나 생성할 수 있다.In addition, if the result of determining whether the user's facial image (U-FI) has liveness indicates that it has liveness, the electronic device 100 determines whether the face represented by the subsequent ID card image matches the face represented by the user image. In the process, required images, data, and values can be acquired or generated.

반대로, 전자 장치(100)는 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면, 사용자 안면 이미지(U-FI)가 라이브니스를 가지지 않음을 알리는 메시지를 출력할 수 있다.Conversely, if the result of determining whether the user's facial image (U-FI) has liveness indicates that the electronic device 100 does not have liveness, the electronic device 100 sends a message indicating that the user's facial image (U-FI) does not have liveness. can be output.

또한, 전자 장치(100)는 사용자 안면 이미지(U-FI)의 라이브니스 여부에 대한 판단 결과가 라이브니스를 가지지 않음을 나타내면 사용자의 안면을 재촬영 요청하는 메시지를 출력하고, 사용자 안면 이미지(U-FI)가 포함된 사용자 이미지(U-I)를 재촬영하며, 제2 안면 템플릿 데이터(U-FT)의 생성을 재수행하여 서버(200)로 송신할 수 있다.In addition, if the determination result of whether the user's facial image (U-FI) has liveness indicates that it does not have liveness, the electronic device 100 outputs a message requesting to re-photograph the user's face, and outputs a message requesting to re-photograph the user's facial image (U-FI). The user image (U-I) including -FI) may be rephotographed, and the second facial template data (U-FT) may be generated again and transmitted to the server 200.

한편, 도 4를 다시 참조하여 단계 S3를 설명하면, 전자 장치(100)는 상술된 신분증 진위 여부의 확인 결과, 진짜인 것으로 확인된 신분증(ID)의 신분증 이미지(ID-I) 내의 신분증 안면 이미지(ID-FI)로부터 복수의 제1 안면 특징점을 추출하고, 복수의 제1 안면 특징점으로 구성된 제1 안면 특징점 데이터를 생성할 수 있다.Meanwhile, referring back to FIG. 4 and explaining step S3, the electronic device 100 may print the facial image of the ID card in the ID image (ID-I) of the ID card (ID) confirmed to be genuine as a result of checking the authenticity of the ID card described above. A plurality of first facial feature points may be extracted from (ID-FI), and first facial feature point data consisting of a plurality of first facial feature points may be generated.

여기서, 복수의 제1 안면 특징점은 신분증 안면 이미지(ID-FI)가 나타내는 안면의 특징에 대한 정보일 수 있다. 예를 들어, 복수의 제1 안면 특징점은 안면 세부 부위(눈꼬리, 입꼬리, 코끝 등) 각각의 좌표 정보, 각 좌표 정보에 대응되는 위치의 단위 이미지의 색상값, 각 좌표 정보에 대응되는 위치의 단위 이미지의 노출값, 각 좌표 정보의 변화값, 각 좌표 정보에 대응되는 이미지의 깊이값(카메라와 객체 간의 거리), 깊이값의 변화값, 색상값의 변화값, 노출값의 변화값을 포함할 수 있다.Here, the plurality of first facial feature points may be information about facial features indicated by the ID facial image (ID-FI). For example, the plurality of first facial feature points include coordinate information for each detailed part of the face (corners of the eyes, corners of the mouth, tip of the nose, etc.), color values of the unit image of the position corresponding to each coordinate information, and unit of the position corresponding to each coordinate information. It may include the exposure value of the image, the change value of each coordinate information, the depth value of the image corresponding to each coordinate information (distance between camera and object), the change value of the depth value, the change value of the color value, and the change value of the exposure value. .

이를 위해, 전자 장치(100)는 사전에 학습된 3D 얼굴 기하 모델을 이용하여 신분증 안면 이미지(ID-FI)로부터 10,000개 이상의 안면 특징점을 추출할 수 있다.To this end, the electronic device 100 can extract more than 10,000 facial feature points from the identification card facial image (ID-FI) using a pre-learned 3D facial geometric model.

전자 장치(100)는 제1 안면 특징점 데이터를 암호화 및 토큰화하여 제1 안면 템플릿 데이터를 생성할 수 있다.The electronic device 100 may generate first facial template data by encrypting and tokenizing the first facial feature point data.

이후, 전자 장치(100)는 제1 안면 템플릿 데이터를 서버(200)로 송신할 수 있다.Thereafter, the electronic device 100 may transmit the first facial template data to the server 200.

도 8은 본 개시의 일 실시예에 따른 서버가 인공지능 모델을 이용하여 두 안면 이미지 각각이 나타내는 안면 간의 안면 일치 값을 획득하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating a process in which a server according to an embodiment of the present disclosure obtains a facial match value between the faces represented by each of the two facial images using an artificial intelligence model.

서버(200)는 전자 장치(100)로부터 제1 안면 템플릿 데이터(ID-FT)를 수신하면, 수신된 제1 안면 템플릿 데이터(ID-FT)와 라이브니스를 가지는 것으로 판단된 제2 안면 템플릿 데이터(U-FT)를 제1 인공지능 모델(M1)에 입력하여, 신분증 안면 이미지(ID-FI)가 나타내는 안면 및 사용자 안면 이미지(U-FI)가 나타내는 제2 안면 간에 안면 일치 값을 획득할 수 있다.When the server 200 receives the first facial template data (ID-FT) from the electronic device 100, the second facial template data determined to have liveness with the received first facial template data (ID-FT) (U-FT) is input into the first artificial intelligence model (M1) to obtain a facial match value between the face represented by the ID card face image (ID-FI) and the second face represented by the user face image (U-FI). You can.

여기서, 안면 일치 여부는 두 안면 이미지가 각각 나타내는 안면이 동일한 안면인지를 나타내는 것으로써, 안면 일치 값은 두 안면 이미지가 각각 나타내는 안면이 동일한 정도를 나타내는 값일 수 있다.Here, face matching indicates whether the faces represented by the two facial images are the same face, and the facial matching value may be a value representing the degree to which the faces represented by the two facial images are the same.

예를 들어, 안면 일치 값이 100%에 가까울수록 두 안면 이미지가 각각 나타내는 안면이 동일한 안면일 확률이 높음을 나타낼 수 있다.For example, the closer the face matching value is to 100%, the higher the probability that the faces represented by the two facial images are the same face.

반대로, 안면 일치 값이 0%에 가까울수록 두 안면 이미지가 각각 나타내는 안면이 동일하지 않은 안면일 확률이 높음을 나타낼 수 있다.Conversely, the closer the face matching value is to 0%, the higher the probability that the face represented by the two facial images is not the same.

한편, 제1 인공지능 모델(M1)은 안면 이미지의 안면 일치 값을 결정하도록 훈련된 인공지능 모델일 수 있다.Meanwhile, the first artificial intelligence model (M1) may be an artificial intelligence model trained to determine the facial match value of the facial image.

이를 위해, 서버(200)는 안면 일치 값을 출력하는 제1 인공지능 모델을 훈련시키는 인공지능 훈련 모듈을 구비할 수 있다.To this end, the server 200 may be equipped with an artificial intelligence training module that trains a first artificial intelligence model that outputs facial match values.

구체적으로, 서버(200)는 두 안면 이미지로부터 각각 생성된 안면 템플릿 데이터 및 두 안면 이미지에 대해 미리 정해진 안면 일치 값으로 구성된 학습 데이터를 이용하여 제1 인공지능 모델(M1)을 학습시킬 수 있다.Specifically, the server 200 may train the first artificial intelligence model (M1) using facial template data generated from each of the two facial images and learning data consisting of predetermined facial matching values for the two facial images.

이를 통해, 서버(200)는 제1 인공지능 모델(M1)에 입력 데이터로써 제1 안면 템플릿 데이터(ID-FT) 및 제2 안면 템플릿 데이터(U-FT)를 입력하고, 제1 인공지능 모델(M1)의 출력 데이터로써 안면 일치 값을 획득할 수 있다.Through this, the server 200 inputs the first facial template data (ID-FT) and the second facial template data (U-FT) as input data to the first artificial intelligence model (M1), and the first artificial intelligence model (M1) The face matching value can be obtained using the output data of (M1).

서버(200)는 획득된 안면 일치 값이 기준 안면 일치 값을 초과하면 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면이 동일 즉, 일치하는 것으로 판단할 수 있다.If the obtained face match value exceeds the reference face match value, the server 200 determines that the face represented by the identification card face image (ID-FI) and the face represented by the user face image (U-FI) are the same, that is, they match. You can.

반대로, 서버(200)는 획득된 안면 일치 값이 기준 안면 일치 값을 초과하지 않으면 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면이 동일하지 않는 즉, 불일치하는 것으로 판단할 수 있다.Conversely, if the obtained face match value does not exceed the reference face match value, the server 200 determines that the face represented by the identification card face image (ID-FI) and the face represented by the user face image (U-FI) are not the same, that is, It can be judged as inconsistent.

서버(200)는 안면 일치 값에 따른 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면 간의 일치 여부에 대한 판단 결과를 전자 장치(100)로 송신할 수 있다.The server 200 may transmit to the electronic device 100 a determination result regarding whether the face represented by the identification card face image (ID-FI) matches the face represented by the user face image (U-FI) according to the face match value. there is.

전자 장치(100)는 안면 일치 값에 따른 신분증 안면 이미지(ID-FI)가 나타내는 안면과 사용자 안면 이미지(U-FI)가 나타내는 안면 간의 일치 여부에 대한 판단 결과를 메시지로 출력할 수 있다.The electronic device 100 may output a message as a result of determining whether the face represented by the identification card face image (ID-FI) matches the face represented by the user face image (U-FI) according to the face match value.

단계 S4를 설명하면, 서버(200)는 안면 일치 값 및 안면 라이브니스 값에 기초하여 신분증의 신원이 사용자인지를 판단하는 사용자 본인 인증을 수행할 수 있다.Describing step S4, the server 200 may perform user identity authentication to determine whether the identity of the ID card is the user based on the facial match value and the facial liveness value.

또한, 서버(200)는 신분증 진위 정보에 더 기초하여 신분증의 신원이 사용자인지를 판단하는 사용자 본인 인증을 수행할 수 있다.Additionally, the server 200 may perform user identity authentication to determine whether the identity of the ID card is the user based on the authenticity information of the ID card.

구체적으로, 서버(200)는 S1 단계에서 촬영된 신분증이 신분증 발급 기관에서 발급된 신분증이며 위조 신분증이 아님이 확인되고, S2 단계에서 사용자 안면 이미지가 라이브니스를 가지는 것으로 판단되고, S3 단계에서 신분증 안면 이미지의 안면과 사용자 안면 이미지의 안면이 일치하는 것으로 판단되면 신분증의 신원이 사용자인 것으로 판단하여 사용자 본인 인증을 수행할 수 있다.Specifically, in step S1, the server 200 confirms that the photographed ID card is an ID card issued by an ID issuing agency and is not a counterfeit ID card, in step S2, it is determined that the user's facial image has liveness, and in step S3, the ID card is confirmed to be a fake ID card. If it is determined that the face in the facial image matches the face in the user's facial image, it is determined that the identity of the ID card is the user, and user identity authentication can be performed.

이때, 서버(200)는 S1 단계를 생략하고, S2 단계에서 사용자 안면 이미지가 라이브니스를 가지는 것으로 판단되고, S3 단계에서 신분증 안면 이미지의 안면과 사용자 안면 이미지의 안면이 일치하는 것으로 판단되면 신분증의 신원이 사용자인 것으로 판단하여 사용자 본인 인증을 수행할 수도 있다.At this time, the server 200 omits step S1, and in step S2, if it is determined that the user's facial image has liveness, and if it is determined that the face of the ID card's facial image and the face of the user's facial image match in step S3, the ID card User identity authentication may be performed by determining that the identity is that of the user.

서버(200)는 수행된 사용자 본인 인증 결과를 전자 장치(100)로 송신하고, 전자 장치(100)는 수신된 사용자 본인 인증 결과를 메시지로 출력할 수 있다.The server 200 transmits the user identity authentication result to the electronic device 100, and the electronic device 100 may output the received user identity authentication result as a message.

또한, 서버(200)는 수행된 사용자 본인 인증 결과를 인증 요청 서버로 송신할 수 있다. 인증 요청 서버는 사용자에 대해 사용자 본인 인증을 요청한 주체가 운영하는 서버일 수 있다. 예를 들어, 인증 요청 서버는 금융사 서버일 수 있다.Additionally, the server 200 may transmit the result of the user identity authentication to the authentication request server. The authentication request server may be a server operated by an entity that has requested user identity authentication. For example, the authentication request server may be a financial company server.

한편, 다른 실시 예에 따른 전자 장치(100)는 사용자 본인 인증을 시도하는 사용자의 위치 정보를 획득하고, 획득된 사용자의 위치 정보를 서버(200)로 송신할 수 있다.Meanwhile, the electronic device 100 according to another embodiment may acquire location information of a user attempting to authenticate the user and transmit the acquired location information of the user to the server 200.

이후, 다른 실시 예에 따른 서버(100)는 신분증 정보 중에서 주소 정보가 나타내는 주소의 위치에 대응되는 국가 정보를 확인할 수 있다.Thereafter, the server 100 according to another embodiment may check country information corresponding to the location of the address indicated by the address information among the ID information.

이후, 다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는지 여부를 판단할 수 있다.Thereafter, the server 100 according to another embodiment may determine whether the user's location indicated by the location information is included in the country indicated by the country information.

이를 위해, 다른 실시 예에 따른 서버(100)는 국가 별 영역 정보 및 국가 별 주소 정보를 미리 참조 데이터를 획득해둘 수 있다.To this end, the server 100 according to another embodiment may obtain reference data in advance such as area information for each country and address information for each country.

다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는 경우에만 상술된 안면 일치 여부 판단(S3 단계) 및 사용자 본인 인증(S4 단계)을 수행할 수 있다.The server 100 according to another embodiment may perform the above-described facial match determination (step S3) and user identity authentication (step S4) only when the user's location indicated by the location information is within the country indicated by the country information. there is.

이에 따라, 다른 실시 예에 따른 서버(100)는 신분증 진위 여부 확인(S1 단계)을 수행한 이후, 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는지 여부를 판단할 수 있다.Accordingly, the server 100 according to another embodiment may determine whether the user's location indicated by the location information is within the country indicated by the country information after confirming the authenticity of the ID card (step S1).

이후, 다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되지 않는 경우, 상술된 안면 일치 여부 판단(S3 단계) 및 사용자 본인 인증(S4 단계)을 수행하지 않을 수 있다.Thereafter, if the user's location indicated by the location information is not included in the country indicated by the country information, the server 100 according to another embodiment determines whether the face matches described above (step S3) and authenticates the user's identity (step S4). It may not be performed.

반대로, 다른 실시 예에 따른 서버(100)는 위치 정보가 나타내는 사용자의 위치가 국가 정보가 나타내는 국가 내에 포함되는 경우, 상술된 안면 일치 여부 판단(S3 단계) 및 사용자 본인 인증(S4 단계)을 수행할 수 있다.Conversely, when the user's location indicated by the location information is within the country indicated by the country information, the server 100 according to another embodiment performs the above-described facial match determination (step S3) and user identity authentication (step S4). can do.

한편, 또 다른 실시 예에 따른 서버(100)는 주소 정보가 나타내는 주소의 위치와 위치 정보가 나타내는 사용자의 위치 간의 이격 거리에 기초하여 기준 안면 일치 값 및 기준 안면 라이브니스 값 중 하나 이상을 보정할 수 있다.Meanwhile, the server 100 according to another embodiment may correct one or more of the reference face match value and the reference face liveness value based on the separation distance between the location of the address indicated by the address information and the user's location indicated by the location information. You can.

구체적으로, 또 다른 실시 예에 따른 서버(100)는 이격 거리가 길수록 기준 안면 일치 값 및 기준 안면 라이브니스 값 중 하나 이상이 상향되도록 보정할 수 있다.Specifically, the server 100 according to another embodiment may correct one or more of the reference face matching value and the reference face liveness value to increase as the separation distance increases.

이를 통해, 주소의 위치와 사용자의 위치가 먼 경우, 인증의 난도를 높혀 보안성을 향상시킬 수 있다.Through this, when the location of the address is far from the location of the user, security can be improved by increasing the difficulty of authentication.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with embodiments of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

또한, 본 발명의 서로 다른 실시예들은 상호 보완되거나 결합될 수 있다.Additionally, different embodiments of the present invention may complement or be combined with each other.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in conjunction with a hardware computer. Components of the invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as combinations of data structures, processes, routines or other programming constructs, such as C, C++, , it can be implemented in a programming or scripting language such as Java, assembler, Python, etc. Functional aspects may be implemented as algorithms running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

100 : 전자 장치
200 : 서버
100: electronic device
200: server

Claims (1)

전자 장치 및 서버를 포함하는 시스템의 제어 방법에 있어서,
상기 전자 장치가, 신분증을 촬영하여 생성된 신분증 이미지 내의 신분증 안면 이미지로부터 제1 안면 템플릿 데이터를 생성하는 단계;
상기 전자 장치가, 사용자를 촬영하여 생성된 사용자 이미지 내의 사용자 안면 이미지로부터 제2 안면 템플릿 데이터를 생성하는 단계;
상기 서버가, 두 안면 이미지 각각이 나타내는 안면 간에 안면 일치 값을 결정하도록 훈련된 제1 인공지능 모델에 상기 제1 안면 템플릿 데이터 및 상기 제2 안면 템플릿 데이터를 입력하여, 상기 신분증 안면 이미지가 나타내는 안면 및 상기 사용자 안면 이미지가 나타내는 안면 간에 안면 일치 값을 획득하는 단계;
상기 서버가, 안면 이미지의 안면 라이브니스 값을 결정하도록 훈련된 제2 인공지능 모델에 상기 제2 안면 템플릿 데이터를 입력하여, 상기 사용자 안면 이미지의 안면 라이브니스 값을 획득하는 단계; 및
상기 서버가, 상기 안면 일치 값 및 상기 안면 라이브니스 값에 기초하여 상기 신분증의 신원이 상기 사용자인지를 판단하는 사용자 본인 인증을 수행하는 단계;를 포함하고,
상기 제1 안면 템플릿 데이터를 생성하는 단계는,
상기 전자 장치가, 상기 신분증 안면 이미지로부터 복수의 제1 안면 특징점을 추출하여 제1 안면 특징점 데이터를 생성하는 단계; 및
상기 전자 장치가, 상기 제1 안면 특징점 데이터를 암호화 및 토큰화하여 상기 제1 안면 템플릿 데이터를 생성하는 단계;를 포함하고,
상기 복수의 제1 안면 특징점은
상기 신분증 안면 이미지가 나타내는 안면에 대한 안면 세부 부위 각각의 제1 좌표 정보, 상기 제1 좌표 정보 각각에 대응되는 단위 이미지들의 색상값, 상기 제1 좌표 정보 각각에 대응되는 단위 이미지들의 노출값을 포함하고,
상기 제2 안면 템플릿 데이터를 생성하는 단계는,
상기 전자 장치가, 상기 사용자 안면 이미지로부터 복수의 제2 안면 특징점을 추출하여 제2 안면 특징점 데이터를 생성하는 단계; 및
상기 전자 장치가, 상기 제2 안면 특징점 데이터를 암호화 및 토큰화하여 상기 제2 안면 템플릿 데이터를 생성하는 단계;를 포함하고,
상기 복수의 제2 안면 특징점은
상기 사용자 안면 이미지가 나타내는 안면에 대한 안면 세부 부위 각각의 제2 좌표 정보, 상기 제2 좌표 정보 각각에 대응되는 단위 이미지들의 색상값, 상기 제2 좌표 정보 각각에 대응되는 단위 이미지들의 노출값, 상기 제2 좌표 정보 각각에 대응되는 단위 이미지들의 깊이값을 포함하고,
상기 깊이값은
상기 사용자 안면 이미지가 나타내는 안면의 안면 세부 부위인 객체와 카메라 간의 거리이고,
상기 시스템의 제어 방법은, 상기의 제1 안면 템플릿 데이터를 생성하는 단계 이전에,
상기 서버가, 두 안면 이미지로부터 각각 생성된 안면 템플릿 데이터 및 두 안면 이미지에 대해 미리 정해진 안면 일치 값으로 구성된 학습 데이터를 이용하여 상기 제1 인공지능 모델을 학습시키는 단계; 및
상기 서버가, 안면 이미지로부터 생성된 안면 템플릿 데이터 및 안면 템플릿 데이터에 대해 미리 정해진 안면 라이브니스 값으로 구성된 학습 데이터를 이용하여 상기 제2 인공지능 모델을 학습시키는 단계;를 더 포함하고,
상기 사용자 본인 인증을 수행하는 단계는,
상기 서버가, 상기 안면 일치 값이 기준 안면 일치 값을 초과하는지 여부를 판단하는 단계;
상기 서버가, 상기 안면 라이브니스 값이 기준 안면 라이브니스 값을 초과하는지 여부를 판단하는 단계; 및
상기 서버가, 상기 안면 일치 값이 상기 기준 안면 일치 값을 초과하고, 상기 안면 라이브니스 값이 상기 기준 안면 라이브니스 값을 초과하면, 상기 신분증의 신원이 상기 사용자인 것으로 판단하는 단계;를 포함하고,
상기 시스템의 제어 방법은, 상기의 제1 인공지능 모델을 학습시키는 단계 및 상기 제2 인공지능 모델을 학습시키는 단계 이후부터 하기의 신분증 진위 정보를 상기 전자 장치로 송신하는 단계 이전에,
상기 전자 장치 또는 상기 서버가, 상기 신분증 이미지로부터 문자를 인식하여 신분증 정보를 생성하는 단계;
상기 서버가, 상기 신분증 정보에 기초하여 확인 기관 서버에 상기 신분증의 진위 여부를 확인 요청하는 단계; 및
상기 서버가, 상기 확인 기관 서버로부터 상기 확인 요청의 응답으로 상기 신분증의 진위 여부를 나타내는 신분증 진위 정보를 수신하는 단계;를 더 포함하고,
상기 확인 기관 서버는
상기 신분증을 발급한 기관이 상기 신분증의 진위 여부에 대한 확인 결과를 제공하기 위해 운영하는 서버이고,
상기 시스템의 제어 방법은 상기의 신분증 진위 정보를 수신하는 단계 이후부터 상기의 제1 안면 템플릿 데이터를 생성하는 단계 이전에,
상기 서버가 수신된 상기 신분증 진위 정보를 상기 전자 장치로 송신하는 단계;를 더 포함하고,
상기 사용자 본인 인증을 수행하는 단계는
상기 서버가, 상기 사용자 본인 인증의 결과를 상기 전자 장치로 송신하는 단계;를 포함하는, 시스템의 제어 방법.
In a method of controlling a system including an electronic device and a server,
generating, by the electronic device, first facial template data from a facial image of an ID card in an ID image generated by photographing an ID card;
generating, by the electronic device, second facial template data from a user facial image in a user image generated by photographing the user;
The server inputs the first facial template data and the second facial template data into a first artificial intelligence model trained to determine a facial match value between the faces represented by each of the two facial images, so that the face represented by the ID card facial image and obtaining a facial match value between faces represented by the user's facial image;
obtaining, by the server, the facial liveness value of the user's facial image by inputting the second facial template data to a second artificial intelligence model trained to determine the facial liveness value of the facial image; and
A step of performing, by the server, user identity authentication to determine whether the identity of the identification card is the user based on the facial match value and the facial liveness value,
The step of generating the first facial template data includes,
extracting, by the electronic device, a plurality of first facial feature points from the facial image of the ID card to generate first facial feature point data; and
A step of generating, by the electronic device, the first facial template data by encrypting and tokenizing the first facial feature point data,
The plurality of first facial feature points are
Includes first coordinate information for each facial detail part of the face represented by the ID card facial image, color values of unit images corresponding to each of the first coordinate information, and exposure values of unit images corresponding to each of the first coordinate information; ,
The step of generating the second facial template data is,
Extracting, by the electronic device, a plurality of second facial feature points from the user's facial image to generate second facial feature point data; and
A step of generating, by the electronic device, the second facial template data by encrypting and tokenizing the second facial feature point data,
The plurality of second facial feature points are
Second coordinate information for each facial detail part of the face represented by the user's facial image, color values of unit images corresponding to each of the second coordinate information, exposure values of unit images corresponding to each of the second coordinate information, and the first coordinate information. 2 Contains depth values of unit images corresponding to each piece of coordinate information,
The depth value is
It is the distance between the camera and the object that is the facial detail part of the face represented by the user's facial image,
The control method of the system includes, prior to generating the first facial template data,
The server training the first artificial intelligence model using facial template data generated from two facial images and learning data consisting of predetermined facial matching values for the two facial images; and
The server further includes training the second artificial intelligence model using facial template data generated from facial images and learning data consisting of facial liveness values predetermined for the facial template data,
The step of performing the user identity authentication is,
determining, by the server, whether the face match value exceeds a reference face match value;
determining, by the server, whether the facial liveness value exceeds a reference facial liveness value; and
and determining, by the server, that the identity of the ID card is the user when the face match value exceeds the reference face match value and the face liveness value exceeds the reference face liveness value. ,
The control method of the system includes, after the step of training the first artificial intelligence model and the step of training the second artificial intelligence model, before the step of transmitting the following ID authenticity information to the electronic device,
generating, by the electronic device or the server, identification information by recognizing characters from the identification image;
requesting, by the server, to confirm the authenticity of the ID card to a verification agency server based on the ID information; and
It further includes the step of receiving, by the server, identification information indicating authenticity of the identification card in response to the verification request from the verification agency server,
The verification agency server is
It is a server operated by the organization that issued the ID card to provide verification results regarding the authenticity of the ID card,
The control method of the system includes the steps of receiving the identity card authenticity information and before the step of generating the first facial template data,
It further includes the step of the server transmitting the received identity card authenticity information to the electronic device,
The steps for performing the user identity authentication are:
A method of controlling a system comprising: transmitting, by the server, a result of the user identity authentication to the electronic device.
KR1020230020858A 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data KR102640356B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230020858A KR102640356B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220113011A KR102502685B1 (en) 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness
KR1020230020858A KR102640356B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220113011A Division KR102502685B1 (en) 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness

Publications (1)

Publication Number Publication Date
KR102640356B1 true KR102640356B1 (en) 2024-02-26

Family

ID=85329945

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220113011A KR102502685B1 (en) 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness
KR1020230020858A KR102640356B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data
KR1020230020859A KR102640357B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using color, exposure and depth value of facial image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220113011A KR102502685B1 (en) 2022-09-06 2022-09-06 Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230020859A KR102640357B1 (en) 2022-09-06 2023-02-16 Control method of system for non-face-to-face identification using color, exposure and depth value of facial image

Country Status (2)

Country Link
KR (3) KR102502685B1 (en)
WO (1) WO2024053932A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102502685B1 (en) * 2022-09-06 2023-02-23 페이스피에이팍 유한회사 Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness
KR102646405B1 (en) * 2023-12-26 2024-03-11 보이스아이 주식회사 Identification method using face and fingerprint

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220067918A (en) * 2020-11-18 2022-05-25 한국전자통신연구원 Apparatus and Method for Face Authentication using Digital ID
KR20220074147A (en) * 2020-11-27 2022-06-03 주식회사 유스비 System and method for non-face-to-face identification kyc solution
KR20220081476A (en) 2020-12-09 2022-06-16 도시공유플랫폼 주식회사 Abnormal behavior sensing system for user authentication with artificial intelligent camera

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10693872B1 (en) * 2019-05-17 2020-06-23 Q5ID, Inc. Identity verification system
KR102213445B1 (en) * 2020-06-02 2021-02-05 주식회사 카카오뱅크 Identity authentication method using neural network and system for the method
KR102324779B1 (en) * 2021-06-17 2021-11-11 주식회사 큐버모티브 User authentication system
KR102502685B1 (en) * 2022-09-06 2023-02-23 페이스피에이팍 유한회사 Control method of electronic apparatus, server and system for non-face-to-face identification using facial recognition and liveness

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220067918A (en) * 2020-11-18 2022-05-25 한국전자통신연구원 Apparatus and Method for Face Authentication using Digital ID
KR20220074147A (en) * 2020-11-27 2022-06-03 주식회사 유스비 System and method for non-face-to-face identification kyc solution
KR20220081476A (en) 2020-12-09 2022-06-16 도시공유플랫폼 주식회사 Abnormal behavior sensing system for user authentication with artificial intelligent camera

Also Published As

Publication number Publication date
KR102640357B1 (en) 2024-02-27
WO2024053932A1 (en) 2024-03-14
KR102502685B1 (en) 2023-02-23

Similar Documents

Publication Publication Date Title
US11973877B2 (en) Systems and methods for secure tokenized credentials
US11936647B2 (en) Identity verification method and apparatus, storage medium, and computer device
KR102640356B1 (en) Control method of system for non-face-to-face identification using artificial intelligence model leareed with face template data
US11893099B2 (en) Systems and methods for dynamic passphrases
EP3528156B1 (en) Virtual reality environment-based identity authentication method and apparatus
AU2023204300A1 (en) Methods and Systems for Capturing Biometric Data
CN112528259B (en) Identity verification method, device, computer equipment and storage medium
WO2021038298A2 (en) Id verification with a mobile device
US20210342850A1 (en) Verifying user identities during transactions using identification tokens that include user face data
CN106709418B (en) Face identification method and identification device based on scene photograph and certificate photo
US20230084897A1 (en) Registration and payment method, device, and system using face information
JP2022105583A (en) Face living body detection method and device, electronic equipment, storage medium, and computer program
KR102594999B1 (en) System and method for non-face-to-face identification kyc solution having excellent security
JPWO2020022034A1 (en) Information processing equipment, information processing methods and information processing programs
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
WO2020019456A1 (en) User instruction matching method and device, computer device and storage medium
KR102640358B1 (en) Control method of system for non-face-to-face identification based artificial intelligence model
CN113762969A (en) Information processing method, information processing device, computer equipment and storage medium
WO2021131059A1 (en) Authentication system, authentication device, authentication method, and program
US11527087B1 (en) Mobile application for automatic identification enrollment using information synthesis and biometric liveness detection
KR102508876B1 (en) Non-face-to-face Authentication System for Fintech service Using AI-based Facial Recognition Algorithm and Method thereof
WO2023274933A1 (en) Method and system for automatic proofing of a remote recording
CA3103484A1 (en) Systems and methods for dynamic passphrases
CN116824314A (en) Information acquisition method and system

Legal Events

Date Code Title Description
GRNT Written decision to grant