KR20220018230A - Method for monitoring authentication based on video call using neural network and system for the method - Google Patents

Method for monitoring authentication based on video call using neural network and system for the method Download PDF

Info

Publication number
KR20220018230A
KR20220018230A KR1020200098479A KR20200098479A KR20220018230A KR 20220018230 A KR20220018230 A KR 20220018230A KR 1020200098479 A KR1020200098479 A KR 1020200098479A KR 20200098479 A KR20200098479 A KR 20200098479A KR 20220018230 A KR20220018230 A KR 20220018230A
Authority
KR
South Korea
Prior art keywords
image
neural network
data
face
counseling
Prior art date
Application number
KR1020200098479A
Other languages
Korean (ko)
Other versions
KR102529552B1 (en
Inventor
정기수
Original Assignee
주식회사 카카오뱅크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카카오뱅크 filed Critical 주식회사 카카오뱅크
Priority to KR1020200098479A priority Critical patent/KR102529552B1/en
Publication of KR20220018230A publication Critical patent/KR20220018230A/en
Application granted granted Critical
Publication of KR102529552B1 publication Critical patent/KR102529552B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

As a method for monitoring authentication based on a video call using a neural network, the present invention may comprise: a step of receiving a facial image or an identification image of a user; a step of receiving the consultation data of a consultant for a non-face-to-face authentication during a video call; a step of calculating a prediction result for an existence probability per identification element included in the received facial image or identification image through the neural network; a step of comparing the calculated prediction result with the consultation data of the consultant; and a step of requesting inspection of the consultation data according to the comparison result. According to the present invention, an authentication rate of the non-face-to-face authentication using the non-face-to-face-based video call and a quality of the consultation work can be improved by monitoring the consultation contents in real-time while the consultation work of the consultant is in progress.

Description

신경망을 이용한 영상통화 기반의 인증 모니터링 방법 및 시스템{Method for monitoring authentication based on video call using neural network and system for the method}Video call-based authentication monitoring method and system using a neural network {Method for monitoring authentication based on video call using neural network and system for the method}

본 발명은 영상통화 신경망을 이용한 영상통화 기반의 인증 모니터링 방법에 관한 것으로, 신경망을 통해 영상통화 상담원들의 상담 업무를 모니터링하는 방법에 관한 것이다.The present invention relates to a method for monitoring authentication based on a video call using a video call neural network, and to a method for monitoring the consulting work of video call counselors through a neural network.

최근에는 이동통신단말기, 특히 스마트폰과 모바일 통신 기술의 발달에 힘입어 모바일 어플리케이션을 통해 과거에 오프라인을 통해 수행하던 기능을 언제 어디서나 간편하고 편리하게 이용할 수 있다.In recent years, thanks to the development of mobile communication terminals, particularly smartphones and mobile communication technologies, functions that were previously performed offline can be conveniently and conveniently used anytime, anywhere through mobile applications.

특히, 최근 들어 사용자의 편의성을 향상시키는 측면에서 어플리케이션을 통해 금융 업무까지 비대면(非對面)으로 처리하는 기술이 개발되어 서비스되고 있으며 비대면 신분 인증은 상담원과의 영상통화를 통해 본인 확인이 이루어지는 방식으로 수행된다.In particular, in recent years, in terms of improving user convenience, a technology for non-face-to-face processing of financial business through applications has been developed and provided. done in a way

이러한 영상통화를 이용한 안면 인면인증의 인증의 품질은 영상을 통해 직접 육안으로 동일인 여부를 확인해야하는 상담원에 의존적일수 밖에 없다. 따라서, 정확한 본인 확인과 높은 상담 품질을 유지하기 위해서 비대면 기반의 서비스를 제공하는 서비스 주체는 상담원들을 별도로 평가하거나 관리할 수 있는 프로세스를 구축할 필요가 있다.The quality of the authentication of face-to-face authentication using such a video call is inevitably dependent on the agent who has to check whether the person is the same person directly through the video. Therefore, in order to maintain accurate identification and high quality of counseling, the service subject providing non-face-to-face services needs to establish a process for separately evaluating or managing counselors.

하지만, 영상통화의 상담과정은 진행 중에 정량적으로 평가가 어렵기 때문에 품질의 객관적인 평가가 어려운 점이 있으며, 영상통화를 통한 상담이 이루어진 후 상담에 이용된 샘플을 추출하여 검수하거나 또는 사용자의 피드백을 통해서 평가하는 간접적인 방식들이 이용되고 있다.However, since the consultation process of video call is difficult to quantitatively evaluate during the process, it is difficult to objectively evaluate the quality. Indirect methods of evaluation are being used.

따라서, 정량적으로 상담원의 영상통화 상담행위를 모니터링하고 품질을 객관적으로 평가함으로써 비대면 방식의 서비스 품질을 높일 수 있는 방법이 요구되고 있다. Therefore, there is a need for a method to increase the service quality of the non-face-to-face method by quantitatively monitoring the counselor's video call counseling behavior and objectively evaluating the quality.

본 발명은 신경망을 통해 상담원의 영상통화 상담 내용을 평가하고, 모니터링하는 방법을 제안하는 것을 목적으로 한다.An object of the present invention is to propose a method for evaluating and monitoring the contents of a video call consultation of a counselor through a neural network.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 영상통화 기반의 인증 모니터링 방법은 사용자의 안면 이미지 또는 신분증 이미지를 수신하는 단계; 상기 영상통화 중 비대면 인증에 대한 상담원의 상담 데이터를 수신하는 단계; 신경망을 통해 상기 수신된 안면 이미지 또는 신분증 이미지에 포함된 식별 요소 별 존재 확률에 대한 예측 결과를 산출하는 단계; 상기 산출된 예측 결과와 상기 상담원의 상담 데이터를 비교하는 단계; 및 비교 결과에 따라 상기 상담 데이터의 검수를 요청하는 단계를 포함한다.A video call-based authentication monitoring method according to the present invention for solving the above technical problem comprises the steps of: receiving a user's face image or ID image; receiving counseling data of a counselor for non-face-to-face authentication during the video call; calculating a prediction result for each identification element included in the received facial image or ID image through a neural network; comparing the calculated prediction result with the counselor's counseling data; and requesting the examination of the consultation data according to the comparison result.

상기 식별 요소는 상기 사용자의 비대면 인증을 위해 판단되는 미리 결정된 항목 또는 항목 별 척도로 구분되는 이미지 상의 특징 정보인 것이 바람직하다.Preferably, the identification element is a predetermined item determined for non-face-to-face authentication of the user or feature information on an image divided by a scale for each item.

상기 신경망은 기 검증된 상담 데이터를 기준으로 레이블링 된 이미지를 학습 데이터로 이용하여 학습된 것이 바람직하다.It is preferable that the neural network is trained using an image labeled based on the verified counseling data as learning data.

상기 상담 데이터는 상기 안면 이미지 또는 상기 신분증 이미지에 포함된 식별 요소들의 존재 여부에 대한 상담원의 수기 작성된 메타 정보인 것이 바람직하다.The counseling data may be handwritten meta-information of a counselor regarding the existence of identification elements included in the face image or the ID image.

상기 검수 요청에 따라 상기 상담 데이터와 상기 예측 결과를 검수하는 단계; 및 상기 검수 결과 상기 신경망을 통해 산출된 예측 결과가 부정확하다고 판단된 경우, 상기 상담 데이터를 기준으로 레이블링 된 상기 안면 이미지 또는 상기 신분증 이미지를 학습데이터로 상기 신경망을 학습시키는 단계를 더 포함한다.examining the consultation data and the prediction result according to the verification request; and when it is determined that the prediction result calculated through the neural network is inaccurate as a result of the inspection, learning the neural network using the facial image or the ID image labeled based on the counseling data as training data.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 신경망을 이용한 영상통화 기반의 인증 모니터링을 수행하는 상담 서버는 사용자의 안면 이미지 또는 신분증 이미지, 및 상기 영상통화 중 비대면 인증에 대한 상담원의 상담 데이터를 수신하는 통신부; 신경망을 통해 상기 수신된 안면 이미지 또는 신분증 이미지에 포함된 식별 요소 별 존재 확률에 대한 예측 결과를 산출하는 예측 결과 산출부; 상기 산출된 예측 결과와 상기 상담원의 상담 데이터를 비교하는 비교부; 및 비교 결과에 따라 상기 상담 데이터의 검수를 요청하는 검수 요청부를 포함한다.A consultation server for performing authentication monitoring based on a video call using a neural network according to the present invention for solving the above technical problem receives the user's face image or ID image, and the counselor's consultation data for non-face-to-face authentication during the video call communication department; a prediction result calculation unit for calculating a prediction result for the existence probability of each identification element included in the received facial image or ID image through a neural network; a comparison unit comparing the calculated prediction result with the counselor's counseling data; and an inspection request unit for requesting inspection of the consultation data according to the comparison result.

상기 식별 요소는 상기 사용자의 비대면 인증을 위해 판단되는 미리 결정된 항목 또는 항목 별 척도로 구분되는 이미지 상의 특징 정보인 것이 바람직하다.Preferably, the identification element is a predetermined item determined for non-face-to-face authentication of the user or feature information on an image divided by a scale for each item.

상기 신경망은 기 검증된 상담 데이터를 기준으로 레이블링 된 이미지를 학습 데이터로 이용하여 학습된 것이 바람직하다.It is preferable that the neural network is trained using an image labeled based on the verified counseling data as learning data.

상기 상담 데이터는 상기 안면 이미지 또는 상기 신분증 이미지에 포함된 식별 요소들의 존재 여부에 대한 상담원의 수기 작성된 메타 정보인 것이 바람직하다.The counseling data may be handwritten meta-information of a counselor regarding the existence of identification elements included in the face image or the ID image.

상기 검수 요청에 따라 상기 상담 데이터와 상기 예측 결과를 검수하는 검수부; 및 상기 검수 결과 상기 신경망을 통해 산출된 예측 결과가 부정확하다고 판단된 경우, 상기 상담 데이터를 기준으로 레이블링 된 상기 안면 이미지 또는 상기 신분증 이미지를 학습데이터로 상기 신경망을 학습시키는 학습부를 더 포함한다.an inspection unit that inspects the consultation data and the prediction result according to the inspection request; And when it is determined that the prediction result calculated through the neural network is inaccurate as a result of the inspection, a learning unit for learning the neural network using the face image or the ID image labeled based on the counseling data as learning data.

본 발명에 따르면 상담원의 상담 업무를 진행 중에 실시간으로 상담 내용을 모니터링하여 비대면 기반의 영상통화를 이용한 비대면 인증의 인증율과 상담 업무의 품질을 높일 수 있다. According to the present invention, the authentication rate of non-face-to-face authentication using non-face-to-face video call and the quality of counseling service can be improved by monitoring the counseling contents in real time while the counselor's counseling service is in progress.

또한, 본 발명에 따르면 신경망을 이용하여 재 검수가 필요한 검수 대상을 줄이고, 검수 대상에 대해서만 보다 까다로운 절차의 검증을 수행함으로 비대면 인증의 효율과 정확도를 모두 높일 수 있다.In addition, according to the present invention, both the efficiency and accuracy of non-face-to-face authentication can be increased by reducing the number of inspection targets that require re-examination by using a neural network, and performing verification of a more difficult procedure only for the inspection target.

또한, 본 발명은 신경망을 이용하여 정량적 지표로 나타나는 식별 요소로 인증 과정을 객관화함으로써 상담원의 상담 품질을 보다 정확히 평가할 수 있다.In addition, the present invention can more accurately evaluate the counseling quality of a counselor by objectifying the authentication process as an identification element expressed as a quantitative indicator using a neural network.

또한, 상담 업무 중의 신경망의 출력과 실제 상담원의 판단 내용을 비교하여 신경망을 추가로 학습시킴으로써 신경망의 예측 성능을 지속적으로 높일 수 있다.In addition, the prediction performance of the neural network can be continuously improved by additionally learning the neural network by comparing the output of the neural network during the counseling service with the actual agent's judgment.

도 1은 본 발명의 일 실시예에 따른 상담 모니터링 시스템을 나타낸 예시도이다.
도 2는 본 발명의 일 실시예에 따른 상담 서버의 신경망을 이용한 영상통화 기반의 인증 모니터링 방법을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 상담 데이터를 예시하는 도이다.
도 4는 본 발명의 일 실시예에 따른 신경망의 구성을 나타낸 도이다.
도 5는 본 발명의 일 실시예에 따른 복수의 신경망을 통한 구현 예를 나타내는 도이다.
도 6은 본 발명의 일 실시예에 따른 상담 모니터링 시스템을 나타낸 예시도이다.
도 7은 본 발명의 일 실시예에 따른 상담 서버의 구성을 나타낸 블록도이다.
1 is an exemplary diagram illustrating a counseling monitoring system according to an embodiment of the present invention.
2 is a flowchart illustrating a video call-based authentication monitoring method using a neural network of a counseling server according to an embodiment of the present invention.
3 is a diagram illustrating counseling data according to an embodiment of the present invention.
4 is a diagram showing the configuration of a neural network according to an embodiment of the present invention.
5 is a diagram illustrating an implementation example through a plurality of neural networks according to an embodiment of the present invention.
6 is an exemplary diagram illustrating a counseling monitoring system according to an embodiment of the present invention.
7 is a block diagram showing the configuration of a counseling server according to an embodiment of the present invention.

이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이외같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art can devise various devices that, although not explicitly described or shown herein, embody the principles of the invention and are included in the spirit and scope of the invention. In addition, it should be understood that all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the inventive concept, and are not limited to the specifically enumerated embodiments and states. .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-described objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the invention pertains will be able to easily practice the technical idea of the invention. .

또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, in the description of the invention, if it is determined that a detailed description of a known technology related to the invention may unnecessarily obscure the gist of the invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 상담 모니터링 시스템을 나타낸 예시도이다.1 is an exemplary diagram illustrating a counseling monitoring system according to an embodiment of the present invention.

도 1을 참조하면, 상담 모니터링 시스템(1000)은 사용자 단말(200)을 이용하여 본인 인증을 수행하는 사용자(10)와 사용자(10)로부터 입력되는 정보를 이용하여 본인 인증 여부를 판단하고 기타 비대면 상담 업무를 수행하는 상담원(20) 및 상담원(20)의 상담업무를 보조하고, 모니터링하는 상담 서버(100)로 구성될 수 있다.Referring to FIG. 1 , the consultation monitoring system 1000 determines whether or not to authenticate the user using information input from the user 10 and the user 10 who perform self-authentication using the user terminal 200 , and It may be composed of a counselor 20 who performs face-to-face counseling, and a counseling server 100 that assists and monitors counseling tasks of the counselor 20 .

사용자(10)는 사용자 단말(200)을 이용하여 본인 인증을 위해 영상 통화를 수행하고, 자신의 신분증 이미지(14)를 직접 촬영하여 상담 서버(100)로 송신할 수 있다.The user 10 may perform a video call for user authentication using the user terminal 200 , and may directly photograph and transmit the ID image 14 of the user 10 to the consultation server 100 .

상담원(20)은 상담 서버(100)에 접속하여 사용자(10)로부터 송신된 신분증 이미지(14)와 영상 통화 상의 사용자(10)의 안면 이미지(12)를 비교하여 본인 인증 여부를 판단할 수 있다. 또한, 상담원(20)은 본인 인증 결과에 따라 통장 개설, 대출, 카드 발급 등과 같은 여러 금융관련 업무를 수행하기 위한 프로세스를 후속하여 진행할 수 있다.The counselor 20 accesses the consultation server 100 and compares the ID image 14 transmitted from the user 10 with the face image 12 of the user 10 on the video call to determine whether to authenticate the person. . In addition, the counselor 20 may follow a process for performing various financial-related tasks, such as opening a bankbook, a loan, and issuance of a card, according to the identity verification result.

이때, 상담원(20)은 본인 인증을 위한 상담 업무 중에 본인 확인 결과로서 상담 데이터(22)를 작성하여 상담 서버(100)로 전송할 수 있다. 상담 데이터(22)는 본인과 타인의 식별에 기준이 될 수 있는 사용자의 특징 정보들에 대한 메타 정보일 수 있다. 예를 들어 안경의 착용 여부, 머리 스타일 등에 대한 상담원(20)의 수기 입력 정보를 포함할 수 있다.In this case, the counselor 20 may prepare the counseling data 22 as a result of identity verification during the counseling service for identity authentication and transmit it to the counseling server 100 . The consultation data 22 may be meta information about user characteristic information that can be a standard for identification of the user and others. For example, handwritten input information of the counselor 20 regarding whether to wear glasses, a hair style, etc. may be included.

상담 서버(100)는 신경망을 통해 사용자(10)로부터 수신된 안면 이미지(12) 또는 신분증 이미지(14)에 대한 특징 정보의 포함 여부에 대한 예측 결과를 산출하고, 신경망을 통해 출력된 예측 결과와 상담원(20)이 작성한 상담 데이터(22)를 비교하여 상담원(20)의 상담업무를 모니터링할 수 있다.Counseling server 100 calculates a prediction result on whether feature information on the face image 12 or ID image 14 received from the user 10 through a neural network is included, and the prediction result output through the neural network By comparing the counseling data 22 created by the counselor 20, the counselor 20's counseling work can be monitored.

이하에서는 도 2를 참조하여 상담 서버(100)의 신경망을 이용한 영상통화 기반의 인증 모니터링 방법에 대해 구체적으로 설명한다.Hereinafter, a video call-based authentication monitoring method using a neural network of the counseling server 100 will be described in detail with reference to FIG. 2 .

도 2는 본 발명의 일 실시예에 따른 상담 서버(100)의 신경망을 이용한 영상통화 기반의 인증 모니터링 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a video call-based authentication monitoring method using a neural network of the counseling server 100 according to an embodiment of the present invention.

도 2를 참조하면, 상담 서버(100)는 영상통화에서 획득된 사용자(10)의 안면 이미지(12)나 사용자(10)가 촬영한 신분증 이미지(14)를 수신할 수 있다(S100). 여기서, 안면 이미지(12)는 영상통화에서 획득되는 사용자(10)의 안면이 적어도 일부 이상 포함되는 이미지 데이터로써, 연속적으로 촬영되는 영상 프레임의 형태로 수신될 수 있다. Referring to FIG. 2 , the counseling server 100 may receive a face image 12 of the user 10 acquired in a video call or an ID image 14 taken by the user 10 ( S100 ). Here, the facial image 12 is image data including at least a part of the face of the user 10 obtained in a video call, and may be received in the form of continuously photographed image frames.

신분증 이미지(14)는 사용자(10)가 본인 인증을 위해 촬영한 신분증의 전체 또는 전체 촬영 이미지 중에서 신분증에 인쇄된 증명 사진 부분 만을 별도로 추출한 부분 이미지 일 수 있다.The ID image 14 may be a partial image obtained by separately extracting only the part of the ID photo printed on the ID from among the entire or all photographed images of the ID taken by the user 10 for self-authentication.

또는 상담 서버(100)는 사용자(10)가 과거 본인 인증이나 회원 가입을 통해 촬영되어 저장된 신분증 이미지(14)를 별도의 데이터베이스 상으로부터 전달받거나, 기타 신분증을 발급하고 관리하는 외부 기관의 서버로부터 전달받아 이용하는 것도 가능하다.Alternatively, the consultation server 100 receives the ID image 14 captured and stored by the user 10 through past self-authentication or membership registration from a separate database, or is delivered from a server of an external organization that issues and manages other ID cards. It is also possible to take and use it.

다음, 상담 서버(100)는 상담원(20)으로부터 영상통화 기반의 비대면 인증에 대한 상담원의 상담 데이터(22)를 수신할 수 있다(S200). 상술한 바와 같이 상담 데이터(22)는 상담원(20)이 사용자(10)와 영상통화를 통한 상담업무를 진행하면서 입력한 메타정보로써 안면 이미지(12)나 신분증 이미지(14)에 포함된 특징 정보의 존재에 대한 판단 결과를 포함한다. Next, the counseling server 100 may receive the counselor's counseling data 22 for video call-based non-face-to-face authentication from the counselor 20 (S200). As described above, the consultation data 22 is meta information input by the counselor 20 while conducting a consultation service through a video call with the user 10 , and is characteristic information included in the face image 12 or ID image 14 . including the results of judgment on the existence of

구체적으로 상담 데이터(22)에 대하여 도 3을 참조하여 보다 설명한다.More specifically, the consultation data 22 will be further described with reference to FIG. 3 .

도 3은 본 발명의 일 실시예에 따른 상담 데이터(22)를 나타낸 도이다.3 is a diagram illustrating counseling data 22 according to an embodiment of the present invention.

도 3을 참조하면, 상담 데이터(22)는 신분증 이미지(14) 내에 특징 정보의 존재 여부를 신분증 상태(22-1)에 대한 메타 정보로 정의할 수 있다. Referring to FIG. 3 , in the consultation data 22 , the presence or absence of feature information in the ID image 14 may be defined as meta information about the ID status 22-1.

또한, 안면 이미지(12)에 대한 특징 정보의 존재 여부를 영상통화 상태(22-2)에 대한 메타 정보로 정의할 수 있다. In addition, the presence or absence of feature information on the face image 12 may be defined as meta information about the video call state 22-2.

즉, 상담 데이터(22)는 이미지에 포함될 수 있는 특징 정보로서, 상담원의 육안에 따른 식별 요소의 존재 여부에 대한 판단 결과를 포함한다. 따라서 상담 데이터(22)는 이미지 별로 신분증 이미지(14)의 상태와 안면 이미지(12) 내에 포함될 수 있는 특징 정보와 특징 정보에 대한 상태 값으로 구성될 수 있다.That is, the consultation data 22 is characteristic information that may be included in the image, and includes a result of determining whether an identification element is present according to the agent's naked eye. Therefore, the consultation data 22 may be composed of the state of the ID image 14 for each image, feature information that may be included in the face image 12 and a state value for the feature information.

구체적으로 식별 요소 들은 존재 여부를 수신되는 이미지 상에 포함되는 정보들로 상담원이 육안으로 식별하고 정량적으로 판단할 수 있는 특징 정보들로 미리 정의될 수 있다.Specifically, the identification elements are information included in a received image, and may be predefined as characteristic information that an agent can visually identify and quantitatively determine.

예를 들어, 신분증 이미지(14) 내에 포함될 수 있는 식별 요소로는 신분증 자체의 상태에 대한 식별 요소로 신분증 이미지의 초점의 흐림 여부, 보정된 사진 이용여부, 홀로그램 유무, 빛 반사 유무, 20년 이상 또는 10년 이상 등의 신분증의 발급 정보, 신분증에 부착되는 스티커의 유무, 오랜 사용에 의한 까짐 유무, 깨짐 유무로 정의될 수 있다.For example, as an identification element that can be included in the ID image 14, it is an identification factor for the status of the ID card itself, whether the focus of the ID image is blurred, whether a corrected photo is used, whether or not there is a hologram, whether there is a light reflection, 20 years or more Alternatively, it may be defined as information on the issuance of ID cards for more than 10 years, the presence or absence of a sticker attached to the ID card, the presence or absence of cracks due to long-term use, and the presence or absence of cracks.

또한 안면 이미지(12) 내에 포함될 수 있는 영상 통화 상태로서 주변의 밝기, 실내 여부, 실외 여부 등의 환경 정보들도 식별 요소로 포함할 수 있다.In addition, as a video call state that may be included in the facial image 12 , environmental information such as ambient brightness, whether indoors or outdoors, etc. may also be included as identification elements.

또한, 신분증 이미지(14)와 안면 이미지(12) 모두의 특징으로 안면 자체에 대한 식별 요소인 안경 착용 유무, 모자 유무, 화장 유무나 헤어 스타일과 같이 머리카락이 귀를 가리는지, 눈썹 가리는지, 이마 가리는지 또는 머리의 길이와 같이 설정된 척도에 따라 정량적으로 판단될 수 있는 요소들로 구성될 수 있다. In addition, as the characteristics of both the identification image 14 and the facial image 12, whether the hair covers the ears, the eyebrows, the forehead, such as the presence of glasses, the presence of a hat, the presence or absence of makeup or hairstyle, which are identification factors for the face itself It may be composed of factors that can be quantitatively determined according to a set scale such as whether to cover or the length of the hair.

또한, 상담 데이터(22)는 추가적으로 사용자(10)와 상담하면서 발생한 특이 사항이나 처리 결과 등을 정성적으로 상담 메모에 입력 가능하도록 구현될 수 있다.In addition, the consultation data 22 may be implemented to be able to qualitatively input specific matters or processing results generated while consulting with the user 10 in a consultation memo.

다만, 본 실시예에서는 정량적인 식별 요소로 입력된 상담원(20)의 상담 데이터(22)를 기초로 상담원(20)의 본인 인증 업무의 품질을 신경망을 이용하여 모니터링 할 수 있다.However, in this embodiment, based on the counseling data 22 of the counselor 20 input as a quantitative identification factor, the quality of the agent 20's self-authentication service can be monitored using a neural network.

이를 위해 상담원(20)에 의해 작성된 상담 데이터(22)는 상담 서버(100)로 전송될 수 있다. 상담 서버(100)는 수신된 상담 데이터(22)를 신경망의 출력 값과 비교함으로써 상담원의 판단 정확도를 확인할 수 있으며, 상담원의 본인 확인에 대한 추가적인 검수의 필요 여부를 더욱 판단할 수 있다. To this end, the counseling data 22 created by the counselor 20 may be transmitted to the counseling server 100 . The counseling server 100 can check the accuracy of the counselor's judgment by comparing the received counseling data 22 with the output value of the neural network, and can further determine whether an additional check for the agent's identity verification is necessary.

또한, 상담 서버(100)는 검수 결과에 따라 수정되는 레이블링 정보를 신경망의 학습데이터로 재 이용할 수 있다.In addition, the counseling server 100 may reuse the labeling information corrected according to the inspection result as learning data of the neural network.

상담 서버(100)는 신경망을 통해 수신된 안면 이미지(12)나 신분증 이미지(14)에 포함된 식별 요소 별 존재 확률에 대한 예측 결과를 산출한다(S300).The counseling server 100 calculates a prediction result for the existence probability of each identification element included in the facial image 12 or ID image 14 received through the neural network (S300).

구체적으로, 상담 서버(100)는 안면 이미지(12) 또는 신분증 이미지(14)에 포함된 식별 요소 들의 존재 여부 또는 정량적으로 구분된 척도에 따른 해당 여부의 예측 결과를 산출하도록 학습된 신경망을 이용하여 안면 이미지(12)나 신분증 이미지(14)에 포함된 식별 요소에 대한 확률 값을 출력할 수 있다. Specifically, the counseling server 100 uses a neural network trained to calculate the presence or absence of identification elements included in the face image 12 or the ID image 14 or whether it corresponds to a quantitatively divided scale using a neural network trained to produce a prediction result. A probability value for an identification element included in the face image 12 or the ID image 14 may be output.

여기서, 신경망은 임의로 생성된 식별 요소를 포함하는 것으로 레이블링된 안면 이미지(120) 또는 신분증 이미지(14)를 이용하여 학습될 수 있으며, 또는 상담원(20)의 검증된 상담 데이터(22)를 기초로 레이블링된 레이블링 데이터와 실제 상담에 이용된 안면 이미지(12)나 신분증 이미지(14)를 학습 데이터 셋으로 구성하여 학습에 이용하는 것도 가능하다.Here, the neural network may be trained using a face image 120 or an ID image 14 labeled as containing an arbitrarily generated identification element, or based on the verified counseling data 22 of the agent 20 . It is also possible to configure the labeled labeling data and the face image 12 or ID image 14 used for actual counseling as a learning data set and use it for learning.

구체적으로 신경망은 입력된 사용자의 안면 이미지(12)나 신분증 이미지(14) 내 포함된 식별 요소의 존재 확률을 나타내는 예측 결과를 수치적으로 산출하여 출력한다. 따라서, 예측 결과는 안면 이미지(12)나 신분증 이미지(14) 내의 식별 요소로서 홀로그램, 빛 반사, 안경 착용 등과 같은 특징 들의 존재 여부에 대한 예측 확률 값으로 정의될 수 있다.Specifically, the neural network numerically calculates and outputs a prediction result indicating the existence probability of an identification element included in the input user's face image 12 or ID image 14 . Therefore, the prediction result may be defined as a predicted probability value for the presence or absence of features such as a hologram, light reflection, and wearing glasses as an identification element in the face image 12 or ID image 14.

이하에서, 본 실시예에 따른 신경망의 구조와 관련하여 도 4를 참조하여 보다 상세히 설명한다.Hereinafter, the structure of the neural network according to the present embodiment will be described in more detail with reference to FIG. 4 .

도 4는 본 발명의 일 실시예에 따른 신경망의 구성을 나타낸 도이다.4 is a diagram showing the configuration of a neural network according to an embodiment of the present invention.

도 4를 참조하면, 본 실시예에 따른 신경망(30)은 복수의 합성곱 연산을 수행하는 레이어로 구성된 CNN(Convolution Neural Network) 모델로 구성될 수 있다.Referring to FIG. 4 , the neural network 30 according to the present embodiment may be configured as a Convolution Neural Network (CNN) model composed of layers that perform a plurality of convolution operations.

안면 이미지(12)나 신분증 이미지(14)가 학습된 신경망(30)에 입력되면, 신경망(30) 내부의 레이어들을 거치면서 이미지 내에 포함된 식별 요소를 나타내는 고유의 형상이나 색상에 따른 특징 값들은 합성곱을 통해 강조될 수 있다.When the facial image 12 or ID image 14 is input to the learned neural network 30, the characteristic values according to the unique shape or color indicating the identification element included in the image while passing through the layers inside the neural network 30 are It can be emphasized through convolution.

안면 이미지(12)나 신분증 이미지(14) 별 식별 요소로서 이미지 데이터에 포함된 다양한 특징 값들은 각각의 합성곱 레이어(Convolution layer) 별로 결정된 필터와의 연산을 통해 새로운 특징 맵의 형태로 출력되며, 레이어 별 반복 연산을 통해 생성된 최종 특징 맵은 완전 연결 레이어(Fully-connected layer)로 입력되어 평탄화 될 수 있다. 평탄화된 특징 정보와 식별 요소 별로 정의된 기준 특징 정보간의 차이를 산출하고, 산출된 차이에 따라 식별 요소의 존재 확률을 예측 결과(32)로 출력할 수 있다.Various feature values included in the image data as identification elements for each face image 12 or ID image 14 are output in the form of a new feature map through operation with a filter determined for each convolution layer, The final feature map generated through the iterative operation for each layer may be input as a fully-connected layer and flattened. The difference between the flattened characteristic information and the reference characteristic information defined for each identification element may be calculated, and the existence probability of the identification element may be output as the prediction result 32 according to the calculated difference.

이러한 신경망(30)의 학습은 안면에 대한 이미지 데이터와 식별 요소의 존재 여부에 대한 판단 결과를 포함하는 레이블링 데이터로, 식별 요소 별로 분류(classification)된 학습 데이터 셋으로 수행될 수 있다. 예를 들어 신분증 이미지에 대한 식별 요소로 그림자, 반사, 홀로그램 등이 각각 존재하는 것으로 레이블링 된 복수의 이미지 데이터들을 학습 데이터로 신경망을 학습시킬 수 있으며, 안면 이미지에 대한 식별 요소로 안경을 착용한 안면 이미지, 가르마가 있는 헤어스타일을 갖는 안면 이미지를 이용하여 학습을 수행할 수 있다.The training of the neural network 30 may be performed with a training data set classified for each identification element as labeling data including image data for the face and a result of determining whether an identification element exists. For example, a neural network can be trained using a plurality of image data labeled as having shadows, reflections, holograms, etc. as an identification element for the ID image, respectively, as training data, and a face wearing glasses as an identification element for the face image. Learning can be performed using an image, a facial image having a hair style with a parting.

학습된 신경망(30)은 입력된 안면 이미지(12)나 신분증 이미지(14)에 대하여 식별 요소의 존재 여부를 판단하고 각 식별 요소 별 예측 확률 값을 예측 결과(32)로 제공할 수 있다.The learned neural network 30 may determine the existence of an identification element with respect to the input face image 12 or ID image 14 , and provide a prediction probability value for each identification element as a prediction result 32 .

또한, 본 실시예에 따른 신경망(30)은 안면 이미지(12)나 신분증 이미지(14)를 구분하여 각각의 식별 요소를 포함하는 것으로 레이블링 된 학습 데이터를 통해, 안면 이미지(12)나 신분증 이미지(14) 내 포함된 특징 정보들을 하나의 식별 대상으로서 식별 요소의 존재를 예측하도록 학습될 수 있다.In addition, the neural network 30 according to this embodiment distinguishes the face image 12 or the ID image 14 and through the labeled training data to include each identification element, the face image 12 or ID image ( 14) It can be learned to predict the existence of an identification element as one identification target with the feature information included in it.

이를 통해 안면 이미지(12) 상에 포함되는 특유의 특징 요소에 대한 판단 결과와 신분증 이미지(14)의 판단 결과들을 구분하여 출력하도록 하는 것도 가능하다.Through this, it is also possible to distinguishly output the determination result of the unique characteristic element included in the face image 12 and the determination result of the identification card image 14 .

안면 이미지(12)와 신분증 이미지(14) 내 공통적으로 해당되는 식별 요소(안면 특징 정보)를 통해 동일인 여부의 판단에 대한 모니터링 근거로 활용하도록 하는 것도 가능하다.It is also possible to use the identification element (facial feature information) that is common in the face image 12 and the ID image 14 as a monitoring basis for determining whether the same person is the same.

예를 들어, 도 4 (a)의 경우에는 안면 이미지(12)가 신경망(30)에 입력되는 경우에 안면 이미지(12) 내에 존재하는 식별 요소 중 안경 착용 확률은 0.1, 가르마의 존재 확률은 0.8로 예측 결과(32)가 산출될 수 있다.For example, in the case of Fig. 4 (a), when the facial image 12 is input to the neural network 30, the probability of wearing glasses among the identification elements present in the facial image 12 is 0.1, and the probability of existence of the part is 0.8 A prediction result 32 may be calculated with .

또한, (b)의 경우로 신분증 이미지(14)가 신경망(30)에 입력되는 경우, 신분증 이미지(14)내에 존재하는 식별 요소 중 안경 착용 확률은 0.2, 가르마의 존재 확률은 0.6으로 예측 결과가 산출되는 경우 안경을 미착용하고 가르마는 존재하는 것으로 공통적으로 판단할 수 있다.Also, in the case of (b), when the ID image 14 is input to the neural network 30, the probability of wearing glasses among the identification elements existing in the ID image 14 is 0.2, and the probability of existence of a parting is 0.6. If it is calculated, it can be commonly judged that glasses are not worn and the parting is present.

나아가, 다른 실시예로 상담 서버(100)는 식별 요소 마다 학습된 각각의 신경망(30)을 이용하여 식별 요소의 존재 확률로 예측 결과를 출력하도록 구성하는 것도 가능하다.Furthermore, in another embodiment, the counseling server 100 may be configured to output a prediction result with the existence probability of the identification element using each neural network 30 learned for each identification element.

도 5는 본 발명의 일 실시예에 따른 복수의 신경망(30)을 통한 구현 예를 나타내는 도이다.5 is a diagram illustrating an implementation example through a plurality of neural networks 30 according to an embodiment of the present invention.

도 5를 참조하면, 상담 서버(100)는 안면 이미지(12)(또는 신분증 이미지(14))의 식별 요소 각각에 대응되는 신경망(30-1, 30-2, 30-3)을 이용하여 병렬 적으로 예측 결과(32)를 출력하도록 구성할 수 있다.Referring to FIG. 5 , the counseling server 100 uses neural networks 30-1, 30-2, and 30-3 corresponding to each identification element of the facial image 12 (or ID image 14) in parallel. It can be configured to output the prediction result 32 as a result.

예를 들어, 상담 서버(100)는 안경 착용, 가르마 있음, 모자 착용 여부를 개별적으로 판단하여 산출하도록 학습된 각각의 신경망(30-1, 30-2, 30-3)들을 이용할 수 있다. 따라서, 각 신경망(30-1, 30-2, 30-3)은 하나의 안면 이미지(12)에 대하여 보다 정확한 식별 요소 별 예측 결과를 산출할 수 있다.For example, the counseling server 100 may use each of the neural networks 30 - 1 , 30 - 2 , and 30 - 3 learned to individually determine whether glasses are worn, parted, or hat is worn. Accordingly, each of the neural networks 30 - 1 , 30 - 2 , and 30 - 3 can calculate a more accurate prediction result for each identification element with respect to one face image 12 .

이때, 각각의 신경망(30-1, 30-2, 30-3)들은 구체적인 예측 결과의 산출을 위해 해당 식별 요소 별로 존재 여부 또는 구분된 척도에 따라 레이블링된 학습 데이터를 이용하여 학습될 수 있다.In this case, each of the neural networks 30 - 1 , 30 - 2 , and 30 - 3 may be trained using learning data labeled according to the presence or absence of a corresponding identification element or a divided scale in order to calculate a specific prediction result.

예를 들어 헤어스타일과 관련된 특징 요소를 가르마의 존재 여부를 레이블링하여 학습하는 것도 가능하며 정량적으로 머리의 길이를 짧음, 중간, 긴 머리로 3단계로 구분하여 학습하고 학습된 결과를 출력하도록 하는 것도 가능하다.For example, it is possible to learn by labeling the presence or absence of parting in feature elements related to hairstyles, and it is also possible to quantitatively classify the length of hair into three stages, short, medium, and long, to learn and output the learned result. It is possible.

나아가, 본 실시예에서 영상통화로 입력되는 안면 이미지(12)는 복수의 프레임으로 연속적으로 입력될 수 있는데 이때에는 해당 프레임 별로 예측 결과를 신경망을 통해 출력하고, 예측 결과의 최대 값 또는 평균 값을 통계적으로 산출하여 이용할 수 있다.Furthermore, in the present embodiment, the facial image 12 input through the video call may be continuously input in a plurality of frames. In this case, the prediction result for each frame is output through the neural network, and the maximum or average value of the prediction result is calculated. It can be calculated and used statistically.

이어서, 상담 서버(100)는 산출된 예측 결과와 상담원의 상담 데이터를 비교할 수 있다(S400). 구체적으로, 상담 서버(100)는 예측 결과에 포함된 식별 요소의 확률이 임계값을 초과하는 경우에 해당 식별 요소가 신분증 이미지(14)나 안면 이미지(12)에 존재한다고 판단하고, 상담원(20)의 상담 데이터(22)와 비교하여 비교 결과를 산출할 수 있다. 여기서, 비교 결과는 예측 결과와 상담 데이터가 일치하지 여부에 대한 값으로서 식별 요소의 항목 별로 결과가 생성될 수 있다. Then, the counseling server 100 may compare the calculated prediction result with the counselor's counseling data (S400). Specifically, when the probability of the identification element included in the prediction result exceeds the threshold, the consultation server 100 determines that the identification element exists in the ID image 14 or the face image 12, and the counselor 20 ) can be compared with the consultation data 22 to calculate a comparison result. Here, the comparison result is a value for whether the prediction result and the counseling data do not match, and a result may be generated for each item of the identification element.

예를 들어, 신경망의 출력에 따라 안경의 착용 여부에 대한 예측 결과가 60% 이상으로 나왔으나 상담 데이터(22) 상에는 안경을 착용한 것으로 기재되지 않은 경우에는 비 일치 항목으로 결과가 생성될 수 있다.For example, according to the output of the neural network, when the prediction result on whether to wear glasses is 60% or more, but it is not described as wearing glasses on the consultation data 22, a result may be generated as a non-matching item. .

이때, 임계값은 예측 결과에 포함된 식별 요소의 존재 확률의 기준이 되는 값으로 식별 요소 마다 다르게 결정될 수 있으며, 신분증의 종류, 신분증 이미지의 발급 년도, 신분증의 촬영에 이용되는 사용자 단말의 종류, 영상 통화에 이용되는 사용자 단말의 종류, 영상통화의 품질 상태 등에 의해 동적으로 결정되는 가변 값일 수 있다.In this case, the threshold value is a standard value of the probability of existence of the identification element included in the prediction result, and may be determined differently for each identification element, the type of ID card, the year of issue of the ID image, the type of user terminal used for photographing the ID, It may be a variable value dynamically determined by the type of user terminal used for the video call, the quality state of the video call, and the like.

이상의 과정을 통해 상담 서버(100)는 신경망을 통해 판단된 예측 결과와 상담원(20)의 상담 데이터를 비교하고 예측 결과와 상담 데이터가 일치하는 정도를 비교 결과로 산출할 수 있다.Through the above process, the counseling server 100 may compare the prediction result determined through the neural network with the counseling data of the counselor 20 , and calculate the degree of agreement between the prediction result and the counseling data as a comparison result.

다음, 상담 서버(100)는 산출된 비교 결과에 따라 해당 상담 데이터의 검수 여부를 결정한다(S500).Next, the counseling server 100 determines whether to check the corresponding counseling data according to the calculated comparison result ( S500 ).

구체적으로, 상담 서버(100)는 비교 결과가 검수 요건을 충족하는 경우, 검수자(40)의 검수 단말기로 해당 상담 데이터의 검수 요청을 전송할 수 있다. 여기서, 검수 기준은 검수 여부를 결정하는 기준으로써, 비 일치 항목의 개수 나 정도로 결정될 수 있다.Specifically, the consultation server 100 may transmit a request for examination of the consultation data to the examination terminal of the examiner 40 when the comparison result meets the examination requirements. Here, the inspection criterion is a criterion for determining whether to inspect, and the number or degree of non-matching items may be determined.

또한, 검수 기준은 신경망의 성능 평가 결과에 따라 결정되는 가변값으로 설정될 수 있다. 즉, 신경망의 성능 평가가 낮을수록 검수 기준을 보다 까다롭게 결정될 수 있다. 예를 들어, 신경망의 예측 결과와 상담 데이터의 비 일치 항목의 개수로 검수 대상을 결정하는 경우 신경망의 성능 평가 결과가 개선될 수록 검수 대상이 되는 상담 데이터의 허용 비 일치 항목의 개수를 높여 검수 대상을 단계적으로 줄이는 것도 가능하다. 즉, 검수 결과를 활용한 신경망의 지속적인 학습에 의해 성능 평가 결과가 개선되는 경우 이에 따라 검수 기준을 갱신한다.In addition, the inspection criterion may be set to a variable value determined according to the performance evaluation result of the neural network. That is, the lower the performance evaluation of the neural network, the more strict the inspection criteria can be determined. For example, if an inspection target is determined based on the number of non-matching items between the prediction result of the neural network and the counseling data, as the performance evaluation result of the neural network improves, the number of permissible non-matching items in the counseling data to be inspected increases It is also possible to reduce step by step. That is, if the performance evaluation result is improved by continuous learning of the neural network using the inspection result, the inspection standard is updated accordingly.

즉, 초기 검수 기준으로 비 일치 항목의 개수를 1개로 결정한 경우 상담 데이터와 예측 결과 상 다른 항목이 1개라도 포함되면 상담 데이터를 검수 대상으로 결정하는데, 예를 들어 신경망 예측 결과 상 가르마의 존재 확률이 80% 이상으로 신경망에서 높은 확률로 출력되었으나 가르마가 없는 것으로 상담 데이터(22)에 기재된 경우에는 상담 서버(100)는 해당 상담원(20)의 상담 업무 또는 신경망에 문제가 있다고 판단하고 검수자(40)에게 추가적인 검수 과정을 요청할 수 있다.That is, if the number of non-matching items is determined to be one as the initial inspection standard, if even one other item is included in the counseling data and the prediction result, the counseling data is determined as the inspection target. If this 80% or more is output with a high probability from the neural network, but it is recorded in the counseling data 22 as no division, the counseling server 100 determines that there is a problem in the counseling task or the neural network of the counselor 20, and the examiner (40) ) may request an additional inspection process.

상담 서버(100)는 상담 데이터(22)의 비교 결과 상 비 일치 항목이 검수 기준인 비 일치 항목의 개수 이상인 경우, 검수자(40)에게 검수를 요청할 수 있다.Consultation server 100 may request inspection from the examiner 40 when the number of non-matching items on the comparison result of the counseling data 22 is equal to or greater than the number of non-matching items as the inspection standard.

이하, 도 6을 참조하여 구체적인 검수 과정에 대해서 설명한다.Hereinafter, a detailed inspection process will be described with reference to FIG. 6 .

도 6을 참조하면, 상담 서버(100)는 상담원(20)으로부터 수신된 상담 데이터(22)와 예측 결과가 서로 다른 경우, 검수자(40)에게 검수를 요청할 수 있다. 상담 서버(100)는 검수자(40)의 검수 단말에 검수 요청 정보를 송신하고, 검수 단말은 상담 데이터(22), 신경망의 예측 결과, 안면 이미지, 신분증 이미지를 수신하고, 검수자(40)에 의해 수행된 검수 결과로 검수 결과 데이터를 상담 서버(100)로 전송할 수 있다.Referring to FIG. 6 , when the counseling data 22 received from the counselor 20 and the prediction result are different from each other, the counseling server 100 may request the examiner 40 to review. Consultation server 100 transmits inspection request information to the inspection terminal of the inspector 40, the inspection terminal receives the consultation data 22, the prediction result of the neural network, a facial image, an ID image, and by the inspector 40 As a result of the inspection performed, the inspection result data may be transmitted to the consultation server 100 .

검수자(40)는 상담 서버(100)로부터 검수 요청이 있는 경우, 해당 안면 이미지(12)와 신분증 이미지(14)에 기초하여 예측 결과와 해당 상담원(20)의 상담 데이터(22)를 서로 대조하여 비교할 수 있다.When there is a request for inspection from the consultation server 100, the examiner 40 compares the prediction result based on the face image 12 and the ID image 14 with the consultation data 22 of the agent 20 with each other. can be compared

검수 과정을 통해 상담 데이터(22)와 신경망의 예측 결과를 검수한 결과, 해당 상담원(20)의 오 판단으로 판명된 경우에 해당 상담원(20)에 주의를 요청하거나 사후 조치를 통해 본인 인증 과정의 신뢰도를 확보할 수 있다.As a result of examining the consultation data 22 and the prediction result of the neural network through the inspection process, if it is determined that the agent 20 is erroneously judged, request attention from the agent 20 or take follow-up measures to determine the identity verification process. reliability can be ensured.

반대로, 신경망(30)을 통해 산출된 예측 결과가 부정확한 것으로 판명된 경우, 검수자(40)는 상담 서버로(100)로 검수 결과 데이터를 전송할 수 있다. Conversely, when the prediction result calculated through the neural network 30 is found to be inaccurate, the inspector 40 may transmit the inspection result data to the counseling server 100 .

여기서, 검수 결과 데이터는 검수자(40)가 상담 업무를 직접 검수한 결과로써, 신경망의 예측 결과 중 오 판단된 부분에 대한 내용을 포함하며 해당 상담 데이터(22)에 대한 검수자(40)에 따른 판단 값이 레이블링된 신분증 이미지(14)나 안면 이미지(12)를 포함할 수 있다.Here, the inspection result data is the result of the inspector 40 directly inspecting the consultation service, and includes the contents of the erroneously judged part among the prediction results of the neural network, and the judgment according to the inspector 40 on the consultation data 22 The values may include labeled identification images 14 or facial images 12 .

상담 서버(100)는 검수자(40)에게 검수 결과 데이터를 수신하고, 상담 서버(100)는 검수 결과 데이터를 기초로 학습데이터를 생성하거나 검수 결과 데이터 자체를 학습데이터로 이용하여 신경망(30)을 추가로 학습시킬 수 있다.The consultation server 100 receives the inspection result data from the inspector 40, and the consultation server 100 generates learning data based on the inspection result data or uses the inspection result data itself as learning data to the neural network 30. You can learn more.

이상 본 발명에 따른 상담 서버(11)는 신경망의 정량적으로 수치화된 확률에 따른 지표인 식별 요소의 존재 확률을 이용하여 상담원(20)의 영상통화 상담과정을 객관화하여 평가할 수 있다.As described above, the counseling server 11 according to the present invention can objectively evaluate the video call counseling process of the counselor 20 by using the existence probability of the identification element, which is an index according to the quantitatively quantified probability of the neural network.

또한, 영상통화 상담원(20)의 상담 업무를 실시간으로 모니터링하여 영상통화를 이용한 비대면 인증의 인증율과 상담 업무의 품질을 높일 수 있으며, 검수 결과를 반영하여 신경망을 재 학습시키는 것을 통해 예측 성능을 높일 수 있다.In addition, by monitoring the consultation service of the video call counselor 20 in real time, the authentication rate of non-face-to-face authentication using video call and the quality of consultation work can be increased, and predictive performance through re-learning the neural network by reflecting the inspection result can increase

이하, 도 7을 참조하여 상담 서버(100)의 구성에 대하여 설명한다.Hereinafter, the configuration of the consultation server 100 will be described with reference to FIG. 7 .

도 7은 본 발명의 일 실시예에 따른 상담 서버(100)의 구성을 나타낸 블록도이다.7 is a block diagram showing the configuration of the consultation server 100 according to an embodiment of the present invention.

도 7을 참조하면, 상담 서버(100)는 통신부(110), 예측 결과 산출부(120), 비교부(130), 검수 요청부(140) 및 학습부(150)로 구성될 수 있다.Referring to FIG. 7 , the counseling server 100 may include a communication unit 110 , a prediction result calculation unit 120 , a comparison unit 130 , an inspection request unit 140 , and a learning unit 150 .

통신부(110)는 사용자(10)나 상담원(20)으로부터 본인 인증에 필요한 데이터들을 송수신할 수 있다.The communication unit 110 may transmit/receive data required for identity authentication from the user 10 or the counselor 20 .

구체적으로, 통신부(110)는 사용자(10) 로부터 영상통화에서 획득된 사용자의 안면 이미지(12) 또는 신분증 이미지(14)를 수신할 수 있다.Specifically, the communication unit 110 may receive the user's face image 12 or the ID image 14 obtained in the video call from the user 10 .

또한, 통신부(110)는 상담원(20)으로부터 영상통화의 본인 인증에 대한 상담원(20)의 상담 데이터(22)를 수신할 수 있다.Also, the communication unit 110 may receive the counselor 20's consultation data 22 for self-authentication of the video call from the counselor 20 .

또한, 통신부(110)는 검수자(40)에게 상담원(20)의 상담 데이터(22)를 검수하도록 검수요청을 송신할 수 있으며, 검수자(40)로부터 검수결과로 검수 결과 데이터를 재 수신할 수도 있다.In addition, the communication unit 110 may transmit an inspection request to the inspector 40 to inspect the consultation data 22 of the counselor 20, and may re-receive the inspection result data as the inspection result from the inspector 40 .

예측 결과 산출부(120)는 신경망(30)을 통해 수신된 안면 이미지(12) 또는 신분증 이미지(14)에 포함된 식별 요소 별 존재 확률에 대한 예측 결과를 산출할 수 있다.The prediction result calculation unit 120 may calculate a prediction result for the existence probability of each identification element included in the face image 12 or the ID image 14 received through the neural network 30 .

구체적으로, 예측 결과 산출부(120)는 안면 이미지 또는 신분증 이미지에 포함된 식별 요소의 유무에 따라 예측 결과를 산출하도록 학습된 신경망(30)을 이용하여 예측 결과를 산출할 수 있다. 여기서, 식별 요소는 사용자(10)의 비대면 인증을 위해 판단되는 안면 상의 특징 정보의 존재에 대한 정량적 판단 항목일 수 있다.Specifically, the prediction result calculation unit 120 may calculate the prediction result using the neural network 30 trained to calculate the prediction result according to the presence or absence of an identification element included in the face image or ID image. Here, the identification element may be a quantitative determination item for the presence of feature information on the face determined for non-face-to-face authentication of the user 10 .

신경망은 판단 항목 별로 레이블링된 이미지 데이터를 학습 데이터로 이용하며, 기 검증된 실제 상담원의 상담 데이터 또는 검수를 통해 재 레이블링된 데이터들을 학습 데이터로 이용하여 학습될 수 있다.The neural network uses image data labeled for each judgment item as learning data, and can be trained using pre-verified counseling data of an actual agent or data re-labeled through inspection as learning data.

비교부(130)는 예측 결과 산출부(120)에서 산출된 예측 결과와 상담원(20)의 상담 데이터를 서로 비교하여 비교 결과를 산출할 수 있다.The comparison unit 130 may calculate a comparison result by comparing the prediction result calculated by the prediction result calculation unit 120 with the counseling data of the counselor 20 with each other.

구체적으로, 비교부(130)는 예측 결과에 포함된 식별 요소의 확률이 임계값을 초과하는 경우에는 해당 식별 요소가 신분증 이미지(14)나 안면 이미지(12)에 존재한다고 판단하고, 예측 결과에 포함된 식별 요소의 확률이 임계값 이하인 경우에는 해당 식별 요소가 신분증 이미지(14)나 안면 이미지(12)에 존재하지 않는다고 판단하며, 신경망의 예측 결과를 전제로 상담원(20)의 상담 데이터와 비교하여 비교 결과를 산출할 수 있다.Specifically, when the probability of the identification element included in the prediction result exceeds the threshold, the comparison unit 130 determines that the identification element exists in the ID image 14 or the face image 12, and If the probability of the included identification element is less than or equal to the threshold, it is determined that the identification element does not exist in the ID image 14 or the facial image 12, and compared with the counseling data of the agent 20 based on the prediction result of the neural network. Thus, a comparison result can be calculated.

검수 요청부(140)는 비교부(130)의 비교 결과에 따라 해당 상담 데이터의 검수 여부를 결정할 수 있다. 검수 요청부(140)는 비교 결과 상담 데이터와 신경망의 출력에 따른 예측 결과가 모두 일치하는 경우에는 해당 상담원(20)의 상담 업무에 문제가 없다고 판단하고 추가적인 검수과정을 거치지 않고 본인 인증 결과를 출력하도록 할 수 있다.The inspection request unit 140 may determine whether to inspect the consultation data according to the comparison result of the comparison unit 130 . The inspection request unit 140 determines that there is no problem in the consulting work of the corresponding agent 20 when the comparison result matches both the consultation data and the prediction result according to the output of the neural network, and outputs the identity authentication result without going through an additional inspection process can make it

반면, 비교 결과 비 일치 항목이 존재하는 경우에는 해당 상담원(20)의 상담 데이터를 검수하도록 검수자에게 검수요청을 하도록 통신부(110)를 통해 검수 요청을 수행할 수 있다.On the other hand, if there is a non-matching item as a result of the comparison, the inspection request may be performed through the communication unit 110 to request the inspection to the inspector to inspect the consultation data of the corresponding counselor 20 .

또한 학습부(150)는 검수자(40)의 검수 결과 신경망을 통해 산출된 예측 결과가 부정확하다고 판단된 경우, 검수 결과 데이터 또는 해당 상담 데이터를 기준으로 신규의 레이블 정보를 획득하고 레이블링 된 이미지를 학습데이터로 상기 신경망을 학습시킬 수 있다. In addition, the learning unit 150 acquires new label information based on the inspection result data or the corresponding counseling data when it is determined that the prediction result calculated through the neural network is inaccurate as a result of the inspection by the inspector 40 and learns the labeled image The neural network can be trained with data.

이상, 상술한 본발명에 따르면, 신경망을 이용하여 검수가 필요한 검수 대상을 줄여 검수 비용을 절감할 수 있다.As described above, according to the present invention described above, it is possible to reduce the inspection cost by reducing the number of inspection targets required for inspection by using a neural network.

또한, 본 발명은 학습에 필요한 학습데이터를 별도로 제작하는 과정없이 상담원의 상담업무의 과정으로 학습데이터를 축적할 수 있어 효율적이며, 학습환경과 적용환경을 동일하게 설정하여 신경망의 추론 성능을 더욱 높일 수 있다.In addition, the present invention is efficient because it is possible to accumulate learning data in the course of the counselor's consultation work without the process of separately producing the learning data required for learning, and the inference performance of the neural network can be further improved by setting the learning environment and the application environment the same. can

나아가, 여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Furthermore, various embodiments described herein may be implemented in a computer-readable recording medium using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어 모듈 자체로 구현될 수 있다.According to the hardware implementation, the embodiments described herein include ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions. The described embodiments may be implemented in the control module itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 씌여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리 모듈에 저장되고, 제어모듈에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code may be implemented as a software application written in a suitable programming language. The software code may be stored in the memory module and executed by the control module.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various modifications, changes and substitutions within the scope without departing from the essential characteristics of the present invention. will be.

따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10 : 사용자 20 : 상담원
30 : 신경망 100 : 상담 서버
110 : 통신부 120 : 예측 결과 산출부
130 : 비교부 140 : 검수 요청부
150 : 학습부
10: user 20: agent
30: neural network 100: consultation server
110: communication unit 120: prediction result calculation unit
130: comparison unit 140: inspection request unit
150: study

Claims (11)

신경망을 이용한 영상통화 기반의 인증 모니터링 방법에 있어서,
사용자의 안면 이미지 또는 신분증 이미지를 수신하는 단계;
상기 영상통화 중 비대면 인증에 대한 상담원의 상담 데이터를 수신하는 단계;
신경망을 통해 상기 수신된 안면 이미지 또는 신분증 이미지에 포함된 식별 요소 별 존재 확률에 대한 예측 결과를 산출하는 단계;
상기 산출된 예측 결과와 상기 상담원의 상담 데이터를 비교하는 단계; 및
비교 결과에 따라 상기 상담 데이터의 검수를 요청하는 단계를 포함하는 신경망을 이용한 영상통화 기반의 인증 모니터링 방법.
In a video call-based authentication monitoring method using a neural network,
receiving a face image or an identification image of the user;
receiving counseling data of a counselor for non-face-to-face authentication during the video call;
calculating a prediction result for each identification element included in the received facial image or ID image through a neural network;
comparing the calculated prediction result with the counselor's counseling data; and
A video call-based authentication monitoring method using a neural network, comprising the step of requesting inspection of the counseling data according to the comparison result.
제 1 항에 있어서,
상기 식별 요소는 상기 사용자의 비대면 인증을 위해 판단되는 미리 결정된 항목 또는 항목 별 척도로 구분되는 이미지 상의 특징 정보인 것을 특징으로 하는 신경망을 이용한 영상통화 기반의 인증 모니터링 방법.
The method of claim 1,
The identification element is a predetermined item determined for non-face-to-face authentication of the user or feature information on an image divided by an item-by-item scale.
제 2 항에 있어서,
상기 신경망은 기 검증된 상담 데이터를 기준으로 레이블링 된 이미지를 학습 데이터로 이용하여 학습된 것을 특징으로 하는 신경망을 이용한 영상통화 기반의 인증 모니터링 방법.
3. The method of claim 2,
The neural network is a video call-based authentication monitoring method using a neural network, characterized in that it is learned by using an image labeled based on the verified counseling data as learning data.
제 1 항에 있어서,
상기 상담 데이터는 상기 안면 이미지 또는 상기 신분증 이미지에 포함된 식별 요소들의 존재 여부에 대한 상담원의 수기 작성된 메타 정보인 것을 특징으로 하는 신경망을 이용한 영상통화 기반의 인증 모니터링 방법.
The method of claim 1,
The counseling data is a video call-based authentication monitoring method using a neural network, characterized in that the counselor's handwritten meta information on the existence of identification elements included in the face image or the ID image.
제 1 항에 있어서,
상기 검수 요청에 따라 상기 상담 데이터와 상기 예측 결과를 검수하는 단계; 및
상기 검수 결과 상기 신경망을 통해 산출된 예측 결과가 부정확하다고 판단된 경우, 상기 상담 데이터를 기준으로 레이블링 된 상기 안면 이미지 또는 상기 신분증 이미지를 학습데이터로 상기 신경망을 학습시키는 단계를 더 포함하는 것을 특징으로 하는 신경망을 이용한 영상통화 기반의 인증 모니터링 방법.
The method of claim 1,
examining the consultation data and the prediction result according to the verification request; and
When it is determined that the prediction result calculated through the neural network is inaccurate as a result of the inspection, the method further comprising the step of learning the neural network using the face image or the identification image labeled based on the counseling data as training data A video call-based authentication monitoring method using a neural network.
신경망을 이용한 영상통화 기반의 인증 모니터링을 수행하는 상담 서버에 있어서,
사용자의 안면 이미지 또는 신분증 이미지, 및 상기 영상통화 중 비대면 인증에 대한 상담원의 상담 데이터를 수신하는 통신부;
신경망을 통해 상기 수신된 안면 이미지 또는 신분증 이미지에 포함된 식별 요소 별 존재 확률에 대한 예측 결과를 산출하는 예측 결과 산출부;
상기 산출된 예측 결과와 상기 상담원의 상담 데이터를 비교하는 비교부; 및
비교 결과에 따라 상기 상담 데이터의 검수를 요청하는 검수 요청부를 포함하는 상담 서버.
In the counseling server for performing authentication monitoring based on video call using a neural network,
a communication unit for receiving the user's face image or ID image, and counselor's consultation data for non-face-to-face authentication during the video call;
a prediction result calculation unit for calculating a prediction result for the existence probability of each identification element included in the received facial image or ID image through a neural network;
a comparison unit comparing the calculated prediction result with the counselor's counseling data; and
Consultation server including an inspection requesting unit for requesting inspection of the consultation data according to the comparison result.
제 6 항에 있어서,
상기 식별 요소는 상기 사용자의 비대면 인증을 위해 판단되는 미리 결정된 항목 또는 항목 별 척도로 구분되는 이미지 상의 특징 정보인 것을 특징으로 하는 상담 서버.
7. The method of claim 6,
The identification element is a predetermined item determined for non-face-to-face authentication of the user or feature information on an image divided by an item-by-item scale.
제 6 항에 있어서,
상기 신경망은 기 검증된 상담 데이터를 기준으로 레이블링 된 이미지를 학습 데이터로 이용하여 학습된 것을 특징으로 하는 상담 서버.
7. The method of claim 6,
The neural network is a counseling server, characterized in that it is learned using the image labeled based on the verified counseling data as learning data.
제 6 항에 있어서,
상기 상담 데이터는 상기 안면 이미지 또는 상기 신분증 이미지에 포함된 식별 요소들의 존재 여부에 대한 상담원의 수기 작성된 메타 정보인 것을 특징으로 하는 상담 서버.
7. The method of claim 6,
The counseling server, characterized in that the counseling data is a counselor's handwritten meta information on the existence of identification elements included in the face image or the ID image.
제 6 항에 있어서,
상기 검수 요청에 따라 상기 상담 데이터와 상기 예측 결과를 검수하는 검수부; 및
상기 검수 결과 상기 신경망을 통해 산출된 예측 결과가 부정확하다고 판단된 경우, 상기 상담 데이터를 기준으로 레이블링 된 상기 안면 이미지 또는 상기 신분증 이미지를 학습데이터로 상기 신경망을 학습시키는 학습부를 더 포함하는 것을 특징으로 하는 상담 서버.
7. The method of claim 6,
an inspection unit that inspects the consultation data and the prediction result according to the inspection request; and
When it is determined that the prediction result calculated through the neural network is inaccurate as a result of the inspection, a learning unit for learning the neural network using the facial image or the ID image labeled based on the consultation data as learning data It characterized in that it further comprises consulting server.
제 1 항 내지 제 5 항 중 어느 한 항에 따른 신경망을 이용한 영상통화 기반의 인증 모니터링 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium storing a program for performing a video call-based authentication monitoring method using a neural network according to any one of claims 1 to 5.
KR1020200098479A 2020-08-06 2020-08-06 Method for monitoring authentication based on video call using neural network and system for the method KR102529552B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200098479A KR102529552B1 (en) 2020-08-06 2020-08-06 Method for monitoring authentication based on video call using neural network and system for the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200098479A KR102529552B1 (en) 2020-08-06 2020-08-06 Method for monitoring authentication based on video call using neural network and system for the method

Publications (2)

Publication Number Publication Date
KR20220018230A true KR20220018230A (en) 2022-02-15
KR102529552B1 KR102529552B1 (en) 2023-05-04

Family

ID=80325505

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200098479A KR102529552B1 (en) 2020-08-06 2020-08-06 Method for monitoring authentication based on video call using neural network and system for the method

Country Status (1)

Country Link
KR (1) KR102529552B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170052126A (en) * 2015-11-04 2017-05-12 주식회사 디오티스 Method for Non-faced Multi-authenticating for Creating Financial Information
JP2017517076A (en) * 2014-06-16 2017-06-22 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Face authentication method and system
KR20190016733A (en) * 2017-08-09 2019-02-19 한국과학기술연구원 Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method
KR102139257B1 (en) * 2020-04-24 2020-07-30 주식회사 풀스택 System for providing non face to face authentication service

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017517076A (en) * 2014-06-16 2017-06-22 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Face authentication method and system
KR20170052126A (en) * 2015-11-04 2017-05-12 주식회사 디오티스 Method for Non-faced Multi-authenticating for Creating Financial Information
KR20190016733A (en) * 2017-08-09 2019-02-19 한국과학기술연구원 Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method
KR102139257B1 (en) * 2020-04-24 2020-07-30 주식회사 풀스택 System for providing non face to face authentication service

Also Published As

Publication number Publication date
KR102529552B1 (en) 2023-05-04

Similar Documents

Publication Publication Date Title
US20240087102A1 (en) Automatic Image Based Object Damage Assessment
US20230177617A1 (en) Using machine learning to classify insurance card information
Buolamwini Gender shades: intersectional phenotypic and demographic evaluation of face datasets and gender classifiers
KR20190139938A (en) Picture-based vehicle damage estimation method and apparatus, and electronic device
US20150371191A1 (en) Model-driven evaluator bias detection
CN110991249A (en) Face detection method, face detection device, electronic equipment and medium
US20160125404A1 (en) Face recognition business model and method for identifying perpetrators of atm fraud
CN111339813A (en) Face attribute recognition method and device, electronic equipment and storage medium
WO2019021314A1 (en) A system and method for default probability prediction and credit scoring framework
CN111782550A (en) Method and device for training index prediction model based on user privacy protection
WO2023207557A1 (en) Method and apparatus for evaluating robustness of service prediction model, and computing device
CN114663871A (en) Image recognition method, training method, device, system and storage medium
CN115034886A (en) Default risk prediction method and device
US10380687B2 (en) Trade surveillance and monitoring systems and/or methods
CN112270313A (en) Online claims settlement method, device, equipment and storage medium
KR102529552B1 (en) Method for monitoring authentication based on video call using neural network and system for the method
CN116863116A (en) Image recognition method, device, equipment and medium based on artificial intelligence
CN111259698A (en) Method and device for acquiring image
CN111260219A (en) Asset class identification method, device, equipment and computer readable storage medium
Llauradó et al. Study of image sensors for enhanced face recognition at a distance in the Smart City context
CN115907898A (en) Method for recommending financial products to reinsurance client and related equipment
US11663851B2 (en) Detecting and notifying for potential biases in artificial intelligence applications
CN112686156A (en) Emotion monitoring method and device, computer equipment and readable storage medium
KR102528816B1 (en) Method for weakly supervised learning of neural network using verification information of identification card and system for the method
Bansal et al. IoT applications in financial services

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant