KR20230017454A - Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation - Google Patents

Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation Download PDF

Info

Publication number
KR20230017454A
KR20230017454A KR1020210098950A KR20210098950A KR20230017454A KR 20230017454 A KR20230017454 A KR 20230017454A KR 1020210098950 A KR1020210098950 A KR 1020210098950A KR 20210098950 A KR20210098950 A KR 20210098950A KR 20230017454 A KR20230017454 A KR 20230017454A
Authority
KR
South Korea
Prior art keywords
examinee
face
cheating
screen
evaluation
Prior art date
Application number
KR1020210098950A
Other languages
Korean (ko)
Inventor
이승한
백승희
오주철
박규현
서주원
김원준
이상엽
Original Assignee
(주)비센스바움
(주)이플마인드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)비센스바움, (주)이플마인드 filed Critical (주)비센스바움
Priority to KR1020210098950A priority Critical patent/KR20230017454A/en
Publication of KR20230017454A publication Critical patent/KR20230017454A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

Disclosed is a method for preventing cheating in a non-face-to-face evaluation. The method comprises: a first cheating detection step of checking the identity of an examinee based on a facial image extracted from the photographed image of the examinee; and a second cheating detection step of calculating the screen coordinates of the pupil gaze of the examinee from the photographed image of the examinee and determining correspondence to cheating based on the calculated screen coordinates. In the second cheating detection step, non-correspondence to cheating is determined if the calculated screen coordinates are placed in a region inside a screen, and correspondence to cheating is determined if the calculated screen coordinates are placed in a region outside the screen. Therefore, examinees can be prevented from cheating.

Description

비대면 평가에서의 부정행위 방지 방법, 장치 및 프로그램{Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation}Method, device and computer program for preventing cheating in non-face-to-face evaluation

본 발명은 비대면 평가에서의 부정행위 방지 방법에 관한 것으로, 보다 상세하게는 수험자의 촬영 영상으로부터 추출된 안면 이미지, 동공 이미지, 관절 데이터 및 소리 데이터 중 적어도 하나를 이용하여 수험자의 부정행위를 검출함으로써, 비대면 평가에서 부정행위가 이루어지는 것을 방지하기 위한 방법, 장치 및 프로그램에 관한 것이다.The present invention relates to a method for preventing cheating in a non-face-to-face evaluation, and more particularly, detects cheating of an examinee using at least one of a facial image, a pupil image, joint data, and sound data extracted from a photographed image of an examinee. By doing so, it relates to a method, device, and program for preventing cheating in non-face-to-face evaluation.

컴퓨터 기술과 인터넷 기술이 점차 발달함에 따라, 대중들에게 다양한 교육 과정에 대한 온라인 교육 내지 온라인 평가가 이루어질 수 있다.As computer technology and Internet technology gradually develop, online education or online evaluation of various educational courses can be performed for the public.

구체적으로, 온라인 교육 내지 온라인 평가는 수험자가 컴퓨터 플랫폼 내지 스마트 모바일 어플리케이션을 통해 온라인 교육 웹사이트 내지 온라인 평가 웹사이트에 연결하고, 관리자가 제공하는 온라인 교육 기능 내지 온라인 평가 기능을 사용하게 함으로써 수행될 수 있다.Specifically, the online education or online evaluation may be performed by having the examinee connect to the online education website or online evaluation website through a computer platform or smart mobile application and use the online education function or online evaluation function provided by the administrator. there is.

한편, 수험자가 정해진 장소에 직접 방문할 필요없이 온라인 평가를 수행하는 비대면 평가 방식은, 수험자가 정해진 장소에 직접 방문하여 평가를 수행하는 대면 평가 방식에 비해, 평가에 대한 접근성과 수험자의 편의성이 증대될 수 있다는 장점이 있으며, 대면 평가에서 일어날 수 있는 사고 발생, 질병 감염 등의 위험이 예방될 수 있다는 효과를 가지고 있다.On the other hand, the non-face-to-face evaluation method, in which the examinee conducts the online evaluation without the need to visit the designated place, has better accessibility to the evaluation and the convenience of the examinee, compared to the face-to-face evaluation method in which the examinee visits the designated place and conducts the evaluation. It has the advantage that it can be increased, and it has the effect that the risk of accidents, disease infection, etc. that can occur in face-to-face evaluation can be prevented.

하지만, 감독관 등의 인원이 평가 현장에서 수험자를 직접 관찰할 수 있는 대면 평가 방식에 비해, 수험자 본인만이 평가에 참여하는 비대면 평가 방식은, 특유의 높은 개방성에 의해 다양한 방식의 부정행위가 일어날 수 있으나, 이러한 부정행위를 객관적으로 방지하기 위한 방안은 부족한 실정이다.However, compared to a face-to-face evaluation method in which personnel such as supervisors can directly observe test-takers at the evaluation site, the non-face-to-face evaluation method, in which only the examinee himself participates in the evaluation, is prone to cheating in various ways due to its unique high openness. However, there is a lack of measures to objectively prevent such cheating.

본 발명의 다양한 과제 중 하나는, 수험자의 촬영 영상으로부터 추출된 데이터를 기초로 비대면 평가에서의 부정행위를 방지하는 방법을 제공하는 것이다.One of the various tasks of the present invention is to provide a method for preventing cheating in a non-face-to-face evaluation based on data extracted from a photographed image of an examinee.

본 발명의 다양한 과제 중 하나는, 수험자의 촬영 영상으로부터 추출된 데이터를 기초로 비대면 평가에서의 부정행위를 방지하기 위한 장치를 제공하는 것이다.One of the various tasks of the present invention is to provide a device for preventing cheating in a non-face-to-face evaluation based on data extracted from a photographed image of an examinee.

본 발명의 다양한 과제 중 하나는, 수험자의 촬영 영상으로부터 추출된 데이터를 기초로 비대면 평가에서의 부정행위를 방지하는 방법을 실행하기 위한 프로그램 코드를 포함하는 기록 매체에 저장된 프로그램을 제공하는 것이다.One of the various tasks of the present invention is to provide a program stored in a recording medium including a program code for executing a method of preventing cheating in a non-face-to-face evaluation based on data extracted from a photographed image of an examinee.

본 발명의 다양한 과제 중 하나는, 수험자의 안면 이미지를 분석하여 부정행위를 검출하는 방법을 제공하는 것이다.One of the various problems of the present invention is to provide a method for detecting cheating by analyzing a facial image of a test taker.

본 발명의 다양한 과제 중 하나는, 수험자의 동공 이미지를 분석하여 부정행위를 검출하는 방법을 제공하는 것이다.One of the various problems of the present invention is to provide a method for detecting cheating by analyzing a pupil image of an examinee.

본 발명의 다양한 과제 중 하나는, 수험자의 관절 데이터를 분석하여 부정행위를 검출하는 방법을 제공하는 것이다.One of the various problems of the present invention is to provide a method for detecting cheating by analyzing joint data of an examinee.

본 발명의 다양한 과제 중 하나는, 수험자의 소리 데이터를 분석하여 부정행위를 검출하는 방법을 제공하는 것이다.One of the various problems of the present invention is to provide a method for detecting cheating by analyzing test-taker's sound data.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 비대면 평가에서의 부정행위 방지 방법은 수험자의 촬영 영상으로부터 추출된 안면 이미지를 기초로 신원을 확인하는 제1 부정 행위 검출 단계 및 상기 수험자의 촬영 영상으로부터 상기 수험자의 동공이 응시하는 스크린 좌표를 산출하고, 상기 산출된 스크린 좌표를 기초로 부정 행위 해당 여부를 판단하는 제2 부정 행위 검출 단계를 포함하며, 상기 제2 부정 행위 검출 단계는, 상기 산출된 스크린 좌표가 스크린 내측 영역에 위치하는 경우, 부정 행위에 해당하지 않는 것으로 판단하고, 상기 산출된 스크린 좌표가 스크린 외측 영역에 위치하는 경우, 부정 행위에 해당하는 것으로 판단할 수 있다.A method for preventing cheating in a non-face-to-face evaluation according to an embodiment of the present invention for achieving the above object is a first cheating detection step of confirming an identity based on a facial image extracted from a photographed image of a test taker and the test taker A second cheating detection step of calculating screen coordinates at which the examinee's pupil gazes from the captured image and determining whether cheating is applicable based on the calculated screen coordinates, wherein the second cheating detecting step comprises: , If the calculated screen coordinates are located in the inner region of the screen, it is determined that they do not correspond to cheating, and if the calculated screen coordinates are located in the outer region of the screen, it is determined that they correspond to cheating.

그리고, 상기 제1 부정 행위 검출 단계는, 상기 수험자의 촬영 영상으로부터 추출된 제1 안면 영역과, "상기 수험자의 신분증으로부터 추출된 제2 안면 영역 및 상기 수험자가 제출한 최근 사진으로부터 추출된 제3 안면 영역 중 적어도 하나"를 비교함으로써 수행될 수 있다.In addition, the first cheating detection step may include a first facial region extracted from the photographed image of the examinee, a second facial region extracted from the ID of the examinee, and a third extracted from a recent photo submitted by the examinee. It may be performed by comparing "at least one of the facial regions".

또한, 상기 제1 부정 행위 검출 단계는,상기 제1 안면 영역 내지 상기 제3 안면 영역으로부터 각각 벡터값을 추출하고, 상기 추출된 벡터값들의 유클리디안 거리를 비교함으로써 수험자의 신원을 확인할 수 있다.In the first misbehavior detection step, the identity of the test taker may be confirmed by extracting vector values from the first to third facial regions, respectively, and comparing Euclidean distances of the extracted vector values. .

그리고, 상기 제2 부정 행위 검출 단계는, 스크린을 바라보고 있는 수험자의 동공이 스크린의 어느 영역에 위치하는지 판단하기 위해 학습된 인공 신경망 모델을 이용하여 상기 스크린 좌표를 산출할 수 있다.In the second cheating detection step, the screen coordinates may be calculated using an artificial neural network model learned to determine which region of the screen the pupil of the test taker who is looking at the screen is located.

또한, 상기 수험자의 동공이 응시하는 영역은 스크린의 중앙 영역과 스크린의 가장자리 영역 및 스크린 밖의 외부 영역으로 구분되고, 상기 스크린의 중앙 영역 및 상기 스크린의 가장자리 영역은 부정행위에 해당되는 않는 안전 영역으로, 상기 스크린 밖의 외부 영역은 부정행위에 해당되는 비안전 영역으로 설정될 수 있다.In addition, the area gazed by the examinee's pupil is divided into a central area of the screen, an edge area of the screen, and an outer area outside the screen, and the central area of the screen and the edge area of the screen are safe areas that do not correspond to cheating. , The external area outside the screen may be set as a non-safe area corresponding to cheating.

그리고, 상기 인공 신경망 모델은 수험자의 동공이 스크린 내측에 위치한 안전 영역을 응시하는지, 스크린 외측에 위치한 비안전 영역을 응시하는지 및 수험자가 눈을 감았는지에 대한 복수의 클래스를 소프트맥스(softmax) 계층으로 설정함으로써, 수험자의 동공이 응시하는 스크린 좌표를 산출할 수 있다.In addition, the artificial neural network model is a softmax layer of a plurality of classes for whether the examinee's pupil gazes at a safe area located inside the screen or a non-safe area located outside the screen, and whether the examinee's eyes are closed. By setting to , it is possible to calculate the screen coordinates at which the pupils of the examinee gaze.

또한, 상기 수험자 촬영 영상으로부터 인식된 객체 인식 데이터를 기초로 제3 부정 행위를 검출하는 제3 부정 행위 검출 단계를 더 포함하고, 상기 제3 부정 행위 검출 단계는, 상기 수험자의 촬영 영상으로부터 사람을 인식하 객체 인식 데이터를 추출하고, 상기 객체 인식 데이터로부터 상기 수험자의 관절 데이터를 추출하고, 상기 수험자의 관절 데이터가 기설정된 안전 행동 범위를 벗어나면 부정행위에 해당하는 것으로 판단함으로써 수행될 수 있다.The method may further include a third misconduct detection step of detecting a third misconduct based on object recognition data recognized from the photographed image of the examinee, wherein the third misbehavior detection step includes detecting a person from the captured image of the examinee. It may be performed by extracting object recognition data under recognition, extracting joint data of the examinee from the object recognition data, and determining that the examinee's joint data corresponds to cheating when the joint data of the examinee is out of a preset safe action range.

그리고, 상기 수험자의 촬영 영상으로부터 추출된 소리 데이터를 기초로 부정행위 해당 여부를 판단하는 제4 부정행위 검출 단계를 더 포함하고, 상기 제4 부정행위 검출 단계는, 상기 수험자의 촬영 영상으로부터 소리 데이터를 측정하고, 상기 소리 데이터의 데시벨(dB)이 기설정된 안전 데시벨 범위를 벗어나면 부정행위에 해당하는 것으로 판단함으로써 수행될 수 있다.And, further comprising a fourth cheating detection step of determining whether or not cheating is applicable based on the sound data extracted from the photographed image of the examinee, wherein the fourth cheating detection step comprises the sound data from the photographed image of the examinee. It can be performed by measuring , and determining that it corresponds to cheating when the decibel (dB) of the sound data is out of a preset safe decibel range.

또한, 상기 제4 부정행위 검출 단계는, 상기 측정된 소리 데이터에 음성이 포함된 것을 감지하면 부정행위에 해당하는 것으로 판단함으로써 수행될 수 있다.In addition, the fourth misbehavior detection step may be performed by determining that the measured sound data corresponds to a misbehavior when it is detected that a voice is included in the measured sound data.

그리고, 상기 제1 부정 행위 검출 단계, 상기 제2 부정 행위 검출 단계, 상기 제3 부정 행위 검출 단계 및 상기 제4 부정 행위 검출 단계 적어도 하나라도 만족하지 못하는 경우, 상기 수험자를 부정 행위로 판단할 수 있다.In addition, if at least one of the first misconduct detection step, the second misbehavior detection step, the third misbehavior detection step, and the fourth misbehavior detection step is not satisfied, the examinee may be determined to have cheated. there is.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 비대면 평가에서의 부정행위 방지 장치는 수험자의 촬영 영상으로부터 상기 수험자의 안면 이미지를 검출하기 위한 안면 검출모듈, 상기 수험자의 촬영 영상으로부터 상기 수험자의 동공 이미지를 검출하기 위한 동공 검출모듈, 상기 수험자의 촬영 영상으로부터 상기 수험자의 관절 데이터를 검출하기 위한 관절 검출모듈, 상기 수험자의 촬영 영상으로부터 소리 데이터를 검출하기 위한 소리 검출모듈 및 상기 수험자의 부정행위를 판단하기 위해 상기 안면 검출모듈, 상기 동공 검출모듈, 상기 관절 검출모듈 및 상기 소리 검출모듈을 제어하는 제어부를 포함하며, 상기 제어부는, 상기 수험자의 촬영 영상으로부터 상기 수험자의 동공이 응시하는 스크린 좌표를 산출하고, 상기 산출된 스크린 좌표가 스크린 내측 영역에 위치하는 경우 부정 행위에 해당하지 않는 것으로 판단하고, 상기 산출된 스크린 좌표가 스크린 외측 영역에 위치하는 경우 부정 행위에 해당하는 것으로 판단할 수 있다.Meanwhile, an apparatus for preventing cheating in a non-face-to-face evaluation according to an embodiment of the present invention for achieving the above object includes a face detection module for detecting a facial image of the examinee from a photographed image of the examinee, and a photographed image of the examinee. A pupil detection module for detecting the pupil image of the examinee, a joint detection module for detecting the joint data of the examinee from the photographed image of the examinee, a sound detection module for detecting sound data from the photographed image of the examinee, and the above and a control unit controlling the face detection module, the pupil detection module, the joint detection module, and the sound detection module to determine cheating of the examinee, wherein the control unit determines whether the pupil of the examinee is detected from the photographed image of the examinee. Calculate the coordinates of the staring screen, and if the calculated screen coordinates are located in the inner area of the screen, it is determined that they do not correspond to cheating, and if the calculated screen coordinates are located in the outer area of the screen, it is determined that they correspond to cheating. can judge

또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 기록 매체에 저장된 프로그램은 상술한 비대면 평가에서의 부정행위 방지 방법을 실행하기 위한 프로그램 코드를 포함할 수 있다.In addition, a program stored in a recording medium according to an embodiment of the present invention for achieving the above object may include a program code for executing the above-described cheating prevention method in non-face-to-face evaluation.

본 발명의 예시적인 실시예들에 따른 비대면 평가에서의 부정행위 방지 방법은 수험자의 촬영 영상으로부터 추출된 데이터를 기초로 본인 인증 확인, 시선 추적, 행동 인식 및 소리 감지를 통해 수험자의 부정행위를 방지할 수 있다.A method for preventing cheating in a non-face-to-face evaluation according to exemplary embodiments of the present invention detects cheating of a test taker through identity authentication confirmation, eye tracking, action recognition, and sound detection based on data extracted from a photographed image of the test taker. It can be prevented.

따라서, 비대면 평가에서의 부정행위 발생이 방지될 수 있고, 평가 신뢰성이 향상될 수 있으며, 평가 결과의 공정성이 확립될 수 있다.Accordingly, the occurrence of cheating in non-face-to-face evaluation can be prevented, evaluation reliability can be improved, and fairness of evaluation results can be established.

도 1은 본 발명의 예시적인 실시예들에 따른 비대면 평가의 수행 방법을 설명하기 위한 순서도이다.
도 2는 상기 비대면 평가에서의 평가 접수 단계를 설명하기 위한 순서도이다.
도 3은 상기 비대면 평가에서의 사전 점검 단계를 설명하기 위한 순서도이다.
도 4는 상기 비대면 평가에서의 평가 준비 단계를 설명하기 위한 순서도이다.
도 5는 상기 비대면 평가에서의 시험 진행 단계를 설명하기 위한 순서도이다.
도 6은 본 발명의 예시적인 실시예들에 따른 본인 인증 과정을 이용한 부정행위 검출 단계를 설명하기 위한 순서도이다.
도 7은 본 발명의 예시적인 실시예들에 따른 인공지능 기반 안면 인증에 대해 보다 구체적으로 설명하기 위한 도면이다.
도 8은 본 발명의 예시적인 실시예들에 따른 시선 추적을 이용한 부정행위 검출 단계를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 랜드마크를 이용한 얼굴 영역 및 양쪽 눈 영역 추출 과정을 설명하기 위한 예시도이다.
도 10은 수험자의 동공이 응시하는 영역을 분류하기 위한 스크린 좌표의 배치 구조를 설명하기 위한 도면이다.
도 11 내지 도 12는 본 발명의 예시적인 실시예들에 따른 행동 인식을 이용한 부정행위 검출 단계를 설명하기 위한 도면들이다.
도 13은 본 발명의 예시적인 실시예들에 따른 소리 감지를 이용한 부정행위 검출 단계를 설명하기 위한 순서도이다.
도 14는 본 발명의 예시적인 실시예들에 따른 비대면 평가에서의 부정행위 방지 방법을 실행시키기 위한 구성을 설명하기 위한 블록도이다.
1 is a flowchart illustrating a method of performing non-face-to-face evaluation according to exemplary embodiments of the present invention.
2 is a flowchart for explaining the evaluation acceptance step in the non-face-to-face evaluation.
3 is a flowchart for explaining a preliminary inspection step in the non-face-to-face evaluation.
4 is a flowchart for explaining the evaluation preparation step in the non-face-to-face evaluation.
5 is a flowchart for explaining the test progress step in the non-face-to-face evaluation.
6 is a flowchart illustrating a fraud detection step using a user authentication process according to exemplary embodiments of the present invention.
7 is a diagram for explaining in more detail AI-based facial authentication according to exemplary embodiments of the present invention.
8 is a diagram for explaining a cheating detection step using gaze tracking according to exemplary embodiments of the present invention.
9 is an exemplary diagram for explaining a process of extracting a face region and both eye regions using landmarks according to an embodiment of the present invention.
10 is a diagram for explaining an arrangement structure of screen coordinates for classifying regions gazed by the examinee's pupils.
11 and 12 are diagrams for explaining a cheating detection step using action recognition according to exemplary embodiments of the present invention.
13 is a flowchart illustrating a fraud detection step using sound detection according to exemplary embodiments of the present invention.
14 is a block diagram illustrating a configuration for executing a method for preventing cheating in non-face-to-face evaluation according to exemplary embodiments of the present invention.

이하, 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described. The detailed descriptions that follow are provided to provide a comprehensive understanding of the methods, devices and/or systems described herein. However, this is only an example and the present invention is not limited thereto.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, if it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, the definition should be made based on the contents throughout this specification. Terminology used in the detailed description is only for describing the embodiments of the present invention and should in no way be limiting. Unless expressly used otherwise, singular forms of expression include plural forms. In this description, expressions such as "comprising" or "comprising" are intended to indicate any characteristic, number, step, operation, element, portion or combination thereof, one or more other than those described. It should not be construed to exclude the existence or possibility of any other feature, number, step, operation, element, part or combination thereof.

또한, 본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term.

도 1은 본 발명의 예시적인 실시예들에 따른 비대면 평가의 수행 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method of performing non-face-to-face evaluation according to exemplary embodiments of the present invention.

도 1을 참조하면, 본 발명의 예시적인 실시예들에 따른 비대면 평가는 평가 접수 단계(S1), 사전 점검 단계(S2), 평가 준비 단계(S3) 및 시험 진행 단계(S4)를 포함할 수 있으며, 평가 접수 단계(S1), 사전 점검 단계(S2), 평가 준비 단계(S3) 및 시험 진행 단계(S4)는 순차적으로 수행될 수 있다.1, the non-face-to-face evaluation according to exemplary embodiments of the present invention may include an evaluation acceptance step (S1), a preliminary inspection step (S2), an evaluation preparation step (S3), and a test progress step (S4). The evaluation acceptance step (S1), pre-inspection step (S2), evaluation preparation step (S3), and test progress step (S4) may be sequentially performed.

본 발명의 예시적인 실시예들에 따른 비대면 평가는 데스크탑 PC, 노트북, 넷북 등과 같은 컴퓨터와, 태블릿 PC, 스마트폰 등과 같은 휴대용 전자기기를 함께 사용하여 수행될 수 있으나, 본 발명의 개념은 반드시 이에 한정되지 않는다. 즉, 본 발명의 예시적인 실시예들에 따른 비대면 평가는 컴퓨터와 휴대용 전자기기 중 적어도 하나의 장치를 이용해서만 수행될 수도 있으며, 이 경우 후술되는 수험자의 App 접속 관련 과정은 생략될 수 있다.Non-face-to-face evaluation according to exemplary embodiments of the present invention may be performed using a computer such as a desktop PC, notebook, netbook, etc., together with a portable electronic device such as a tablet PC, smart phone, etc., but the concept of the present invention is essential. Not limited to this. That is, the non-face-to-face evaluation according to exemplary embodiments of the present invention may be performed only using at least one of a computer and a portable electronic device, and in this case, the process related to the test taker's access to the App can be omitted. .

이하에서는, 도 2 내지 도 5를 기초로 평가 접수 단계(S1), 사전 점검 단계(S2), 평가 준비 단계(S3) 및 시험 진행 단계(S4) 각각에 대해 상세히 설명하기로 한다.Hereinafter, each of the evaluation acceptance step (S1), preliminary inspection step (S2), evaluation preparation step (S3), and test progress step (S4) will be described in detail based on FIGS. 2 to 5.

도 2는 상기 비대면 평가에서의 평가 접수 단계를 설명하기 위한 순서도이고, 도 3은 상기 비대면 평가에서의 사전 점검 단계를 설명하기 위한 순서도이며, 도 4는 상기 비대면 평가에서의 평가 준비 단계를 설명하기 위한 순서도이고, 도 5는 상기 비대면 평가에서의 시험 진행 단계를 설명하기 위한 순서도이다.Figure 2 is a flow chart for explaining the evaluation acceptance step in the non-face-to-face evaluation, Figure 3 is a flow chart for explaining the pre-inspection step in the non-face-to-face evaluation, Figure 4 is the evaluation preparation step in the non-face-to-face evaluation It is a flowchart for explaining, and FIG. 5 is a flowchart for explaining the test progress step in the non-face-to-face evaluation.

도 2를 참조하면, 본 발명의 예시적인 실시예들에 따른 평가 접수 단계(S1)는 수험자로부터 개인정보를 등록(S11)받고, 개인정보 이용동의에 대한 수험자의 동의를 수집(S12)하고, 상기 수험자의 신분증 사진을 등록(S13)받고, 신분증 진위를 확인(14)함으로써 수행될 수 있다.Referring to FIG. 2 , in the evaluation reception step (S1) according to exemplary embodiments of the present invention, personal information is registered (S11) from the examinee, and the examinee's consent to the use of personal information is collected (S12). It can be performed by receiving the ID photo of the examinee registered (S13) and confirming the authenticity of the ID (14).

비록 도시하지는 않았으나, 평가 접수 단계(S1)는 개인정보 이용동의 과정(S12)이 수행되기 이전에, 상기 수험자가 접수 페이지에 접속한 상태에서 개인정보 이용에 대한 안내 사항을 제공하는 과정을 더 포함할 수 있으며, 개인정보 이용동의 과정(S12)이 완료되지 않는 경우에는 상기 개인정보 이용에 대한 안내 사항을 제공하는 과정으로 회귀하도록 제어될 수 있다. 또한, 평가 접수 단계(S1)는 상기 수험자로부터 보안 서약에 대한 동의를 수집하는 과정을 더 포함할 수 있으며, 개인정보 이용동의 과정(S12)이 완료된 경우에는 상기 보안 서약에 대한 동의를 수집하는 과정이 수행될 수 있다.Although not shown, the evaluation reception step (S1) further includes a process of providing guidance on the use of personal information while the test taker accesses the application page before the process of consenting to the use of personal information (S12) is performed. If the process of consenting to the use of personal information (S12) is not completed, it can be controlled to return to the process of providing information on the use of personal information. In addition, the evaluation acceptance step (S1) may further include a process of collecting consent to the security pledge from the examinee, and when the process of consent to use of personal information (S12) is completed, the process of collecting consent to the security pledge this can be done

예시적인 실시예들에 있어서, 상기 평가 접수 단계(S1)는 신분증 진위 확인(S14) 과정이 완료된 이후에, 수험자의 최근 사진을 등록한 후 신분증 사진과 매칭시키는 과정(S15)을 더 포함할 수 있다.In exemplary embodiments, the evaluation acceptance step (S1) may further include a process (S15) of registering a recent photo of the examinee and then matching it with the ID photo after the authenticity confirmation of the ID card (S14) is completed. .

신분증 사진 등록 과정(S13)은 상기 수험자로부터 신분증을 촬영한 파일을 제출 받은 후, 상기 신분증의 진위 확인을 수행하고, 상기 신분증 사진의 얼굴 영역(또는, 다른 표현으로는 안면 영역)을 추출함으로써 수행될 수 있다.The ID photo registration process (S13) is performed by receiving a file in which the ID photo is taken from the examinee, verifying the authenticity of the ID card, and extracting the facial area (or, in other words, the facial area) of the ID photo. It can be.

이때, 상기 신분증 촬영 파일의 제출은 신분증 촬영 가이드를 통해, 상기 수험자의 신분증이 가이드 라인 내에 신분증이 들어오도록 안내한 후 반사광이 없도록 촬영하도록 안내함으로써 수행될 수 있다.At this time, the submission of the ID photographing file may be performed by guiding the examinee's ID card to enter the guide line through the ID photographing guide and then guiding the student to photograph the ID card so that there is no reflected light.

상기 신분증 촬영 파일의 제출이 완료되면, 상기 신분증 촬영 파일에 대해 전처리 과정이 수행될 수 있다.When the submission of the ID photographing file is completed, a pre-processing process may be performed on the ID photographing file.

상기 전처리 과정은 상기 신분증 촬영 파일에 대해 노이즈를 제거하고, 사각영역 검출 및 평면화를 수행하고, 신분증의 종류마다 설정된 ROI(Region Of Interest) 분할을 수행함으로써 이루어질 수 있다.The pre-processing process may be performed by removing noise from the ID photographing file, performing dead zone detection and flattening, and performing ROI (Region Of Interest) division set for each type of ID card.

상기 신분증 촬영 파일의 전처리 과정이 완료되면, 상기 전처리된 신분증 촬영 파일에 대해 특징 추출 과정이 수행될 수 있다.When the pre-processing of the ID photographing file is completed, a feature extraction process may be performed on the preprocessed ID photographing file.

상기 특징 추출 과정은 상기 신분증 촬영 파일의 이미지 영역와 글자 영역를 각각 추출함으로써 수행될 수 있다.The feature extraction process may be performed by extracting an image area and a text area of the ID photographing file, respectively.

예시적인 실시예들에 있어서, 상기 이미지 영역추출은 인공 신경망 모델을 이용하여 상기 수험자의 얼굴영역을 추출한 후 랜드마크(Facial Landmark)를 추출하고 임베딩(embedding)을 생성함으로써 수행될 수 있다. 일 실시예에 있어서, 상기 이미지 영역추출은 추출된 얼굴영역의 개수가 1개인지 또는 2개이상인지 여부를 더 검출함으로써 수행될 수 있다.In exemplary embodiments, the image region extraction may be performed by extracting the examinee's face region using an artificial neural network model, then extracting a facial landmark, and generating an embedding. In one embodiment, the image area extraction may be performed by further detecting whether the number of extracted face areas is one or two or more.

예시적인 실시예들에 있어서, 상기 글자 영역추출은 OCR(Optical character recognition)을 통해 수행될 수 있다.In exemplary embodiments, the character region extraction may be performed through OCR (Optical Character Recognition).

상기 특징 추출 과정이 완료되면, 특정 기관을 통해 추출된 신분증 정보를 기초를 신분증의 진위를 확인하는 신분증 진위 확인 과정(S14)이 수행될 수 있다. 상기 신분증 진위 확인 과정(S14)은, 서버를 통해 상기 추출된 신분증 정보를 상기 특정 기관으로 송신한 이후에 상기 특정 기관으로부터 진위 확인 결과를 수신함으로써 수행될 수 있으나, 본 발명의 개념은 반드시 이에 한정되지 않는다. 즉, 상기 신분증 진위 확인 과정(S14)은 상기 추출된 신분증 정보를 상기 서버의 데이터베이스(Data Base; DB)에 기저장된 정보들과 비교함으로써 수행될 수도 있다. 상기 신분증 정보는 이름, 주민등록번호, 발급일자, 운전면허번호, 여권번호, 외국인 등록번호 등을 포함할 수 있다. 상기 특정 기관은 정부24와 같은 대한민국 정보 관리 포털, 경찰청 산하의 도로교통공단 포털, 하이코리아와 같은 외국인 정보 관리 포털 등을 포함할 수 있다.When the feature extraction process is completed, a process of confirming the authenticity of the ID card based on the ID information extracted through a specific institution may be performed (S14). The identity confirmation process (S14) may be performed by receiving an authenticity confirmation result from the specific institution after transmitting the extracted ID card information to the specific institution through the server, but the concept of the present invention is necessarily limited thereto. It doesn't work. That is, the identity confirmation process (S14) may be performed by comparing the extracted identity card information with previously stored information in a database (DB) of the server. The identification information may include a name, resident registration number, issuance date, driver's license number, passport number, alien registration number, and the like. The specific agency may include a Korean information management portal such as Government 24, a portal for the Korea Road Traffic Authority under the National Police Agency, and a foreigner information management portal such as Hi Korea.

상기 신분증 진위 확인 과정(S14)이 완료되지 않는 경우에는 신분증 사진 등록 과정(S13)으로 회귀하도록 제어될 수 있으며, 상기 신분증 진위 확인 과정(S14)이 완료되는 경우에는 최근 사진 등록 및 신분증 사진과의 매칭 과정(S15)이 수행될 수 있다.If the identity verification process (S14) is not completed, it can be controlled to return to the identification card photo registration process (S13), and if the identity verification process (S14) is completed, the latest photo registration and identification photo A matching process (S15) may be performed.

상기 최근 사진의 등록은 신분증 사진 등록 과정(S13)과 유사하게, 상기 수험자로부터 최근 사진을 제출 받은 후, 상기 최근 사진의 얼굴 영역 내지 안면 영역을 추출함으로써 수행될 수 있다. 이때, 상기 최근 사진의 얼굴 영역 내지 안면 영역의 추출은 상기 전처리된 신분증 촬영 파일의 이미지 영역추출과 실질적으로 동일하거나 유사하게 수행될 수 있다. 즉, 상기 최근 사진의 얼굴 영역 내지 안면 영역의 추출은 인공 신경망 모델을 통해 상기 수험자의 얼굴영역을 추출한 후 랜드마크(Facial Landmark)를 추출하고 임베딩(embedding)을 생성함으로써 수행될 수 있다.Similar to the process of registering an ID photo (S13), the recent photo registration may be performed by receiving a recent photo from the test taker and then extracting a face area or facial area of the recent photo. In this case, extraction of the face region or facial region of the latest photo may be performed substantially the same as or similar to the extraction of the image region of the preprocessed ID file. That is, the extraction of the face region or facial region of the latest photo may be performed by extracting the examinee's face region through an artificial neural network model, extracting a facial landmark, and generating an embedding.

이후, 상기 최근 사진의 안면 영역과 상기 신분증 사진의 안면 영역 각각으로부터 벡터값을 각각 추출하고, 상기 최근 사진의 안면 영역으로부터 추출된 벡터값들이 가지는 유클리디안 거리(Euclidean Distance)와 상기 신분증 사진의 안면 영역으로부터 추출된 벡터값들이 가지는 유클리디안 거리를 비교함으로써, 상기 최근 사진 등록 및 신분증 사진과의 매칭 과정(S15)이 완료될 수 있다. 이와는 달리, 상기 최근 사진 등록 및 신분증 사진과의 매칭 과정(S15)은 상기 최근 사진의 안면 영역으로부터 추출된 특정 벡터값과 상기 신분증 사진의 안면 영역으로부터 추출된 특정 벡터값 사이의 유클리디안 거리를 비교함으로써 수행될 수도 있다. 이때, 상기 최근 사진과 상기 신분증 사진의 매칭이 완료되기 위한 유클리디안 거리(d)는 1보다 작을 수 있으며, 바람직하게는 0.4보다 작을 수 있다.Thereafter, vector values are extracted from each of the facial area of the latest photo and the facial area of the ID photo, respectively, and the Euclidean distance of the vector values extracted from the facial area of the recent photo and the ID photo By comparing Euclidean distances of vector values extracted from the face region, the process of registering the latest photo and matching it with the ID photo (S15) can be completed. In contrast, in the process of registering the latest photo and matching it with the ID photo (S15), the Euclidean distance between the specific vector value extracted from the facial area of the latest photo and the specific vector value extracted from the facial area of the ID photo is calculated. It can also be done by comparing. In this case, the Euclidean distance (d) for completing matching between the latest photo and the ID photo may be less than 1, and preferably less than 0.4.

이러한 인공신경망 모델 기반 안면 인증에 대해서는 이후 도 6 내지 7을 참조하여 보다 구체적으로 설명하기로 한다. Face authentication based on the artificial neural network model will be described in more detail with reference to FIGS. 6 and 7 hereinafter.

한편, 상기 최근 사진 등록 및 신분증 사진과의 매칭 과정(S15)이 완료되면, 상기 최근 사진과 상기 신분증 사진의 매칭율을 산정하는 매칭율 판단 과정(S16)이 수행될 수 있다.Meanwhile, when the process of registering the latest photo and matching the ID photo (S15) is completed, a matching rate determination process (S16) of calculating a matching rate between the recent photo and the ID photo may be performed.

예시적인 실시예들에 있어서, 상기 수험자의 최근 사진과 상기 수험자의 신분증 사진의 매칭율이 특정 매칭율(A)에 미달하는 경우에는, 관리자를 통해 상기 수험자의 평가 접수 확인(S17)을 수행하게 할 수 있으며, 이 경우 평가 접수 단계(S1)는 완료되지 않은 상태로 보류될 수 있다. 이때, 상기 특정 매칭율(A)은 60%보다 크고 80%보다 작은 값, 예를 들어, 70%일 수 있다.In exemplary embodiments, when the matching rate between the recent photo of the examinee and the ID photo of the examinee does not reach a specific matching rate (A), the test taker's acceptance confirmation (S17) is performed through an administrator. In this case, the evaluation acceptance step (S1) may be suspended in an incomplete state. In this case, the specific matching rate A may be greater than 60% and less than 80%, for example, 70%.

일 실시예에 있어서, 상기 관리자의 평가 접수 확인 과정(S17)을 통해 신분증 사진과 최근 사진의 인물이 동일인이라고 판단되면 DB Flag를 정상 처리하여 평가 접수 단계(S1)가 완료될 수 있다. 이와는 달리, 상기 관리자의 평가 접수 확인 과정(S17)을 통해 신분증 사진과 최근 사진의 인물이 동일인이 아니라고 판단되면 DB Flag를 비정상 처리한 후 문자나 전화 등을 통해 수험자에게 소명을 요구하는 과정이 더 수행될 수 있다. In one embodiment, if it is determined that the person in the ID photo and the recent photo is the same person through the evaluation acceptance confirmation process (S17) of the manager, the evaluation acceptance step (S1) may be completed by normally processing the DB flag. In contrast, if it is determined that the ID photo and the person in the recent photo are not the same person through the administrator's evaluation acceptance confirmation process (S17), the process of requesting an explanation from the test taker through text or phone after processing the DB Flag as abnormal is further carried out. can be performed

한편, 상기 수험자의 최근 사진과 상기 수험자의 신분증 사진의 매칭율이 상기 특정 매칭율(A)을 넘어서는 경우에는, 평가 접수 단계(S1)가 완료될 수 있으며, 상기 수험자에게 사전 점검 단계(S2)에 대한 안내가 수행될 수 있다.On the other hand, if the matching rate between the recent photo of the examinee and the ID photo of the examinee exceeds the specific matching rate (A), the evaluation acceptance step (S1) may be completed, and the preliminary check step (S2) Guidance for can be performed.

도 3을 참조하면, 본 발명의 예시적인 실시예들에 따른 사전 점검 단계(S2)는 상기 수험자가 Test Page에 접속(S21)한 후, 필수 프로그램을 설치(S22)하고, 상기 필수 프로그램의 설치가 완료된 것을 확인(S23)함으로써 수행될 수 있다.Referring to FIG. 3, in the pre-inspection step (S2) according to exemplary embodiments of the present invention, after the examinee accesses the Test Page (S21), installs an essential program (S22), and installs the essential program. It can be performed by confirming that the is completed (S23).

이때, 필수 프로그램의 설치 완료 확인 과정(S23)은 장치 검사를 통해 수행될 수 있다.At this time, the process of confirming the installation completion of the essential program (S23) may be performed through device inspection.

보다 구체적으로, 필수 프로그램의 설치 완료 확인 과정(S23)은 상기 장치 검사를 통해 평가 보안 프로그램, 카메라 제어 프로그램 및 마이크 제어 프로그램이 각각 정상적으로 동작하는지 여부를 확인함으로써 수행될 수 있으며, 상기 프로그램들 중 제대로 동작하지 않는 프로그램에 대한 설치를 안내함으로써 수행될 수 있다. 이때, 평가 보안 프로그램, 카메라 제어 프로그램 및 마이크 제어 프로그램이 제대로 설치되었음에도 제대로 기능하지 않는 경우에는, 상기 수험자에게 Q/A 내지 관리자 채팅을 통해 관리자가 문제를 해결하도록 안내할 수 있다.More specifically, the installation completion confirmation process of the required program (S23) may be performed by checking whether the evaluation security program, the camera control program, and the microphone control program operate normally through the device inspection, and among the programs properly It can be done by guiding the installation of programs that do not work. At this time, if the evaluation security program, camera control program, and microphone control program do not function properly even though they are properly installed, the administrator may guide the examinee to solve the problem through Q/A or administrator chatting.

또한, 필수 프로그램의 설치 완료 확인 과정(S23)은 상기 장치 검사를 통해 부정 프로그램, 화면 공유 프로그램, 키보드 제어 프로그램 및 모니터 제어 프로그램이 감지되는지 더 확인함으로써 수행될 수도 있으며, 부정 프로그램, 화면 공유 프로그램, 키보드 제어 프로그램 및 모니터 제어 프로그램이 감지되면 이들을 종료하도록 안내할 수 있다. 추가적으로, 모니터 제어와 관련하여 싱글 모니터만을 이용하도록 강제 잠금을 설정할 수 있으며, 이러한 강제 잠금이 제대로 기능하지 않는 경우에는 듀얼 모니터 사용을 중지하는 안내를 수행할 수 있다. 또한, 카메라 제어와 관련하여 카메라가 제대로 기능하지 않는 경우에는 카메라 점검 메시지를 안내할 수도 있으며, 마이크 제어와 관련하여 마이크가 제대로 기능하지 않는 경우에는 마이크의 동작 On과 마이크 음량을 기설정된 값으로 강제 고정하는 과정을 수행할 수도 있다. 이때, 부정 프로그램, 화면 공유 프로그램, 키보드 제어 프로그램 및 모니터 제어 프로그램의 설정값이 기저장된 비대면 평가 매뉴얼과 다른 경우에는, 상기 수험자에게 Q/A 내지 관리자 채팅을 통해 관리자가 문제를 해결하도록 안내할 수 있다.In addition, the process of confirming the installation completion of the essential program (S23) may be performed by further confirming whether an illegal program, a screen sharing program, a keyboard control program, and a monitor control program are detected through the device inspection, and the illegal program, screen sharing program, When a keyboard control program and a monitor control program are detected, they may be guided to terminate. In addition, in relation to monitor control, forced locking may be set to use only a single monitor, and when such forced locking does not function properly, a guide to stop using the dual monitor may be performed. In addition, when the camera does not function properly in relation to camera control, a camera inspection message may be displayed, and in case the microphone does not function properly in relation to microphone control, the microphone operation is turned on and the microphone volume is forced to a preset value. You can also perform a fixing process. At this time, if the setting values of the negative program, screen sharing program, keyboard control program, and monitor control program are different from the pre-stored non-face-to-face evaluation manual, the administrator will guide the examinee to solve the problem through Q/A or administrator chat. can

비대면 평가에서 사용되는 카메라의 종류는 특별히 제한되지 않는다. 예시적인 실시예들에 있어서, 상기 카메라는 CCD(charge coupled device) 영상센서(image sensor), CMOS(complementary metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서, 적외선 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.The type of camera used in the non-face-to-face evaluation is not particularly limited. In example embodiments, the camera may include a charge coupled device (CCD) image sensor, a complementary metal oxide semi-conductor (CMOS) image sensor, a charge priming device (CPD) image sensor, and a charge injection device (CID). ) may be implemented as any one of image sensors such as an image sensor and an infrared image sensor.

필수 프로그램의 설치 완료 확인 과정(S23)이 완료되면, 상기 수험자의 휴대전화로 비대면 평가 접속 링크를 전송한 후, 상기 수험자의 App 접속이 확인되면 사전 점검 단계(S2)가 완료될 수 있다. 이때, 상기 수험자의 App 접속이 확인되지 않는 경우에는, 상기 수험자에게 Q/A 내지 관리자 채팅을 통해 관리자가 문제를 해결하도록 안내할 수 있다.When the installation completion confirmation process (S23) of the required program is completed, a non-face-to-face evaluation access link is transmitted to the test taker's cell phone, and then the pre-check step (S2) may be completed when the test taker's access to the App is confirmed. At this time, if the examinee's access to the App is not confirmed, the administrator may guide the examinee to solve the problem through Q/A or administrator chatting.

도 4를 참조하면, 본 발명의 예시적인 실시예들에 따른 평가 준비 단계(S3)는 상기 수험자가 N시간 전 평가 사이트에 접속(S31)하고, 장치의 점검 및 설정이 완료되었는지 확인(S32)하고, 상기 수험자의 App 접속을 확인(S33)하고, 상기 수험자의 본인 확인을 완료(S34)하고, 상기 촬영 영상으로부터 상기 수험자의 시선을 보정(S35)함으로써 수행될 수 있다.Referring to FIG. 4, in the evaluation preparation step (S3) according to exemplary embodiments of the present invention, the examinee accesses the evaluation site N hours ago (S31), and checks whether the device inspection and setting are completed (S32). It can be performed by confirming the test taker's access to the App (S33), completing the test taker's identification (S34), and correcting the examinee's gaze from the captured image (S35).

상기 장치의 점검 및 설정 완료 확인 과정(S32)은 도 3을 참조로 설명한 사전 점검 단계(S2)와 실질적으로 동일하거나 유사한 방식으로 수행될 수 있으며, 확인이 이루어지는 플랫폼이 Test Page인지 또는 평가 사이트인지 여부에 있어서만 차이가 있을 수 있다.The device inspection and setting confirmation process (S32) may be performed in substantially the same or similar manner as the pre-inspection step (S2) described with reference to FIG. The only difference can be whether or not.

상기 App 접속 확인 과정(S33)은 상기 수험자의 휴대전화 앱을 통해 평가 페이지 링크를 전송하고, 상기 수험자가 상기 평가 페이지의 접속했는지 여부를 확인하고, 상기 수험자에게 방해금지모드 등의 비대면 평가 모드를 실행하도록 가이드한 후, 컴퓨터와 휴대용 전자기기 상호간의 인증 코드를 확인함으로써 수행될 수 있다.The App access confirmation process (S33) transmits a link to the evaluation page through the mobile phone app of the examinee, checks whether the examinee has accessed the evaluation page, and provides the examinee with a non-face-to-face evaluation mode such as a do not disturb mode. After guiding to execute, it can be performed by checking the authentication code between the computer and the portable electronic device.

상기 수험자의 본인 확인 과정(S34)은 컴퓨터의 스크린에 웹캠 가이드를 출력하고, 상기 수험자에게 상기 웹캠 가이드 내에 본인의 얼굴이 위치하도록 안내하고, 상기 수험자의 얼굴이 상기 웹캠 가이드 내에 위치하는지 확인하고, 상기 수험자의 얼굴을 촬영한 후, 상기 수험자의 안면 촬영 이미지와 상기 수험자의 신분증 사진 및/또는 상기 수험자의 최근 사진을 비교하여 매칭율이 특정 매칭율(B) 이사인지 여부를 확인함으로써 수행될 수 있다.The process of verifying the examinee's identity (S34) outputs a webcam guide on the screen of the computer, guides the examinee so that his/her face is located within the webcam guide, and checks whether the examinee's face is located within the webcam guide, After photographing the examinee's face, it may be performed by comparing the photographed image of the examinee's face with the ID photo of the examinee and/or the recent photo of the examinee to determine whether the matching rate is greater than or equal to a specific matching rate (B). there is.

예시적인 실시예들에 있어서, 상기 수험자의 안면 촬영 이미지와 상기 수험자의 신분증 사진 및/또는 상기 수험자의 최근 사진 사이의 매칭율이 특정 매칭율(B)에 미달하는 경우에는 상기 수험자의 본인 확인 과정(S34)이 처음부터 수행되도록 가이드될 수 있다. 이때, 상기 수험자의 본인 확인 과정(S34)이 3회 반복하여 수행되었음에도 상기 수험자의 안면 촬영 이미지와 상기 수험자의 신분증 사진 및/또는 상기 수험자의 최근 사진 사이의 매칭율이 특정 매칭율(B)에 미달하는 경우에는, 관리자를 통해 상기 수험자의 본인 확인 과정(S34)을 수행하게 할 수 있다. 이때, 상기 특정 매칭율(B)은 90%보다 크고 100%보다 작은 값, 예를 들어, 95%일 수 있다. 여기서, 매칭 과정은 인공 신경망 모델을 이용하여 수행될 수 있고, 이대해서는 이후 도 6 내지 7을 참조하여 보다 구체적으로 설명하기로 한다. In exemplary embodiments, when the matching rate between the face-up image of the examinee and the ID photo of the examinee and/or the recent photo of the examinee does not reach a specific matching rate (B), the identity verification process of the examinee (S34) may be guided to be performed from the beginning. At this time, even though the identity verification process (S34) of the examinee was repeated three times, the matching rate between the photographic image of the examinee's face and the ID photo of the examinee and/or the recent photo of the examinee was at a specific matching rate (B). If it is not reached, the identity verification process (S34) of the examinee may be performed through an administrator. In this case, the specific matching rate B may be greater than 90% and less than 100%, for example, 95%. Here, the matching process may be performed using an artificial neural network model, and will be described in more detail with reference to FIGS. 6 and 7 hereinafter.

상기 수험자의 안면 촬영 이미지와 상기 수험자의 신분증 사진 및/또는 상기 수험자의 최근 사진 사이의 매칭율이 특정 매칭율(B)을 넘어서는 경우에는, 상기 수험자의 본인 확인 과정(S34)이 완료될 수 있으며, 이후 상기 촬영 영상으로부터 상기 수험자의 시선을 보정하는 과정(S35)이 수행될 수 있다.If the matching rate between the face-up image of the examinee and the ID photo of the examinee and/or the recent photo of the examinee exceeds a specific matching rate (B), the identity verification process of the examinee (S34) may be completed. , and then a process of correcting the examinee's gaze from the photographed image (S35) may be performed.

상기 수험자의 시선 보정 과정(S35)은 상기 컴퓨터의 스크린에 상기 웹캠 가이드를 출력하고, 상기 수험자에게 상기 웹캠 가이드 내에 본인의 얼굴이 위치하도록 안내하고, 보정된 화면을 노출시킨 후 상기 수험자의 얼굴이 상기 웹캠 가이드에 위치하는지 여부를 확인하고, 상기 수험자의 눈동자 좌표를 추출하고, 보정 이전의 스크린과 보정 이후의 스크린을 순차적으로 노출시킨 후, 보정 전후의 상기 눈동자 좌표들 사이에 원근변환(Perspective Projection)을 수행함으로써 이루어질 수 있다.The process of correcting the examinee's gaze (S35) outputs the webcam guide on the screen of the computer, guides the examinee to place his or her face in the webcam guide, exposes the corrected screen, and then displays the examinee's face. After confirming whether it is located in the webcam guide, extracting the pupil coordinates of the examinee, sequentially exposing the screen before and after correction, perspective transformation between the pupil coordinates before and after correction (Perspective Projection ) can be achieved by performing

상기와 같은 시선 보정 과정(S35)을 통해, 상기 수험자의 눈동자 좌표들의 위치가 보다 명확하게 추출될 수 있으며, 이에 따라 후술되는 수험자의 시선 추적이 보다 효과적으로 이루어질 수 있다.Through the gaze correction process (S35) as described above, the positions of the coordinates of the examinee's pupils can be more clearly extracted, and accordingly, the examinee's eye gaze tracking described later can be performed more effectively.

도 5를 참조하면, 본 발명의 예시적인 실시예들에 따른 시험 진행 단계(S4)는 부정행위 탐지 시작 과정(S40), 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45), 및 소리 감지 과정(S47)을 포함할 수 있으며, 부정행위 탐지 시작 과정(S40), 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45), 및 소리 감지 과정(S47)은 하나의 사이클을 구성하여 본 발명에 따른 비대면 평가가 진행되는 동안에 특정 주기마다 수행되도록 제어될 수 있다. 이때, 상기 특정 주기는 초 단위의 주기, 예를 들어, 수 초에서 수십 초까지 다양한 주기로 구성될 수 있으며, 필요에 따라 분 단위의 주기, 예를 들어, 수 분에서 수십 분까지 다양한 주기로 구성될 수도 있다.Referring to FIG. 5 , the test progress step (S4) according to exemplary embodiments of the present invention includes a cheating detection start step (S40), a user authentication step (S41), an eye tracking step (S43), and an action recognition step ( S45), and a sound detection process (S47), including a cheating detection process (S40), an identity authentication process (S41), an eye tracking process (S43), an action recognition process (S45), and a sound detection process. (S47) constitutes one cycle and can be controlled to be performed at each specific cycle while the non-face-to-face evaluation according to the present invention is in progress. At this time, the specific period may consist of a period in seconds, for example, various periods from several seconds to several tens of seconds, and, if necessary, a period in minutes, for example, various periods from several minutes to several tens of minutes. may be

시험 진행 단계(S4)에서 상기 비대면 평가가 완료되기 전까지, 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45), 및 소리 감지 과정(S47)이 모두 정상적으로 수행되면, 상기 비대면 평가를 정상적으로 종료하는 시험 완료 단계(S49)가 수행될 수 있다.If the identity authentication process (S41), eye tracking process (S43), action recognition process (S45), and sound detection process (S47) are all normally performed until the non-face-to-face evaluation is completed in the test progress step (S4), A test completion step (S49) of normally ending the non-face-to-face evaluation may be performed.

다만, 시험 진행 단계(S4)에서 상기 비대면 평가가 완료되기 전까지, 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45), 및 소리 감지 과정(S47) 중 적어도 하나라도 만족하지 못하는 경우, 수험자가 부정행위 상황에 있다고 판단할 수 있다. 그리고, 시험 진행 단계(S4)에서 상기 비대면 평가가 완료되기 전까지, 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45), 및 소리 감지 과정(S47) 중 적어도 하나의 과정이 정상적으로 수행되지 않으면, 상기 수험자에게 부정행위 탐지 사실을 알린 후 대시보드에 라벨링(S42)하고, 상기 관리자를 통해 상기 수험자의 행위가 부정행위에 해당하는지 여부를 확인(S44)할 수 있다. 이때, 상기 수험자의 부정행위가 확인되면 평가를 몰수하는 과정(S46)이 수행될 수 있으며, 이와는 달리 상기 수험자의 부정행위가 확인되지 않으면 부정행위 탐지 시작 과정(S40)으로 회귀하도록 제어될 수 있다.However, at least one of the identity authentication process (S41), eye tracking process (S43), action recognition process (S45), and sound detection process (S47) until the non-face-to-face evaluation is completed in the test progress step (S4). If not satisfied, it may be judged that the examinee is in a cheating situation. And, until the non-face-to-face evaluation is completed in the test progress step (S4), at least one of the identity authentication process (S41), the eye tracking process (S43), the action recognition process (S45), and the sound detection process (S47) If the process is not normally performed, after notifying the test taker of the cheating detection fact, the dashboard is labeled (S42), and whether the test taker's behavior corresponds to cheating may be confirmed (S44) through the manager. At this time, if the cheating of the test taker is confirmed, a process of confiscating the evaluation (S46) may be performed, and if the cheating of the test taker is not confirmed, it may be controlled to return to the cheating detection start process (S40). .

이하에서는, 도 6 내지 도 13을 기초로 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45), 및 소리 감지 과정(S47)을 상세히 설명하기로 한다.Hereinafter, the identity authentication process (S41), eye tracking process (S43), action recognition process (S45), and sound detection process (S47) will be described in detail based on FIGS. 6 to 13 .

도 6은 본 발명의 예시적인 실시예들에 따른 본인 인증 과정을 이용한 부정행위 검출 단계를 설명하기 위한 순서도이다.6 is a flowchart illustrating a fraud detection step using a user authentication process according to exemplary embodiments of the present invention.

도 6을 참조하면, 본 발명의 예시적인 실시예들에 따른 본인 인증 과정(S41)은 스크린에 웹캠 가이드를 출력하고(S410), 상기 가이드 안에 수험자의 안면이 위치하도록 안내하고(S411), 상기 수험자의 안면이 상기 가이드 안에 위치하는지 확인하고(S412), 특정 시간동안 정지를 안내한 후 상기 수험자의 안면을 촬영하고(S413), 상기 촬영된 수험자의 안면 이미지와 사전 제출한 수험자의 사진을 매칭시키고(S414), 상기 촬영된 수험자의 안면 이미지와 상기 사전 제출한 수험자의 사진의 매칭율과 기설정된 특정 매칭율(B)을 비교(S415)함으로써 수행될 수 있다. 이때, 상기 특정 매칭율(B)은 90%보다 크고 100%보다 작은 값, 예를 들어, 95%일 수 있고, 상기 사전 제출한 수험자의 사진은 상기 수험자의 신분증 이미지 및/또는 상기 수험자의 최근 사진 이미지일 수 있으며, 상기 특정 시간은 3초 이내의 시간일 수 있다.Referring to FIG. 6, the identity authentication process (S41) according to exemplary embodiments of the present invention outputs a webcam guide to the screen (S410), guides the examinee's face to be located in the guide (S411), and It is confirmed whether the examinee's face is located in the guide (S412), and after guiding the stop for a specific time, the examinee's face is photographed (S413), and the photographed examinee's face image is matched with the previously submitted photograph of the examinee. (S414), and comparing the matching rate of the photographed examinee's face image and the pre-submitted photograph of the examinee with a preset specific matching rate (B) (S415). At this time, the specific matching rate (B) may be a value greater than 90% and less than 100%, for example, 95%, and the pre-submitted photo of the examinee is the ID image of the examinee and / or the test taker's recent It may be a photographic image, and the specific time may be within 3 seconds.

구체적으로, 촬영된 수험자의 안면 이미지와 사전 제출한 수험자의 사진을 매칭시키는 과정(S414)은 상기 수험자의 촬영 영상으로부터 추출된 제1 안면 영역, 상기 수험자의 신분증으로부터 추출된 제2 안면 영역 및/또는 상기 수험자가 제출한 최근 사진으로부터 추출된 제3 안면 영역을 매칭시키고, 상기 제1 안면 영역 내지 상기 제3 안면 영역으로부터 각각 벡터값을 추출한 후, 추출된 벡터값들이 가지는 유클리디안 거리를 비교함으로써 수행될 수 있다. 이때, 촬영된 수험자의 안면 이미지와 사전 제출한 수험자의 사진을 매칭시키는 과정(S414)이 완료되기 위한 유클리디안 거리(d)는 1보다 작을 수 있으며, 바람직하게는 0.4보다 작을 수 있다.Specifically, the process of matching the photographed examinee's facial image with the previously submitted photograph of the examinee (S414) includes a first facial region extracted from the examinee's photographed image, a second facial region extracted from the examinee's identification card, and/or Alternatively, third facial regions extracted from the recent photo submitted by the examinee are matched, vector values are extracted from the first facial region to the third facial region, respectively, and Euclidean distances of the extracted vector values are compared. It can be done by doing At this time, the Euclidean distance (d) for completing the process of matching the photographed examinee's face image with the previously submitted photograph of the examinee (S414) may be less than 1, and preferably less than 0.4.

이러한 본 발명에 따른 본인 인증 과정(S41)은 인공 신경망 모델을 이용하여 수행될 수 있다. 구체적으로, 본 발명에 따르면, 실시간으로 안면을 인식하고 인식된 안면에서 동공의 위치를 추정할 수 있는 인공 신경망 모델을 이용할 수 있다. 여기서, 인공 신경망 모델은, 일 예로, VGG 신경망 기반의 ResNet(Residual Network)일 수 있고, 이에 제한되는 것은 아니다. The identity authentication process (S41) according to the present invention may be performed using an artificial neural network model. Specifically, according to the present invention, an artificial neural network model capable of recognizing a face in real time and estimating the position of a pupil in the recognized face may be used. Here, the artificial neural network model may be, for example, a residual network (ResNet) based on a VGG neural network, but is not limited thereto.

이러한 본 발명에 따른 인공 신경망 모델을 이용한 안면 인증은 안면 검출, 랜드마크(landmark) 검출, 안면 특징점 추출의 단계로 구성될 수 있다. Facial authentication using the artificial neural network model according to the present invention may include steps of face detection, landmark detection, and facial feature point extraction.

구체적으로 인공 신경망 모델은 카메라로부터 입력되는 영상에서 실시간 얼굴 검출을 위해 실시간 얼굴 검출이 가능한 학습 모델을 이용하여 안면 검출을 수행할 수 있다. 여기서, 학습 모델은, 일 예로, Dlib-model 일 수 있고, 이에 제한되는 것은 아니다. Specifically, the artificial neural network model may perform face detection using a learning model capable of real-time face detection for real-time face detection in an image input from a camera. Here, the learning model may be, for example, Dlib-model, but is not limited thereto.

그리고, 인공신경망 모델은 Shape Prediction을 통해 눈썹, 눈, 코, 입 및 얼굴 외곽을 표현하는 랜드마크를 검출할 수 있다. 일 예로, 검출된 랜드마크는 도 7과 같이 68개의 랜드마크로 구성될 수 있다.In addition, the artificial neural network model can detect landmarks representing the eyebrows, eyes, nose, mouth, and facial outline through shape prediction. For example, the detected landmarks may include 68 landmarks as shown in FIG. 7 .

그리고, 인공신경망 모델은 검출된 랜드마크 파라미터를 입력받아 Encoded Vector를 통해 벡터 형태로 변환하여 안면 인식 벡터 정보를 추출할 수 있다. 여기서, 추출된 안면 인식 벡터 정보는 수험자의 인증에 사용될 수 있다.In addition, the artificial neural network model may extract face recognition vector information by receiving the detected landmark parameter and converting it into a vector form through an encoded vector. Here, the extracted facial recognition vector information may be used for authentication of the test taker.

한편, 인공 신경망 모델을 이용하여 검출된 얼굴 영역에 안경이 착용된 것으로 판단된 경우, CycleGAN 기반의 디블러링(Deblurring) 모듈을 통해 안경을 제거하고, 제거된 영상으로부터 랜드마크를 추출할 수 있다. On the other hand, when it is determined that glasses are worn in the face region detected using the artificial neural network model, the glasses are removed through a CycleGAN-based deblurring module, and landmarks can be extracted from the removed image. .

한편, 상술한 신분증 진위 확인(S14), 최근사진 등록 및 신분증 사진과 매칭(S15~16), 본인 확인(S34) 및 본인 인증 과정(S41)은 신분증으로부터 획득된 수험자의 얼굴과 시험 과정에서 실시간으로 촬영된 수험자의 얼굴의 매칭율 비교를 통해 인증 성공 여부가 결정될 수 있다. 이에 따라, 본 발명에 따른 인공 신경망 모델은 상술한 각종 수험자 인증 과정을 안면 인식 벡터 정보의 비교를 통해 수행할 수 있다. On the other hand, the above-mentioned identity verification process (S14), recent photo registration and ID photo matching (S15-16), identity verification (S34), and identity authentication process (S41) are real-time Authentication success may be determined by comparing the matching rate of the examinee's face photographed with . Accordingly, the artificial neural network model according to the present invention can perform the above-described various examinee authentication processes through comparison of facial recognition vector information.

일 예로, 본인 인증 과정(S41)은 신분증 영상 이미지를 캡처하여 안면 영역을 추출하고, 인공 신경망 모델을 통해 안면 인식 벡터 정보를 추출할 수 있다. 그리고, 수험자 본인 인증 과정(S41)은 카메라로부터 촬영에 따른 수험자의 안면에서 인공 신경망 모델을 통해 안면 인식 벡터 정보를 추출할 수 있다. 그리고, 신분증 영상 이미지로부터 생성된 벡터 정보와 카메라 촬영에 따른 수험자의 얼굴로부터 생성된 벡터 정보를 기초로 유클리디안 거리를 산출함으로써 수험자 본인 인증을 수행할 수 있다. 일 실시예에 있어서, 생성된 벡터의 유클리디안 거리가 0.4 이상인 경우, 영상으로부터 촬영된 안면 이미지와 신분증 캡처 이미지와 동일하지 않은 것으로 판단하고 인증 실패로 판단할 수 있다. 이와는 달리, 생성된 벡터의 유클리디안 거리가 0.4 미만인 경우, 영상으로부터 촬영된 안면 이미지와 신분증 캡처 이미지가 서로 동일한 것으로 판단하고 인증 성공으로 판단할 수 있다. For example, in the identity authentication process ( S41 ), a video image of an ID card is captured, a face region is extracted, and face recognition vector information may be extracted through an artificial neural network model. In addition, in the test taker authentication process (S41), facial recognition vector information may be extracted from the examinee's face according to the photographing from the camera through an artificial neural network model. In addition, it is possible to perform authentication of the examinee himself by calculating the Euclidean distance based on the vector information generated from the video image of the ID card and the vector information generated from the face of the examinee taken by the camera. In one embodiment, when the Euclidean distance of the generated vector is 0.4 or more, it may be determined that the face image captured from the video and the ID capture image are not identical, and authentication failure may be determined. On the other hand, if the Euclidean distance of the generated vector is less than 0.4, it may be determined that the face image captured from the video and the ID card capture image are identical to each other, and authentication may be determined as success.

한편, 본 발명의 일 예시에 따르면, 수험자의 신원 확인 과정은 동일인을 학습하기 위해 사용된 학습 이미지가 신분증 이미지 1장에 불과함으로, 신분증 안면 이미지와 카메라에서 추출한 안면 이미지의 동일 유무를 확인하기 위해 원샷 학습(One-shotLearning)을 이용할 수 있다. 여기서, 원샷 학습은 한 개의 데이터로 학습하는 방법일 수 있으며, 인공신경망을 이용하여 유사도 함수(d(img1,img2) = 두 이미지의 차이 반환)를 학습시킨 후, 유사도 함수 값이 기설정된 기준치보다 크면 두 이미지가 서로 다른 것으로 인식하고, 상기 유사도 함수값이 기설정된 기준치보다 작으면 비슷한 것으로 인식하도록 설정될 수 있다. On the other hand, according to one example of the present invention, in the process of verifying the identity of the examinee, since the learning image used to learn the same person is only one ID card image, in order to confirm whether the facial image of the ID card and the facial image extracted from the camera are identical. One-shot learning is available. Here, one-shot learning may be a method of learning with one data, and after learning a similarity function (d(img1,img2) = return the difference between two images) using an artificial neural network, the value of the similarity function is greater than a preset reference value. It may be set to recognize that the two images are different if they are large, and to recognize them as similar if the value of the similarity function is smaller than a preset reference value.

이와 같이, 본 발명에 따르면, 인공신경망 모델을 이용한 안면 인식을 수행함으로써, 별도의 장비나 센서 없이 일반 카메라를 통해 영상 분석이 가능하므로, 장비로 인한 비용 감소 효과를 가질 수 있고, 단일 영상이 아닌 대용량 영상 데이터에 대해 실시간 분석이 가능함으로 투입되는 인력 대비 처리 효율 및 정확도가 각각 향상될 수 있다.As such, according to the present invention, by performing face recognition using an artificial neural network model, image analysis is possible through a general camera without separate equipment or sensors, so it is possible to have a cost reduction effect due to equipment, and not a single image. Real-time analysis of large-capacity image data is possible, so processing efficiency and accuracy can be improved compared to the input manpower.

일 실시예에 있어서, 본인 인증 과정(S41)은 추출된 얼굴영역의 개수가 1개인지 또는 2개이상인지 여부를 더 검출함으로써 수행될 수 있으며, 상기 추출된 얼굴영역의 개수가 1개이면 부정행위에 해당하지 않는 것으로 판단하고, 상기 추출된 얼굴영역의 개수가 2개이상이면 부정행위에 해당하는 것으로 판단하도록 제어될 수 있다. In one embodiment, the identity authentication process (S41) may be performed by further detecting whether the number of extracted face regions is one or two or more, and if the number of extracted face regions is one, negative If it is determined that it does not correspond to an act, and the number of the extracted face regions is two or more, it can be controlled to determine that it corresponds to a cheating act.

이후, 매칭율 비교 과정(S415)에서 상기 촬영된 수험자의 안면 이미지와 상기 사전 제출한 수험자의 사진의 매칭율이 상기 특정 매칭율(B)에 미달하는 경우에는, 관리자를 통해 수험자 알림 및 대시보드 라벨링 과정(S42) 및 부정행위 확인 과정(S44)이 수행될 수 있으며, 부정행위 확인 과정(S44)의 결과에 따라 평가 몰수 과정(S46)이 수행되거나 혹은 부정행위 탐지 시작 과정(S40)으로 회귀될 수 있다.Then, in the matching rate comparison process (S415), if the matching rate of the photographed examinee's face image and the pre-submitted photograph of the examinee does not reach the specific matching rate (B), the test taker notification and dashboard through the administrator A labeling process (S42) and a cheating check process (S44) may be performed, and depending on the result of the cheating check process (S44), an evaluation confiscation process (S46) is performed or a return to the cheating detection start process (S40) is performed. It can be.

이와는 달리, 매칭율 비교 과정(S415)에서 상기 촬영된 수험자의 안면 이미지와 상기 사전 제출한 수험자의 사진의 매칭율이 상기 특정 매칭율(B)을 넘어서는 경우에는, 상기 수험자의 본인 확인 인증이 완료(S416)될 수 있으며, 이후 시선 추적 과정(S43), 행동 인식 과정(S45) 및 소리 감지 과정(S47)이 수행될 수 있다.Unlike this, in the matching rate comparison process (S415), when the matching rate between the photographed examinee's facial image and the pre-submitted photograph of the examinee exceeds the specific matching rate (B), the identity verification authentication of the examinee is completed. (S416), and then eye tracking process (S43), action recognition process (S45), and sound detection process (S47) may be performed.

도 8은 본 발명의 예시적인 실시예들에 따른 시선 추적을 이용한 부정행위 검출 단계를 설명하기 위한 순서도이다. 도 8을 참조하면, 본 발명의 예시적인 실시예들에 따른 시선 추적 과정(S43)은 수험자의 안면 및 동공을 추출하고(S430), 추출된 안면의 개수가 1개인지 판단하고(S431), 상기 수험자의 동공 좌표를 검출하고(S432), 상기 동공이 응시하는 스크린 좌표를 산출하고(S433), 상기 산출된 스크린 좌표가 상기 안전 영역에 위치하는지 여부를 판단함으로써(S434) 수행될 수 있다.8 is a flowchart illustrating a cheating detection step using gaze tracking according to exemplary embodiments of the present invention. Referring to FIG. 8 , in the gaze tracking process (S43) according to exemplary embodiments of the present invention, the examinee's face and pupil are extracted (S430), and it is determined whether the number of extracted faces is one (S431), It can be performed by detecting the pupil coordinates of the examinee (S432), calculating screen coordinates at which the pupil gazes (S433), and determining whether the calculated screen coordinates are located in the safe area (S434).

여기서, 수험자의 안면 및 동공 추출 과정(S430)에 대해서는 도 9를 참조하여 보다 구체적으로 설명하기로 한다. Here, the process of extracting the examinee's face and pupils (S430) will be described in more detail with reference to FIG.

도 9는 본 발명의 일 실시 예에 따른 랜드마크를 이용한 얼굴 영역 및 양쪽 눈 영역 추출 과정을 설명하기 위한 예시도이다. 도 9를 참조하면, 동공 추출하는 과정은, 상술한 도 6 내지 7의 ResNet을 이용하여 추출된 랜드마크를 이용하여 얼굴 영역 및 양쪽 눈 영역을 추출할 수 있다. 9 is an exemplary diagram for explaining a process of extracting a face region and both eye regions using landmarks according to an embodiment of the present invention. Referring to FIG. 9 , in the pupil extraction process, a face area and both eye areas may be extracted using landmarks extracted using the ResNet of FIGS. 6 to 7 .

한편, 추출된 안면의 개수 판단은 전술한 본인 인증 과정(S41)과 실질적으로 동일한 방법을 통해 수행될 수 있으므로, 이에 대한 자세한 설명은 생략한다.Meanwhile, since the determination of the number of extracted faces may be performed through substantially the same method as the above-described identity authentication process (S41), a detailed description thereof will be omitted.

상기 수험자의 동공 추출 과정(S430)이 완료된 이후에, 상기 수험자의 동공 좌표 검출 과정(S432)이 수행될 수 있다. 이때, 동공 좌표 검출 과정(S432)은 기설정된 2차원 혹은 3차원 형태의 눈 모델링을 수행한 후, 모델링 방식에 따라 동공의 위치를 추정하는 모델 기반 기법을 통해 수행될 수 있다. 이와는 달리, 동공 좌표 검출 과정(S432)은 명동 공법 또는 암동 공법을 통해 상기 수험자의 동공이나 홍채로부터 소정의 특징을 추출하여 동공 중심을 추정하는 외형 기반 기법을 통해 수행될 수도 있다. 일 실시예에 있어서, 동공 좌표 검출 과정(S432)은 원 피팅(circle fitting) 및 타원 피팅(ellipse fitting) 등의 동공 검출 알고리즘을 통해 추출될 수 있다.After the process of extracting the pupil of the examinee (S430) is completed, the process of detecting the coordinates of the examinee's pupil (S432) may be performed. In this case, the pupil coordinate detection process ( S432 ) may be performed through a model-based technique of estimating a pupil position according to a modeling method after performing preset 2D or 3D eye modeling. Alternatively, the pupil coordinate detection process ( S432 ) may be performed through an appearance-based technique for estimating the center of the pupil by extracting a predetermined feature from the pupil or iris of the examinee through the Myeongdong method or the Ampupil method. In one embodiment, the pupil coordinate detection process ( S432 ) may be extracted through a pupil detection algorithm such as circle fitting and ellipse fitting.

여기서, 동공 좌표 검출 과정(S432)을 통해 산출된 동공 좌표는 수험자의 시선 보정을 수행하는데 이용될 수 있다. 즉, 본 발명의 일 실시 예에 따르면, 변환행렬을 이용하여 카메라의 중심축과 동공의 중심축 간의 기준 각도 오차 보정을 수행함으로써, 시선 보정을 수행할 수 있다. Here, the pupil coordinates calculated through the pupil coordinate detection process (S432) may be used to correct the examinee's gaze. That is, according to an embodiment of the present invention, gaze correction may be performed by performing reference angle error correction between the central axis of the camera and the central axis of the pupil using a transformation matrix.

한편, 스크린 좌표 산출 과정(S433)은 상기 수험자의 동공이 응시하는 스크린 좌표를 산출할 수 있다. 여기서, 수험자의 동공이 응시하는 영역은 수험자의 시선이 향하는 영역과 동일한 의미일 수 있다.Meanwhile, in the screen coordinate calculation process (S433), screen coordinates at which the pupil of the examinee gazes may be calculated. Here, the area where the examinee's pupil gazes may have the same meaning as the area toward which the examinee's gaze is directed.

이러한 수험자의 동공이 응시하는 영역은 스크린의 중앙 영역과 스크린의 가장자리 영역 및 스크린 밖의 영역으로 구분될 수 있고, 상기 구분된 각각의 영역에 스크린 좌표를 할당하여 수험자가 응시하는 스크린 좌표를 산출할 수 있다. The area that the examinee's pupil gazes may be divided into a central area of the screen, an edge area of the screen, and an area outside the screen, and screen coordinates for the examinee's gaze may be calculated by assigning screen coordinates to each of the divided areas. there is.

여기서, 본 발명의 일 실시 예에 따르면, 스크린을 바라보고 있는 수험자의 동공이 스크린의 어느 영역 응시하고 있는지 판단하기 위해 학습된 "시선 위치 추적 인공 신경망 모델"을 이용하여 수험자의 스크린 좌표를 산출할 수 있다. Here, according to an embodiment of the present invention, the screen coordinates of the examinee may be calculated using the learned “gaze position tracking artificial neural network model” to determine which region of the screen the pupil of the examinee is gazing at. can

이에 대해서는 도 10을 참조하여 보다 구체적으로 설명하기로 한다. 도 10은 수험자의 동공이 응시하는 영역을 분류하기 위한 스크린 좌표의 배치 구조를 설명하기 위한 도면이다. 도 10을 참조하면, 수험자의 동공이 응시하는 영역은 스크린의 중앙 영역(510)과 스크린의 가장자리 영역(520) 및 스크린 밖의 외부 영역(530)으로 구분될 수 있다. This will be described in more detail with reference to FIG. 10 . 10 is a diagram for explaining an arrangement structure of screen coordinates for classifying regions gazed by the examinee's pupils. Referring to FIG. 10 , the area where the examinee's pupil gazes may be divided into a central area 510 of the screen, an edge area 520 of the screen, and an outer area 530 outside the screen.

본 발명의 일 실시 예에 따르면, 중앙 영역에는 스크린 좌표 "1"을 할당하고, 좌측 상단 영역에는 스크린 좌표 "2"를 할당하며, 가운데 영역(510)의 상단 영역에는 스크린 좌표 "3"을 할당하며, 우측 상단 영역에는 스크린 좌표 "4"를 할당하고, 가운데 영역(510)의 좌측에는 스크린 좌표 "5"를 할당하고, 가운데 영역(510)의 우측에는 스크린 좌표 "6"을 할당하며, 좌측 하단 영역에는 스크린 좌표 "7"을 할당하고, 가운데 영역(510)의 하단 영역에는 스크린 좌표 "8"을 할당하고, 우측 하단 영역에는 스크린 좌표 "9"를 할당하고, 외부 영역(530)에는 스크린 좌표 "10"을 할당할 수 있다. According to one embodiment of the present invention, the screen coordinate "1" is assigned to the central region, the screen coordinate "2" is assigned to the upper left region, and the screen coordinate "3" is assigned to the upper region of the middle region 510. The screen coordinate "4" is allocated to the upper right area, the screen coordinate "5" is allocated to the left side of the middle area 510, the screen coordinate "6" is allocated to the right side of the middle area 510, and the screen coordinate "6" is allocated to the left side of the middle area 510. Screen coordinates "7" are assigned to the lower area, screen coordinates "8" are assigned to the lower area of the middle area (510), screen coordinates "9" are assigned to the lower right area, and screen coordinates are assigned to the outer area (530). Coordinate "10" can be assigned.

여기서, 스크린 좌표 "1 내지 9"가 할당된 스크린의 가운데 영역(510)과 스크린의 가장자리 영역(520)은 안전 영역으로 통칭되고, 스크린 좌표 "10"이 할당된 스크린의 외부 영역(530)의 비안전 영역으로 통칭될 수 있다. Here, the central area 510 and the edge area 520 of the screen to which screen coordinates “1 to 9” are assigned are collectively referred to as a safe area, and the outer area 530 of the screen to which screen coordinates “10” is assigned is It can be collectively referred to as a non-safe area.

본 발명의 일 실시 예에 따른 시선 위치 추적 인공 신경망 모델은 도 9와 같은 동공 이미지들에 대하여 수험자가 스크린 내측에 위치한 9개의 안전 영역(510,520)을 응시하는지, 스크린 외측에 위치한 1개의 비안전 영역(530)을 응시하는지 및 수험자가 눈을 감았는지를 레이블링하여 학습된 모델일 수 있다. The gaze position tracking artificial neural network model according to an embodiment of the present invention determines whether the examinee gazes at nine safe areas 510 and 520 located inside the screen or one non-safe area located outside the screen with respect to the pupil images as shown in FIG. It may be a model learned by labeling whether or not the examinee gazes at 530 and whether the examinee closes his or her eyes.

일 예로, i) 스크린 화면에 나타난 "1" 내지 "10"의 영역을 안내에 따라 수험자가 하나씩 마우스로 클릭하고, ii) 마우스로 "1" 내지 "10"을 순차적으로 클릭하면서 해당 클릭 시점에 카메라에 의해 촬영된 동공 이미지에 대응되는 스크린 좌표 "1" 내지 "10"매칭하고, iii) 순차적 클릭을 마친 후 랜덤하게 클릭하면서 해당 클릭 시점에 카메라에 의해 촬영된 동공 이미지에 대응되는 스크린 좌표 "1" 내지 "10"매칭하고, iv) 상기 스크린 좌표와 동공 이미지의 매칭 데이터를 학습 데이터로 이용하여 시선 위치 추적 인공 신경망 모델을 생성할 수 있다. For example, i) the test taker clicks the areas of “1” to “10” displayed on the screen one by one with a mouse according to the guidance, and ii) sequentially clicks “1” to “10” with the mouse at the time of the click. Matching screen coordinates “1” to “10” corresponding to the pupil image captured by the camera, and iii) randomly clicking after sequential clicks, screen coordinates corresponding to the pupil image captured by the camera at the time of the click “ 1" to "10" are matched, and iv) a gaze position tracking artificial neural network model may be generated by using matching data of the screen coordinates and the pupil image as learning data.

이러한 본 발명에 따른 시선 위치 추적 인공 신경망 모델은 수험자가 스크린 내측에 위치한 9개의 안전 영역(510,520)을 응시하는지, 스크린 외측에 위치한 1개의 비안전 영역(530)을 응시하는지 및 수험자가 눈을 감았는지에 대한 11개 클래스를 소프트맥스(softmax) 계층으로 설정함으로써, 수험자의 동공 수험자의 동공이 응시하는 스크린 좌표를 산출할 수 있다. The gaze position tracking artificial neural network model according to the present invention determines whether the examinee gazes at nine safe areas 510 and 520 located inside the screen or one non-safe area 530 located outside the screen, and whether the examinee gazes at one non-safe area 530 located outside the screen, and the examinee closes his/her eyes. By setting the 11 classes for knowledge as a softmax layer, it is possible to calculate the screen coordinates of the pupils of the examinee's pupils.

한편, 상술한 예시에 따르면, 스크린 내부의 스크린 좌표는 9개로 구성되는 것을 예로 설명하였으나, 본 발명의 개념은 반드시 이에 한정되지 않으며, 상기 스크린 좌표는 이보다 적거나 많은 개수로 이루어질 수도 있다. 또한, 스크린 외부에 대한 스크린 좌표의 개수 역시 필요에 따라 1개 또는 이보다 많거나 적은 개수로 이루어질 수 있다.Meanwhile, according to the above example, although the number of screen coordinates inside the screen has been described as an example, the concept of the present invention is not necessarily limited thereto, and the number of screen coordinates may be smaller or larger than this. In addition, the number of screen coordinates for the outside of the screen may also be one or more or less than this number as needed.

한편, 수험자의 시선이 안전 영역에 위치하는지 여부를 판단하는 과정(S434)은 상기 수험자의 동공이 안전 영역(510,520)을 응시하는지, 비안전 영역(530)을 응시하는지를 판단함으로써 수행될 수 있다. 구체적으로, 본 발명에 따르면, 상기 산출된 스크린 좌표가 스크린 내측 영역에 대응되는"1번 내지 9번"인 경우, 수험자의 동공이 안전 영역(510,520)에 위치하는 것으로 판단할 수 있다. 다만, 상기 산출된 스크린 좌표가 스크린 외측 영역에 대응되는"10번"인 경우, 수험자의 동공이 비안전 영역(530)에 위치하는 것으로 판단할 수 있다.Meanwhile, the process of determining whether the examinee's gaze is located in the safe area (S434) may be performed by determining whether the examinee's pupil gazes at the safe area 510 or 520 or the non-safe area 530. Specifically, according to the present invention, when the calculated screen coordinates are "numbers 1 to 9" corresponding to the inner area of the screen, it can be determined that the examinee's pupil is located in the safe area 510 or 520. However, if the calculated screen coordinates are “No. 10” corresponding to the area outside the screen, it may be determined that the pupil of the examinee is located in the non-safe area 530 .

만약, 수험자의 동공이 안전 영역 내(510,520)에 위치하면 부정행위에 해당하지 않는 것으로 판단하여 시선 추적 완료 과정(S435)이 수행될 수 있으며, 상기 수험자의 동공이 비안전 영역(530)에 위치하면 부정행위에 해당하는 것으로 판단할 수 있다.If the pupil of the examinee is located within the safe area (510, 520), it is determined that it does not correspond to cheating, and a gaze tracking completion process (S435) may be performed, and the pupil of the examinee is located in the non-safe area (530). If so, it can be judged to constitute misconduct.

수험자가 동공이 안전 영역에 위치하는지 여부를 판단하는 과정(S434)을 통해 상기 수험자의 행동이 부정행위에 해당하는 것으로 판단되면, 관리자를 통해 수험자 알림 및 대시보드 라벨링 과정(S42) 및 부정행위 확인 과정(S44)이 수행될 수 있으며, 부정행위 확인 과정(S44)의 결과에 따라 평가 몰수 과정(S46)이 수행되거나 혹은 부정행위 탐지 시작 과정(S40)으로 회귀될 수 있다.If it is determined that the test taker's behavior corresponds to cheating through the process of determining whether the pupil is located in the safe area (S434), the test taker is notified through the manager and the dashboard labeling process (S42) and cheating check A process (S44) may be performed, and depending on the result of the cheating check process (S44), an evaluation confiscation process (S46) may be performed or a cheating detection start process (S40) may be performed.

도 11 내지 도 12는 본 발명의 예시적인 실시예들에 따른 행동 인식을 이용한 부정행위 검출 단계를 설명하기 위한 도면들이다.11 and 12 are diagrams for explaining a cheating detection step using action recognition according to exemplary embodiments of the present invention.

도 11을 참조하면, 본 발명의 예시적인 실시예들에 따른 행동 인식 과정(S45)은 상기 수험자를 촬영한 영상으로부터 사람 객체를 인식하고(S450), 인식된 사람의 수가 1명 이상인지 판단하고(S451), 인식된 사람 객체에 대해 경계 박스를 설정한 후 이미지를 크롭하고(S452), 상기 크롭된 이미지로부터 관절 데이터를 추출하고(S453), 상기 추출된 관절 데이터를 기초로 상기 수험자의 행동이 안전 행동에 해당하는지 여부를 판단함으로써(S454) 수행될 수 있다.Referring to FIG. 11, in the action recognition process (S45) according to exemplary embodiments of the present invention, a human object is recognized from an image of the examinee (S450), and it is determined whether the number of recognized persons is one or more. (S451), after setting a bounding box for the recognized human object, the image is cropped (S452), joint data is extracted from the cropped image (S453), and the examinee's behavior is based on the extracted joint data. It can be performed by determining whether this corresponds to a safety action (S454).

상기 수험자를 촬영한 영상으로부터 사람 객체를 인식하는 과정(S450)은 객체 인식 인공 신경망 모델을 통해 사람, 연필, 노트 등 다양한 객체를 인식한 후, 상기 객체의 위치를 추정하여 바운딩 박스(Bounding box)로 분류하는 과정을 포함할 수 있다. In the process of recognizing a human object from the image of the examinee (S450), after recognizing various objects such as a person, a pencil, and a notebook through an object recognition artificial neural network model, the location of the object is estimated and bounding box It may include a process of classifying into.

특히, 본 발명에 따른 객체 인식 인공 신경망 모델은 부정행위 감시 대상인 사람의 효과적인 추출을 위해 데이터셋을 통해 학습될 수 있다. In particular, the object recognition artificial neural network model according to the present invention can be learned through a dataset to effectively extract a person who is a fraud monitoring target.

한편, 안전 행동에 해당하는지 여부를 판단하는 과정(S454)은 추출된 수험자의 관절 데이터의 행동 반경이 기설정된 안전 행동 범위를 벗어나는지 여부를 검출함으로써 수행될 수 있다.On the other hand, the process of determining whether it corresponds to a safe action (S454) may be performed by detecting whether the action radius of the extracted joint data of the examinee is out of a preset safe action range.

구체적으로, 안전 행동에 해당하는지 여부를 판단하는 과정(S454)은, 관절 데이터 추출 과정(S453)으로부터 추출된 추출된 수험자의 관절 데이터와, 상기 안전행동 자세를 기초로 기추출된 관절 데이터를 비교함으로써, 상기 수험자의 관절 데이터의 행동 반경이 기설정된 안전 행동 범위를 벗어나는지 여부를 검출함으로써 수행될 수 있다.Specifically, the process of determining whether or not it corresponds to a safe behavior (S454) compares the extracted joint data of the examinee extracted from the joint data extraction process (S453) with the previously extracted joint data based on the safe behavior posture. By doing so, it can be performed by detecting whether the action radius of the examinee's joint data is out of a preset safe action range.

본 발명의 일 실시 예에 따르면, 안전 행동에 해당하는지 여부를 판단하는 과정(S454)은, 비대면 평가를 수행중인 수험자의 관절 데이터에서 손의 이동 형태를 인공 신경망 모델을 통해 정상행동과 부정행위로 판별함으로써 수행될 수 있다. 여기서, 인공 신경망 모델은 어떤 특정 부분이 반복되는 구조를 통해 순서를 학습면서 데이터에서 규칙적인 패턴을 인식하고 과거의 정보를 통해 현재의 정보를 파악하는데 효과적인 딥러닝 기법인 RNN(Recurrent Neural Network)일 수 있고, RNN을 통해 정상행동과 부정행위로 판별할 수 있다.According to an embodiment of the present invention, in the process of determining whether the behavior corresponds to a safe behavior (S454), the movement form of the hand in the joint data of the examinee performing the non-face-to-face evaluation is determined by using an artificial neural network model to determine normal behavior and cheating behavior. It can be performed by determining as . Here, the artificial neural network model is a Recurrent Neural Network (RNN), which is an effective deep learning technique for recognizing regular patterns in data and identifying current information through past information while learning the order through a structure in which certain parts are repeated. It can discriminate between normal behavior and cheating behavior through RNN.

일 예로, 도 12와 같이, 본 발명에 따른 인공 신경망 모델은 수험자의 손이 화면을 이탈하는 상황이 발생하면, 안전 행동을 벗어난 것으로 판단할 수 있다. For example, as shown in FIG. 12 , the artificial neural network model according to the present invention may determine that a safe action is out of order when a situation in which the examinee's hand leaves the screen occurs.

안전 행동에 해당하는지 여부를 판단하는 과정(S454)을 통해 상기 수험자의 행동이 부정행위에 해당하는 것으로 판단되면, 관리자를 통해 수험자 알림 및 대시보드 라벨링 과정(S42) 및 부정행위 확인 과정(S44)이 수행될 수 있으며, 부정행위 확인 과정(S44)의 결과에 따라 평가 몰수 과정(S46)이 수행되거나 혹은 부정행위 탐지 시작 과정(S40)으로 회귀될 수 있다.If it is determined that the behavior of the examinee corresponds to cheating through the process of determining whether the behavior corresponds to safety (S454), the process of notifying the examinee through the administrator, labeling the dashboard (S42), and confirming cheating (S44) This may be performed, and depending on the result of the cheating confirmation process (S44), the evaluation confiscation process (S46) may be performed or the cheating detection start process (S40) may be returned.

일 실시예에 있어서, 행동 인식 과정(S45)은, 안전 행동에 해당하는지 여부를 판단하는 과정(S454)이 수행되기 이전에 수행되며, 상기 수험자에게 안전행동 자세에 대해 안내하는 과정을 더 포함할 수 있다.In one embodiment, the action recognition process (S45) is performed before the process (S454) for determining whether the action corresponds to a safe action is performed, and may further include a step of guiding the examinee about a safe action posture. can

도 13은 본 발명의 예시적인 실시예들에 따른 소리 감지를 이용한 부정행위 검출 단계를 설명하기 위한 순서도이다.13 is a flowchart illustrating a fraud detection step using sound detection according to exemplary embodiments of the present invention.

도 13을 참조하면, 본 발명의 예시적인 실시예들에 따른 소리 감지 과정(S47)은 웹캠 마이크의 동작을 확인한 후 데시벨을 측정하고(S470), 측정된 소리의 데시벨이 안전 데시벨 범위(D)에 해당하는지 여부를 판단하고(S471), 상기 소리가 발생한 구간을 획득하고(S472), 상기 획득된 소리 구간에 대해 음성 작동 감지를 수행하고(S473), 상기 획득된 소리 구간에 음성이 감지되는지 여부를 판단함으로써(S474) 수행될 수 있다.13, in the sound detection process (S47) according to exemplary embodiments of the present invention, after checking the operation of the webcam microphone, the decibel is measured (S470), and the decibel of the measured sound is within the safe decibel range (D). (S471), obtaining a section in which the sound occurred (S472), performing voice operation detection for the obtained sound section (S473), and determining whether a voice is detected in the obtained sound section. It may be performed by determining whether or not (S474).

이때, 상기 안전 데시벨 범위(D)는 생활 소음을 수집한 값들의 평균값에 기저장된 오차범위를 더하고 뺀 값의 범위일 수 있으며, 상기 소리 구간은 10ms, 20ms, 30ms 등 10 ms의 단위로 획득될 수 있다.In this case, the safe decibel range (D) may be a range obtained by adding and subtracting a pre-stored error range from an average value of collected values of living noise, and the sound section may be obtained in units of 10 ms such as 10 ms, 20 ms, and 30 ms. can

예시적인 실시예들에 있어서, 상기 웹캠 마이크로부터 측정된 소리 데이터의 데시벨(dB)이 기설정된 안전 데시벨 범위를 벗어나거나, 또는 상기 웹캠 마이크로부터 측정된 소리 데이터에 음성이 포함된 것을 감지하면 부정행위에 해당하는 것으로 판단할 수 있으며, 이 경우 관리자를 통해 수험자 알림 및 대시보드 라벨링 과정(S42) 및 부정행위 확인 과정(S44)이 수행될 수 있으며, 부정행위 확인 과정(S44)의 결과에 따라 평가 몰수 과정(S46)이 수행되거나 혹은 부정행위 탐지 시작 과정(S40)으로 회귀될 수 있다.In exemplary embodiments, when the decibel (dB) of the sound data measured from the webcam microphone is out of a preset safe decibel range, or it is detected that the sound data measured from the webcam microphone contains voice, cheating is committed. In this case, the test taker notification and dashboard labeling process (S42) and cheating check process (S44) can be performed through the administrator, and the evaluation is based on the results of the cheating check process (S44). The confiscation process (S46) may be performed or the cheating detection start process (S40) may be returned.

이상에서는, 비대면 평가에서의 부정행위 방지 방법에 있어서, 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45) 및 소리 감지 과정(S47)이 순차적으로 수행하는 것을 설명하였으나, 본 발명의 개념은 반드시 이에 한정되지 않는다. 즉, 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45) 및 소리 감지 과정(S47)은 동시에 수행되거나 또는 기설명된 순서와 다르게 수행될 수도 있다.In the above, in the fraud prevention method in the non-face-to-face evaluation, it has been described that the identity authentication process (S41), the eye tracking process (S43), the action recognition process (S45), and the sound detection process (S47) are sequentially performed. , the concept of the present invention is not necessarily limited thereto. That is, the identity authentication process (S41), eye tracking process (S43), action recognition process (S45), and sound detection process (S47) may be performed simultaneously or in a different order from the previously described order.

전술한 바와 같이, 본 발명의 예시적인 실시예들에 따른 비대면 평가에서의 부정행위 방지 방법은 수험자의 촬영 영상으로부터 추출된 데이터를 기초로 본인 인증 확인(S41), 시선 추적(S43), 행동 인식(S45) 및 소리 감지(S45)를 통해 수험자의 부정행위를 방지할 수 있으며, 이에 따라 비대면 평가에서의 부정행위 발생이 방지될 수 있고, 평가 신뢰성이 향상될 수 있으며, 평가 결과의 공정성이 확립될 수 있다.As described above, the method for preventing cheating in a non-face-to-face evaluation according to exemplary embodiments of the present invention includes identity authentication confirmation (S41), gaze tracking (S43), behavior based on data extracted from a photographed image of an examinee. Through recognition (S45) and sound detection (S45), cheating by test takers can be prevented, and accordingly, cheating in non-face-to-face evaluation can be prevented, reliability of evaluation can be improved, and fairness of evaluation results can be improved. this can be established.

도 14는 본 발명의 예시적인 실시예들에 따른 비대면 평가에서의 부정행위 방지 방법을 실행시키기 위한 구성을 설명하기 위한 순서도이다.14 is a flowchart illustrating a configuration for executing a method for preventing cheating in non-face-to-face evaluation according to exemplary embodiments of the present invention.

도 14를 참조하면, 본 발명의 예시적인 실시예들에 따른 비대면 평가에서의 부정행위 방지 방법을 수행하기 위한 장치(100)는 안면 검출모듈(110), 동공 검출모듈(120) 및 관절 검출모듈(130)을 통해 수행될 수 있으며, 상기 안면 검출모듈(110), 상기 동공 검출모듈(120) 및 상기 관절 검출모듈(130)은 상기 컴퓨터에 일체로 설치된 카메라 또는 상기 컴퓨터와 별개로 설치된 카메라로부터 출력되는 수험자의 촬영 영상으로부터 상기 수험자의 얼굴영역 , 동공영역 및 관절영역을 검출하고 각각의 영역에 대한 데이터를 생성하도록 구비될 수 있다. 이때, 상기 안면 검출모듈, 상기 동공 검출모듈 및 상기 관절 검출모듈은 각각 아다부스트(adaboost) 및 서포트 벡터 머신(support vector machine, SVM), 신경망(neural network) 등의 얼굴 검출 알고리즘을 이용하여 수 있다. 특히, 상기 동공 검출모듈은 원 피팅(circle fitting) 및 타원 피팅(ellipse fitting) 등의 동공 검출 알고리즘을 이용하여 동공 영역을 검출할 수 있다.Referring to FIG. 14 , an apparatus 100 for performing a method for preventing cheating in a non-face-to-face evaluation according to exemplary embodiments of the present invention includes a face detection module 110, a pupil detection module 120, and joint detection. It can be performed through the module 130, and the face detection module 110, the pupil detection module 120, and the joint detection module 130 are cameras integrally installed in the computer or cameras installed separately from the computer. It may be provided to detect the examinee's face region, pupil region, and joint region from the photographed image of the examinee outputted from the test taker and generate data for each region. In this case, the face detection module, the pupil detection module, and the joint detection module may each use a face detection algorithm such as adaboost, a support vector machine (SVM), or a neural network. . In particular, the pupil detection module may detect a pupil area using a pupil detection algorithm such as circle fitting and ellipse fitting.

또한, 본 발명의 예시적인 실시예들에 따른 비대면 평가에서의 부정행위 방지 방법을 수행하기 위한 장치(100)는 소리 검출모듈을 더 포함할 수 있으며, 소리 검출모듈은 상기 컴퓨터에 일체로 설치된 웹캠 마이크 또는 상기 컴퓨터와 별개로 설치된 웹캠 마이크로부터 출력되는 소리 데이터으로부터 데시벨(dB)을 측정하고 사람의 음성을 감지하도록 구비될 수 있다.In addition, the apparatus 100 for performing the method for preventing cheating in non-face-to-face evaluation according to exemplary embodiments of the present invention may further include a sound detection module, and the sound detection module is integrally installed in the computer. It may be provided to measure decibels (dB) from sound data output from a webcam microphone or a webcam microphone installed separately from the computer and detect human voice.

예시적인 실시예들에 있어서, 안면 검출모듈(110), 동공 검출모듈(120) 관절 검출모듈(130) 및 소리 검출모듈(140)은 각각 본인 인증 과정(S41), 시선 추적 과정(S43), 행동 인식 과정(S45), 및 소리 감지 과정(S47)을 수행하도록 구비될 수 있다.In exemplary embodiments, the face detection module 110, the pupil detection module 120, the joint detection module 130, and the sound detection module 140 each perform a self-authentication process (S41), a gaze tracking process (S43), It may be provided to perform an action recognition process (S45) and a sound detection process (S47).

한편, 본 발명의 예시적인 실시예들에 따른 비대면 평가에서의 부정행위 방지 방법을 수행하기 위한 장치(100)는 안면 검출모듈(110), 동공 검출모듈(120) 관절 검출모듈(130), 및 소리 검출모듈(140)를 제어하기 위한 제어부(150), 안면 검출모듈(110), 동공 검출모듈(120) 관절 검출모듈(130), 및 소리 검출모듈(140)로부터 생성된 데이터를 저장하기 위한 저장부(160), 및 상기 데이터를 서버로 송신하거나 상기 서버로부터 정보를 수신하기 위한 통신부(170)를 더 포함할 수 있다.Meanwhile, an apparatus 100 for performing a method for preventing cheating in non-face-to-face evaluation according to exemplary embodiments of the present invention includes a face detection module 110, a pupil detection module 120, a joint detection module 130, and storing data generated from the control unit 150 for controlling the sound detection module 140, the face detection module 110, the pupil detection module 120, the joint detection module 130, and the sound detection module 140. A storage unit 160 for storage, and a communication unit 170 for transmitting the data to a server or receiving information from the server may be further included.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. The above description is merely an example of the technical idea of the present invention, and those skilled in the art can make various modifications, changes, and substitutions without departing from the essential characteristics of the present invention. will be.

따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드 할 수 있다.Meanwhile, the method according to various embodiments of the present invention described above may be implemented as a program and provided to servers or devices. Accordingly, each device may access a server or device in which the program is stored and download the program.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the method according to various embodiments of the present invention described above may be implemented as a program and stored in various non-transitory computer readable media to be provided. A non-transitory readable medium is not a medium that stores data for a short moment, such as a register, cache, or memory, but a medium that stores data semi-permanently and can be read by a device. Specifically, the various applications or programs described above may be stored and provided in non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. Of course, various modifications are possible by those skilled in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

Claims (12)

수험자의 촬영 영상으로부터 추출된 안면 이미지를 기초로 신원을 확인하는 제1 부정 행위 검출 단계; 및
상기 수험자의 촬영 영상으로부터 상기 수험자의 동공이 응시하는 스크린 좌표를 산출하고, 상기 산출된 스크린 좌표를 기초로 부정 행위 해당 여부를 판단하는 제2 부정 행위 검출 단계;를 포함하며,
상기 제2 부정 행위 검출 단계는,
상기 산출된 스크린 좌표가 스크린 내측 영역에 위치하는 경우, 부정 행위에 해당하지 않는 것으로 판단하고,
상기 산출된 스크린 좌표가 스크린 외측 영역에 위치하는 경우, 부정 행위에 해당하는 것으로 판단하는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
A first misconduct detection step of confirming an identity based on a facial image extracted from a photographed image of a test taker; and
A second cheating detection step of calculating screen coordinates at which the pupils of the examinee gaze at from the photographed image of the examinee and determining whether cheating is applicable based on the calculated screen coordinates; includes,
The second cheating detection step,
If the calculated screen coordinates are located in the inner area of the screen, it is determined that it does not correspond to cheating;
Cheating prevention method in non-face-to-face evaluation, characterized in that when the calculated screen coordinates are located in the area outside the screen, it is determined that they correspond to cheating.
제1항에 있어서,
상기 제1 부정 행위 검출 단계는,
상기 수험자의 촬영 영상으로부터 추출된 제1 안면 영역과, "상기 수험자의 신분증으로부터 추출된 제2 안면 영역 및 상기 수험자가 제출한 최근 사진으로부터 추출된 제3 안면 영역 중 적어도 하나"를 비교함으로써 수행되는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 1,
The first misconduct detection step,
Performed by comparing the first facial region extracted from the photographed image of the examinee with "at least one of a second facial region extracted from the ID of the examinee and a third facial region extracted from a recent photo submitted by the examinee" Method for preventing cheating in non-face-to-face evaluation, characterized in that.
제2항에 있어서,
상기 제1 부정 행위 검출 단계는,상기 제1 안면 영역 내지 상기 제3 안면 영역으로부터 각각 벡터값을 추출하고, 상기 추출된 벡터값들의 유클리디안 거리를 비교함으로써 수험자의 신원을 확인하는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 2,
The first misconduct detection step is characterized in that the identity of the examinee is confirmed by extracting vector values from the first to third facial regions, respectively, and comparing Euclidean distances of the extracted vector values. Methods to prevent cheating in non-face-to-face evaluations.
제1항에 있어서,
상기 제2 부정 행위 검출 단계는,
스크린을 바라보고 있는 수험자의 동공이 스크린의 어느 영역에 위치하는지 판단하기 위해 학습된 인공 신경망 모델을 이용하여 상기 스크린 좌표를 산출하는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 1,
The second cheating detection step,
Cheating prevention method in non-face-to-face evaluation, characterized in that the screen coordinates are calculated using an artificial neural network model learned to determine in which area of the screen the pupil of the examinee looking at the screen is located.
제4항에 있어서,
상기 수험자의 동공이 응시하는 영역은 스크린의 중앙 영역과 스크린의 가장자리 영역 및 스크린 밖의 외부 영역으로 구분되고,
상기 스크린의 중앙 영역 및 상기 스크린의 가장자리 영역은 부정행위에 해당되는 않는 안전 영역으로, 상기 스크린 밖의 외부 영역은 부정행위에 해당되는 비안전 영역으로 설정된 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 4,
The area gazed by the pupil of the examinee is divided into a central area of the screen, an edge area of the screen, and an outer area outside the screen;
Preventing cheating in non-face-to-face evaluation, characterized in that the central area of the screen and the edge area of the screen are set as safe areas that do not correspond to cheating, and the outer area outside the screen is set as a non-safe area that corresponds to cheating method.
제5항에 있어서,
상기 인공 신경망 모델은 수험자의 동공이 스크린 내측에 위치한 안전 영역을 응시하는지, 스크린 외측에 위치한 비안전 영역을 응시하는지 및 수험자가 눈을 감았는지에 대한 복수의 클래스를 소프트맥스(softmax) 계층으로 설정함으로써, 수험자의 동공이 응시하는 스크린 좌표를 산출하는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 5,
The artificial neural network model sets a plurality of classes for whether the examinee's pupil gazes at a safe area located inside the screen, a non-safe area located outside the screen, and whether the examinee closes their eyes as a softmax layer. By doing so, a cheating prevention method in non-face-to-face evaluation, characterized in that for calculating the screen coordinates that the examinee's pupil gazes at.
제1항에 있어서,
상기 수험자 촬영 영상으로부터 인식된 객체 인식 데이터를 기초로 제3 부정 행위를 검출하는 제3 부정 행위 검출 단계;를 더 포함하고,
상기 제3 부정 행위 검출 단계는,
상기 수험자의 촬영 영상으로부터 사람을 인식하 객체 인식 데이터를 추출하고,
상기 객체 인식 데이터로부터 상기 수험자의 관절 데이터를 추출하고,
상기 수험자의 관절 데이터가 기설정된 안전 행동 범위를 벗어나면 부정행위에 해당하는 것으로 판단함으로써 수행되는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 1,
A third misconduct detection step of detecting a third misconduct based on object recognition data recognized from the photographed image of the examinee; further comprising,
The third fraud detection step,
Recognizing a person from the photographed image of the examinee and extracting object recognition data;
extracting joint data of the examinee from the object recognition data;
A method for preventing cheating in non-face-to-face evaluation, characterized in that performed by determining that the examinee's joint data is out of the preset safe behavior range.
제7항에 있어서,
상기 수험자의 촬영 영상으로부터 추출된 소리 데이터를 기초로 부정행위 해당 여부를 판단하는 제4 부정행위 검출 단계;를 더 포함하고,
상기 제4 부정행위 검출 단계는,
상기 수험자의 촬영 영상으로부터 소리 데이터를 측정하고,
상기 소리 데이터의 데시벨(dB)이 기설정된 안전 데시벨 범위를 벗어나면 부정행위에 해당하는 것으로 판단함으로써 수행되는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 7,
A fourth cheating detection step of determining whether or not cheating is applicable based on sound data extracted from the photographed image of the examinee; further comprising,
The fourth fraud detection step,
Measuring sound data from the photographed image of the examinee,
Cheating prevention method in non-face-to-face evaluation, characterized in that performed by determining that the sound data corresponds to cheating when the decibel (dB) of the sound data is out of the preset safe decibel range.
제8항에 있어서,
상기 제4 부정행위 검출 단계는,
상기 측정된 소리 데이터에 음성이 포함된 것을 감지하면 부정행위에 해당하는 것으로 판단함으로써 수행되는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 8,
The fourth fraud detection step,
A method for preventing cheating in a non-face-to-face evaluation, characterized in that performed by determining that the measured sound data contains a voice.
제9항에 있어서,
상기 제1 부정 행위 검출 단계, 상기 제2 부정 행위 검출 단계, 상기 제3 부정 행위 검출 단계 및 상기 제4 부정 행위 검출 단계 적어도 하나라도 만족하지 못하는 경우, 상기 수험자를 부정 행위로 판단하는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 방법.
According to claim 9,
If at least one of the first misconduct detection step, the second misconduct detection step, the third misconduct detection step, and the fourth misbehavior detection step is not satisfied, it is characterized in that the test taker is judged as cheating. Methods to prevent cheating in non-face-to-face evaluations.
수험자의 촬영 영상으로부터 상기 수험자의 안면 이미지를 검출하기 위한 안면 검출모듈;
상기 수험자의 촬영 영상으로부터 상기 수험자의 동공 이미지를 검출하기 위한 동공 검출모듈;
상기 수험자의 촬영 영상으로부터 상기 수험자의 관절 데이터를 검출하기 위한 관절 검출모듈;
상기 수험자의 촬영 영상으로부터 소리 데이터를 검출하기 위한 소리 검출모듈; 및
상기 수험자의 부정행위를 판단하기 위해 상기 안면 검출모듈, 상기 동공 검출모듈, 상기 관절 검출모듈 및 상기 소리 검출모듈을 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 수험자의 촬영 영상으로부터 상기 수험자의 동공이 응시하는 스크린 좌표를 산출하고, 상기 산출된 스크린 좌표가 스크린 내측 영역에 위치하는 경우 부정 행위에 해당하지 않는 것으로 판단하고, 상기 산출된 스크린 좌표가 스크린 외측 영역에 위치하는 경우 부정 행위에 해당하는 것으로 판단하는 것을 특징으로 하는 비대면 평가에서의 부정행위 방지 장치.
a face detection module for detecting a face image of the examinee from a photographed image of the examinee;
a pupil detection module for detecting a pupil image of the examinee from the captured image of the examinee;
a joint detection module for detecting joint data of the examinee from the captured image of the examinee;
a sound detection module for detecting sound data from the photographed image of the examinee; and
Including; a controller for controlling the face detection module, the pupil detection module, the joint detection module, and the sound detection module to determine the cheating of the examinee,
The control unit,
Screen coordinates at which the examinee's pupil gazes are calculated from the photographed image of the examinee, and if the calculated screen coordinates are located in the inner area of the screen, it is determined that the act does not correspond to cheating, and the calculated screen coordinates are located outside the screen. An anti-cheating device in non-face-to-face evaluation, characterized in that it is determined that it corresponds to cheating when located in the area.
제1항 내지 제10항 중 어느 한 항에 기재된 비대면 평가에서의 부정행위 방지 방법을 실행하기 위한 프로그램 코드를 포함하는 기록 매체에 저장된 프로그램. A program stored in a recording medium including a program code for executing the method for preventing cheating in a non-face-to-face evaluation according to any one of claims 1 to 10.
KR1020210098950A 2021-07-28 2021-07-28 Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation KR20230017454A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210098950A KR20230017454A (en) 2021-07-28 2021-07-28 Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210098950A KR20230017454A (en) 2021-07-28 2021-07-28 Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation

Publications (1)

Publication Number Publication Date
KR20230017454A true KR20230017454A (en) 2023-02-06

Family

ID=85223777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210098950A KR20230017454A (en) 2021-07-28 2021-07-28 Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation

Country Status (1)

Country Link
KR (1) KR20230017454A (en)

Similar Documents

Publication Publication Date Title
US9202121B2 (en) Liveness detection
CN112328999B (en) Double-recording quality inspection method and device, server and storage medium
KR102593624B1 (en) Online Test System using face contour recognition AI to prevent the cheating behaviour and method thereof
CN109492595B (en) Behavior prediction method and system suitable for fixed group
CN113366487A (en) Operation determination method and device based on expression group and electronic equipment
CN103577801A (en) Quality metrics method and system for biometric authentication
CN103383723A (en) Method and system for spoof detection for biometric authentication
CN109756458A (en) Identity identifying method and system
WO2020079741A1 (en) Iris authentication device, iris authentication method, and recording medium
US10970953B2 (en) Face authentication based smart access control system
Rigas et al. Gaze estimation as a framework for iris liveness detection
KR20160053155A (en) Protection Method for E-learning Cheating by Face Recognition Technology involving Photograph Face Distinction Technology
RU2608001C2 (en) System and method for biometric behavior context-based human recognition
Robertson et al. A framework for biometric and interaction performance assessment of automated border control processes
KR102581415B1 (en) UBT system using face contour recognition AI to prevent the cheating behaviour and method thereof
KR20230110681A (en) Online Test System using face contour recognition AI to prevent the cheating behaviour by using a front camera of examinee terminal and an auxiliary camera and method thereof
KR20230007250A (en) UBT system using face contour recognition AI and method thereof
KR20230013236A (en) Online Test System using face contour recognition AI to prevent the cheating behaviour by using speech recognition and method thereof
KR20230017454A (en) Method, Device and Computer Program For Preventing Cheating In Non-face-to-face Evaluation
CN115565097A (en) Method and device for detecting compliance of personnel behaviors in transaction scene
Zolotarev et al. Liveness detection methods implementation to face identification reinforcement in gaming services
CN112069915A (en) ATM with face recognition system
KR102615709B1 (en) Online Test System using face contour recognition AI to prevent the cheating behavior by using a front camera of examinee terminal installed audible video recording program and an auxiliary camera and method thereof
JP7335651B1 (en) Face authentication payment system and face authentication payment method
Dixit et al. SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People)

Legal Events

Date Code Title Description
E902 Notification of reason for refusal