KR102145132B1 - Surrogate Interview Prevention Method Using Deep Learning - Google Patents

Surrogate Interview Prevention Method Using Deep Learning Download PDF

Info

Publication number
KR102145132B1
KR102145132B1 KR1020190121441A KR20190121441A KR102145132B1 KR 102145132 B1 KR102145132 B1 KR 102145132B1 KR 1020190121441 A KR1020190121441 A KR 1020190121441A KR 20190121441 A KR20190121441 A KR 20190121441A KR 102145132 B1 KR102145132 B1 KR 102145132B1
Authority
KR
South Korea
Prior art keywords
management server
face
terminal
interview
examinee
Prior art date
Application number
KR1020190121441A
Other languages
Korean (ko)
Other versions
KR20190118993A (en
Inventor
전성대
김정환
이정일
유광석
이예솔
김미성
전준호
김현창
이현주
Original Assignee
(주)진학어플라이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)진학어플라이 filed Critical (주)진학어플라이
Priority to KR1020190121441A priority Critical patent/KR102145132B1/en
Publication of KR20190118993A publication Critical patent/KR20190118993A/en
Application granted granted Critical
Publication of KR102145132B1 publication Critical patent/KR102145132B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • G06K9/00221
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/28Individual registration on entry or exit involving the use of a pass the pass enabling tracking or indicating presence

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Collating Specific Patterns (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)

Abstract

본 발명은 얼굴 인식 시스템에서 딥러닝 학습 모델을 연구하여, 실제 얼굴인식이 블라인드 면접의 문제점 해결에 활용 될 수 있도록 하였다.
블라인드 면접은 지원자가 면접대기실에서 개인별로 신원을 확인하고 가번호 정보만을 가지고 면접실에 입실한다.
이때 평가위원은 지원자를 평가함에 있어 공정성을 해칠 우려가 있는 정보들을 전형자료에서 모두 블라인드 처리한 상태로 면접을 진행한다.
따라서 면접평가위원은 해당 전형자료와 지원자가 가번호만으로 동일인임을 판단하게 되므로 여러가지 문제점이 발생할 수 있는데 이러한 문제들을 해결하는데 본 발명의 목적이 있다.
The present invention studies a deep learning learning model in a face recognition system so that real face recognition can be used to solve the problem of blind interview.
In the blind interview, applicants check the identity of each individual in the interview waiting room and enter the interview room with only the provisional number information.
At this time, the evaluator conducts an interview with all information that may impair fairness in evaluating the applicants in the state of being blinded in the application data.
Therefore, since the interview evaluation committee judges that the applicant is the same person with only the provisional number, various problems may arise. An object of the present invention is to solve these problems.

Figure 112020007660836-pat00016
Figure 112020007660836-pat00016

Description

딥러닝을 이용한 대리 면접 예방 방법{Surrogate Interview Prevention Method Using Deep Learning}Surrogate Interview Prevention Method Using Deep Learning}

본 발명은 블라인드 면접 시 딥러닝(Deep learning)을 이용한 대리면접 예방에 관한 것으로, 실시예는 블라인드 면접평가 관리 기술에 관한 것이다.The present invention relates to a proxy interview prevention using deep learning during a blind interview, and the embodiment relates to a blind interview evaluation management technology.

얼굴 인식 기술은 영상에서 추출한 얼굴이 누구의 얼굴인지 구분하는 기술로, 홍채, 지문인식과 더불어 활용되고 있는 생체 인식 기술이다. 도 1을 참고하면, 일반적인 얼굴 인식 시스템은 크게 아래와 같은 4가지 단계로 이루어진다.
1. 주어진 영상에서 얼굴을 검출하는 단계(Face Detection)
2. 검출된 얼굴의 크기, 방향 등을 정렬하는 단계(Face Alignment)
3. 정렬된 얼굴에서 특징을 추출하는 단계(Feature Extraction)
4. 추출한 특징을 데이터베이스에서 누구인지 검색하는 단계(Feature Matching)
얼굴 인식의 주요 단계인 얼굴 검출 및 특징 추출은 Histogram of Oriented Gradient(HOG), Local Binary Pattern(LBP), Scale Invariant Feature Transform(SIFT) 등 기존의 영상처리 분야에서 많이 연구가 진행되어 왔으며, 일반적으로 영상 픽셀 값의 패턴을 기반으로 특징을 추출한다. 또한, 최근에는 랜드 마크 기반의 특징 추출 기술도 연구되고 있으며, 이를 통해 얼굴 인식 이외에도 감정을 분류하는 표정 인식 기술에 대한 연구가 진행되고 있다. 하지만, 픽셀 값의 패턴을 기반으로 한 특징 추출의 경우 조명 등 주변 환경에 따라 일관적이지 못하며, 랜드마크 기반의 특징 추출은 표정에 따라 구분되는 경향을 가지기 때문에 얼굴 인식에는 적합하지 않다. 이와 관련된 선행 기술로는, 등록특허 제10-0983346호(발명의 명칭: IR 조명을 이용한 얼굴인식 시스템 및 방법), 등록특허 제10-2005150호(발명의 명칭: 머신 러닝을 이용한 얼굴 표정 인식 시스템 및 방법) 등이 있다.
Face recognition technology is a technology that identifies whose face extracted from an image is, and is a biometric recognition technology used along with iris and fingerprint recognition. Referring to FIG. 1, a general face recognition system is largely composed of four steps as follows.
1. The step of detecting a face in a given image (Face Detection)
2. Aligning the detected face size and direction (Face Alignment)
3. Feature Extraction from the aligned face
4. Step of searching who is the extracted feature in the database (Feature Matching)
Face detection and feature extraction, which are the main steps of face recognition, have been studied in the existing image processing fields such as Histogram of Oriented Gradient (HOG), Local Binary Pattern (LBP), and Scale Invariant Feature Transform (SIFT). Features are extracted based on the pattern of image pixel values. In addition, recently, a landmark-based feature extraction technology is also being studied, and through this, research on facial expression recognition technology that classifies emotions in addition to face recognition is being conducted. However, in the case of feature extraction based on a pattern of pixel values, it is not consistent with the surrounding environment such as lighting, and since the feature extraction based on landmarks tends to be classified according to facial expressions, it is not suitable for face recognition. As related prior art, Patent No. 10-0983346 (name of invention: face recognition system and method using IR illumination), Registration Patent No. 10-2005150 (name of invention: face expression recognition system using machine learning) And method).

최근 인공지능 기술을 바탕으로 한 딥러닝 알고리즘이 다양한 산업에 적용되고 있으며, 얼굴 인식 기술 분야에서도 기존의 얼굴 인식 기술보다 높은 정확도를 가지고 있다. 따라서, 이 기술을 이용하면, 대학 입시에서 블라인드 면접이 점차 확대되면서 나타나는 문제점들을 해결할 수 있다. Recently, deep learning algorithms based on artificial intelligence technology are being applied to various industries, and in the field of face recognition technology, it has higher accuracy than existing face recognition technology. Therefore, using this technology, it is possible to solve the problems that appear as blind interviews gradually expand in college entrance exams.

블라인드 면접 진행 시 지원자는 면접대기실에서 개인별로 신원확인을 받고 가번호를 부여받은 상태로 면접실에 입실한다.When conducting a blind interview, applicants are individually identified in the interview waiting room and enter the interview room with a temporary number assigned.

면접평가위원은 지원자를 평가함에 있어 공정성을 해칠 우려가 있는 정보를 블라인드 처리한 전형자료를 토대로 면접을 진행한다.The interview evaluation committee conducts an interview based on the screening data that blinded information that may compromise fairness in evaluating applicants.

따라서 면접평가위원은 검토하는 전형자료와 지원자가 동일인인지 확인이 어렵다는 문제점이 있으며, 이러한 문제들을 해결하고자 한다.Therefore, there is a problem that it is difficult for the interviewer to check whether the applicants are the same person as the screening data to be reviewed, and we want to solve these problems.

삭제delete

국내 등록특허공보 제10-2002-0032010호(2002.05.03.)Korean Patent Publication No. 10-2002-0032010 (2002.05.03.) 국내 등록특허공보 제10-0983346호(2010.09.14.)Korean Patent Publication No. 10-0983346 (2010.09.14.)

대입 면접평가 진행 시 지원자에 대한 편견이 개입될 수 있는 부분을 가려 공정성을 확보하기 위한 방안으로 블라인드 면접평가를 진행하는데, 블라인드의 범위에는 출신학교가 포함된다.The blind interview evaluation is conducted as a way to secure fairness by covering areas where prejudice against applicants may be intervened when conducting an interview evaluation for college admissions.

지원서의 사진에는 교복이 있는 경우가 많아 교복으로 출신학교를 유추할 수 있는 가능성이 있어 평가위원에게 지원자의 사진을 제공하지 못하고 있다.Since there are often school uniforms in the photos on the application form, there is a possibility that the school uniform can be used to infer the applicant's school, so the applicant's photo cannot be provided to the evaluation committee.

이러한 이유때문에 다음과 같은 문제점들이 발생할 가능성이 있다.For this reason, the following problems may occur.

첫째, 면접실에서 가번호만으로 지원자와 전형자료의 일치여부를 확인 하므로 간혹 다른 지원자와 혼동할 가능성이 있다.First, there is a possibility of confusion with other applicants because the interview room checks whether the applicant and the application data match with only the provisional number.

둘째, 지원자가 의도적으로 대리면접등의 부정행위를 시도할 경우 평가위원은 그것을 즉시 알아차릴 수 없다.Second, if an applicant intentionally attempts a misconduct such as a proxy interview, the evaluation committee cannot immediately notice it.

셋째, 면접평가가 종료된 이후에 실제 면접에 응시한 지원자의 증빙 자료가 남아있지 않다.Third, after the interview evaluation was completed, there are no evidence of applicants who took the actual interview.

본 발명은 위의 문제점들을 해결하고자 한다.The present invention seeks to solve the above problems.

본 발명은 얼굴 인식 시스템에서 딥러닝 학습 모델을 연구하여, 실제 얼굴인식이 블라인드 면접의 문제점 해결에 활용 될 수 있도록 하였다.The present invention studies a deep learning learning model in a face recognition system so that real face recognition can be used to solve the problem of blind interview.

본 발명은 얼굴 인식의 4단계 중 핵심 단계인 얼굴 검출과 특징 추출에 초점을 맞추어 진행하였다. Cascade 방식의 모델 설계와 inception model을 적용하여 모델의 파라미터를 낮추고, 연산량을 줄일 수 있음을 확인하였으며, 이러한 모델을 영상처리 분야에서 적용하기 위한 목적 함수 설정을 도출하였다.The present invention proceeded with focus on face detection and feature extraction, which are key steps among the four steps of face recognition. It was confirmed that the parameters of the model can be lowered and the amount of computation can be reduced by applying the cascade model design and the inception model, and the objective function setting for applying this model in the image processing field was derived.

본 발명의 실시예에 따른 평가시스템은, 수험생단말기(100)의 수험표에 QR코드를 부여하고, 면접 당일 수험생은 수험생단말기(100)와 신분증을 지참하며, 대기실에서 감독관이 수험생단말기(100)로부터 QR코드를 스캔하여 출결 처리를 수행하는 감독관단말기(200)를 통해 신분확인 및 사진촬영 정보를 관리서버(300)로 전송하는 과정, 감독관단말기(200)에서 면접위원단말기(500)로 신분확인 결과를 전송하는 과정을 포함한다.In the evaluation system according to the embodiment of the present invention, a QR code is given to an examination ticket of the examinee's terminal 100, the examinee on the day of the interview brings the examinee's terminal 100 and an identification card, and the supervisor in the waiting room from the examinee's terminal 100 The process of transmitting identification and photo-taking information to the management server 300 through the supervisor terminal 200 that scans the QR code and performs attendance processing, and the result of identification from the supervisor terminal 200 to the interviewer terminal 500 Including the process of transmitting.

상기 면접위원단말기(500)는, 관리서버(300)에 있는 원서 접수 사진에서 얼굴을 검출하고, 얼굴 아래의 영역에 영상 처리를 하여 교복 정보를 블라인드 한다.The interviewer terminal 500 detects a face from an application reception photo in the management server 300 and performs image processing on an area under the face to blind the school uniform information.

상기 면접위원단말기(500)는, 학생의 원서 접수 사진과 감독관단말기(200)로부터 전송된 사진의 사이의 유사도를 계산할 수 있으며, 유사도가 기준 값 보다 낮을 경우 면접관단말기(500)으로 유사도 결과를 안내해 줄 수 있다.The interviewer terminal 500 may calculate the similarity between the student's application reception photo and the photo transmitted from the supervisor terminal 200, and if the similarity is lower than the reference value, the similarity result is guided to the interviewer terminal 500. Can give.

이러한 과정은 위에서 도출된 문제점들을 해결하는 솔루션이 될 것이다.This process will be a solution to the problems identified above.

딥러닝 학습 모델을 이용한 얼굴인식 시스템은 블라인드면접의 여러가지 문제점들을 해결하는데 중요한 역할을 한다.Facial recognition system using deep learning learning model plays an important role in solving various problems of blind interview.

첫째, 면접실에서 가번호만으로 지원자와 전형자료의 일치여부를 확인하므로 간혹 다른 지원자와 혼동할 가능성이 있었지만, 교복이 가려진 지원자 사진이 제공되면 평가장에 참여한 지원자의 얼굴을 토대로 지원자와 전형자료의 일치여부를 직관적으로 알아차릴 수 있다.First, there was a possibility of confusion with other applicants because the interview room checks whether the applicant and the screening data match with only the provisional number. However, if the applicant's picture covered in school uniform is provided, the applicant and the screening data are matched based on the applicant's face. Whether or not you can intuitively notice.

둘째, 지원자가 의도적으로 대리면접등의 부정행위를 시도할 경우 관리서버(300)에 있는 지원서의 사진과 감독관단말기(200)를 통해 면접대기실에서 촬영된 지원자 얼굴사진과의 유사도를 토대로 의심행위를 사전에 면접위원단말기(500)에서 알림 받을 수 있으며 면접평가위원은 그것을 즉시 알아차릴 수 있다.Second, if the applicant intentionally attempts a fraudulent act such as a proxy interview, the suspicious behavior is determined based on the similarity between the photograph of the application in the management server 300 and the photograph of the applicant's face taken in the interview waiting room through the supervisor terminal 200. It can be notified in advance from the interviewer terminal 500, and the interviewer can immediately notice it.

셋째, 면접평가가 종료된 이후에 실제 면접에 응시한 사람이 본인인지 증명할 수 있는 자료가 남아있지 않았지만, 관리서버(300)에 있는 접수사진에서 교복이 블라인드 처리된 사진과 고사실에서 감독관단말기(200)로 촬영된 지원자 사진의 유사도 분석 결과가 관리서버(300)에 기록되어 있으므로 전형이 끝난 후에도 면접에 응시한 사람의 사진과 정보를 열람할수 있다.Third, after the interview evaluation was completed, there was no data remaining to prove that the person who took the actual interview was the person who took the interview, but the photograph in which the uniform was blinded in the reception photo on the management server 300 and the supervisor terminal 200 in the examination room. ), the similarity analysis result of the applicant's photos taken with) is recorded in the management server 300, so that the photos and information of the person who took the interview can be viewed even after the screening is over.

마지막으로, 출결 확인 및 신분증 미지참자에 대한 프로세스(즉, 신분 및 출결 확인, 신분증 미지참자 촬영, 보관, 사후 신분증대조 업무)가 복잡한 반면 거의 모든 학생이 들고다니는 스마트폰으로 출결 및 신분확인을 할 수 있게되어 감독관의 업무를 획기적으로 줄여주는 효과가 있다.Lastly, while the process for attendance verification and non-ID card holders (i.e., identification and attendance verification, photographing, archiving, and post ID verification work for non-ID card holders) is complicated, attendance and identification can be performed with a smartphone carried by almost all students. This has the effect of drastically reducing the work of the supervisor.

도 1 : 얼굴 인식 시스템 구조도
도 2 : 얼굴 검출 시스템 구조도
도 3 : 단계별 Layer 구조도
도 4 : Inception model 구조도
도 5 : 특징 추출 네트워크 구조도
도 6 : Triplet Loss 개념도
도 7 : 교복 블라인드 적용 사례
도 8 : 얼굴 특징벡터 사이의 Cosine Distance 측정 사례
도 9 : 시스템 구성도
Figure 1: Structure diagram of a face recognition system
Figure 2: Structure diagram of a face detection system
Figure 3: Layer structure diagram by step
Figure 4: Inception model structure diagram
5: Structure diagram of feature extraction network
Figure 6: Triplet Loss conceptual diagram
Figure 7: Case of application of school uniform blinds
Figure 8: Case of measuring the Cosine Distance between facial feature vectors
Figure 9: System configuration diagram

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 도시하는 첨부 도면과 함께 상세하게 후술되는 예시를 통해 충분히 설명된다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.Advantages and features of the present invention, and a method of achieving them will be sufficiently explained through examples to be described later in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. Unless otherwise defined, all terms used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless defined.

이하, 첨부된 도면들을 참조하여 본 발명의 기술적 특징을 구체적으로 설명하기로 한다.Hereinafter, the technical features of the present invention will be described in detail with reference to the accompanying drawings.

아래 내용은 얼굴 인식 시스템에 관한 설명이다.The following is a description of the face recognition system.

도 1을 참고하면, 일반적인 얼굴 인식 시스템은 크게 아래와 같은 4가지 단계로 이루어진다.Referring to FIG. 1, a general face recognition system is largely composed of four steps as follows.

1. 주어진 영상에서 얼굴을 검출하는 단계(Face Detection)1. The step of detecting a face in a given image (Face Detection)

2. 검출된 얼굴의 크기, 방향 등을 정렬하는 단계(Face Alignment)2. Aligning the detected face size and direction (Face Alignment)

3. 정렬된 얼굴에서 특징을 추출하는 단계(Feature Extraction)3. Feature Extraction from the aligned face

4. 추출한 특징을 데이터베이스에서 누구인지 검색하는 단계(Feature Matching)4. Step of searching who is the extracted feature in the database (Feature Matching)

얼굴 인식의 주요 단계인 얼굴 검출 및 특징 추출은 Histogram of Oriented Gradient(HOG), Local Binary Pattern(LBP), Scale Invariant Feature Transform(SIFT) 등 기존의 영상처리 분야에서 많이 연구가 진행되어 왔던 분야이다. 본 발명에서는 기존의 영상처리 방법이 아닌, 딥러닝을 활용한 얼굴 검출(Face Detection) 및 특징 추출(Feature Extraction)에 대한 논문을 분석하고, 각 논문에서 사용한 딥러닝 학습 모델을 활용하여 얼굴 검출 및 특징 추출에 적용하였다. Face detection and feature extraction, which are the main stages of face recognition, are fields that have been studied a lot in the existing image processing fields such as Histogram of Oriented Gradient (HOG), Local Binary Pattern (LBP), and Scale Invariant Feature Transform (SIFT). In the present invention, the papers on Face Detection and Feature Extraction using deep learning, not the existing image processing methods, are analyzed, and face detection and feature extraction are performed using the deep learning learning model used in each paper. It was applied to feature extraction.

도 2를 참고하면, 논문에서 제안된 얼굴 검출 시스템은 3가지 Deep convolutional network를 단계별로 연결하였으며, 입력 영상을 여러 크기로 변환하여 첫번째 단계의 입력으로 사용한다. 각 단계에서는 입력영상에서 얼굴의 위치를 추측하게 되고, 많이 겹치는 후보 영역에 대해선 Non-maximum suppression를 사용하여 통합한다. 처리된 영역은 추출되어 다음 단계의 입력으로 사용되고, 단계가 진행될 수록 더 세밀하게 영역을 예측한다. 각 단계의 Layer 구조는 도 3과 같다.Referring to FIG. 2, the face detection system proposed in the paper connects three deep convolutional networks step by step, and converts the input image into various sizes and uses it as the first step input. In each step, the position of the face in the input image is guessed, and non-maximum suppression is used to integrate candidate regions that overlap a lot. The processed area is extracted and used as an input for the next step, and the area is predicted more precisely as the step progresses. The layer structure of each step is shown in FIG. 3.

도 3을 참고하면, 3단계 모두 Convolutional Layer, Max-Pooling Layer, Fully Connected Layer로 구성되어 있으며, 최종 출력은 얼굴분류, 영역예측, 랜드마크 좌표 예측 3가지로 나뉘어진다. 뒤쪽 단계일수록 구조가 더 깊어지고, 필터의 개수도 늘어나 더 세밀하고 정확한 예측을 가능하게 한다. 또한, 처음에 간단한 구조의 Layer를 통과시키고, 영역을 좁혀가면서 복잡한 구조의 Layer를 통과시킴으로써, 전체 영상에 대해 처음부터 복잡한 Layer를 통과시키는 것 보다 연산량을 줄이는 효과를 볼 수 있다. Referring to FIG. 3, all three stages are composed of a Convolutional Layer, a Max-Pooling Layer, and a Fully Connected Layer, and the final output is divided into three types: face classification, area prediction, and landmark coordinate prediction. The later the step, the deeper the structure and the number of filters increases, enabling more precise and accurate prediction. In addition, by passing a layer of a simple structure at first and then passing a layer of a complex structure while narrowing the area, it is possible to reduce the amount of computation for the entire image rather than passing a complex layer from the beginning.

삭제delete

본 발명에서 사용한 얼굴 검출 시스템은 위에서 설명한 단계별로 연결된 모델을 아래 3가지 목적함수(얼굴 분류, 영역 예측, 랜드마크 좌표 예측)를 활용하여 학습하기 때문에 MTCNN(Multi-task Cascaded Convolutional Networks)라 불리며, 아래는 학습방법에 대한 설명이다.The face detection system used in the present invention is called MTCNN (Multi-task Cascaded Convolutional Networks) because it learns the model connected step by step as described above using the following three objective functions (face classification, region prediction, and landmark coordinate prediction), Below is an explanation of the learning method.

얼굴 분류는 해당 영역이 얼굴인지 아닌지 2가지 class의 분류 문제로 볼 수 있다. 따라서, 목적함수로 cross-entropy를 사용하였으며 수식은 다음과 같다.

Figure 112019100364727-pat00001
. y는 정답 라벨에 해당되며, p는 네트워크를 통해 예측된 확률이다.Face classification can be viewed as a classification problem of two classes whether the corresponding area is a face or not. Therefore, cross-entropy was used as the objective function, and the formula is as follows.
Figure 112019100364727-pat00001
. y corresponds to the correct answer label, and p is the predicted probability through the network.

영역 예측은 얼굴이 있는 사각 영역을 예측하며, 사각 영역은 왼쪽 꼭지점의 x, y 좌표와 높이 및 너비로 표현될 수 있다. 따라서, 영역 예측의 경우 4가지 값을 예측하는 회귀 문제로 볼 수 있으며, 목적 함수의 경우 유클리디안 거리를 사용하였다.Region prediction predicts a rectangular area with a face, and the rectangular area may be expressed by x, y coordinates, height and width of the left vertex. Therefore, in the case of region prediction, it can be seen as a regression problem that predicts four values, and for the objective function, a Euclidean distance is used.

랜드마크 좌표 예측은 얼굴의 5가지 특징 점(왼쪽 눈, 오른쪽 눈, 코, 왼쪽 입 꼭지점, 오른쪽 입 꼭지점)의 x, y를 예측하는 문제로 10가지 값을 예측하는 회귀문제이다. 따라서 영역예측과 마찬가지로 목적함수는 유클리디안 거리를 사용하였다.Landmark coordinate prediction is a regression problem that predicts 10 values as a problem of predicting x and y of five feature points of a face (left eye, right eye, nose, left mouth vertex, right mouth vertex). Therefore, similar to the area prediction, the objective function used the Euclidean distance.

아래의 내용은 얼굴의 특징을 추출하는 방법에 대한 설명이다.The following is an explanation of how to extract facial features.

일반적인 Convolutional Neural Network의 경우 네트워크가 깊어지면 깊어질수록, 성능이 좋아진다. 하지만, 지속적인 Convolution을 하게 되면, 영상의 해상도가 낮아진다는 단점이 있으며, 채널수가 곱해지면서 모델의 파라미터 또한 매우 늘어나게 된다.In the case of a general convolutional neural network, the deeper the network, the better the performance. However, continuous convolution has the disadvantage of lowering the resolution of the image, and as the number of channels is multiplied, the parameters of the model are also greatly increased.

본 발명에서 얼굴 특징 추출에 사용되는 DCNN(Deep Convolitional Neural Network) 모델 구조는 GoogLeNet에서 발표한 inception model을 기반으로 하며, inception model의 구조는 도 4와 같다. 도 4를 참고하면, Inception model은 이를 해결하기 위해서 제안된 모델이며, 네트워크의 넓이를 늘이는 방식을 택한다. The DCNN (Deep Convolitional Neural Network) model structure used for facial feature extraction in the present invention is based on the inception model published by GoogLeNet, and the structure of the inception model is shown in FIG. 4. Referring to FIG. 4, the Inception model is a model proposed to solve this problem, and a method of increasing the width of the network is selected.

Inception model을 활용한 전체 네트워크 구조는 도 5와 같다.The overall network structure using the Inception model is shown in FIG. 5.

도 5를 참고하면, 전체 네트워크 구조는 inception layer를 여러 번 쌓았으며, 깊이와 넓이를 같이 늘리는 구조를 택하였다. 이러한 구조를 택함으로써, 다양한 크기의 특징을 효과적으로 추출할 수 있으며, 같은 수의 convolution filter를 단순히 깊게 쌓는 것 보다 연산량을 줄이는 효과가 나타난다. 마지막에는 Fully Connected를 연결하여 embedding하고, L2 normalization을 통해 embedding vector의 길이를 일치시킨다.Referring to FIG. 5, in the overall network structure, inception layers are stacked several times, and a structure in which the depth and the width are increased together was selected. By selecting such a structure, features of various sizes can be effectively extracted, and the effect of reducing the amount of computation appears rather than simply deeply stacking the same number of convolution filters. At the end, embedding is performed by connecting Fully Connected, and the length of the embedding vector is matched through L2 normalization.

아래의 내용은 얼굴의 특징을 추출하는 모델의 학습 방법에 대한 설명이다.The following is a description of a model learning method that extracts facial features.

네트워크를 통해 나오는 최종 출력은 128차원의 특징 벡터이며, 얼굴 인식을 위해 Triplet Loss를 도입했다. 도 6과 같이 동일인의 특징 벡터는 비슷하게, 타인의 특징벡터는 멀어지게 학습이 되어야 한다.The final output through the network is a 128-dimensional feature vector, and Triplet Loss is introduced for face recognition. As shown in FIG. 6, the feature vectors of the same person should be learned similarly, and the feature vectors of others should be learned in a distance.

도 6을 참고하여 이를 수식으로 표현하면,

Figure 112019100364727-pat00002
Figure 112019100364727-pat00003
는 anchor의 특징 벡터,
Figure 112019100364727-pat00004
는 anchor와 동일인의 특징 벡터,
Figure 112019100364727-pat00005
는 타인의 특징 벡터이다.If this is expressed by an equation with reference to FIG. 6,
Figure 112019100364727-pat00002
in
Figure 112019100364727-pat00003
Is the anchor's feature vector,
Figure 112019100364727-pat00004
Is the feature vector of the same person as the anchor,
Figure 112019100364727-pat00005
Is another person's feature vector.

본 발명은 딥러닝 학습 모델을 분석하고, 이러한 모델 들을 얼굴 인식에 적용 하여 현재의 블라인드 면접에서 발생 할 수 있는 문제점을 해결하였다. The present invention analyzes a deep learning learning model and applies these models to face recognition to solve problems that may occur in the current blind interview.

아래의 내용은 영상처리를 하여 교복 정보를 블라인드하는 방법에 대한 설명이다.

Figure 112020042355892-pat00018
Figure 112020042355892-pat00019
위치 픽셀의 빨강, 초록, 파랑 값,
Figure 112020042355892-pat00020
를 검출된 얼굴 영역,
Figure 112020042355892-pat00021
를 검출된 얼굴 영역의 픽셀 개수라 할 때, 검출된 얼굴 영역내 평균 픽셀값(
Figure 112020042355892-pat00022
) 은 다음과 같이 계산된다.
Figure 112020042355892-pat00023

Figure 112020042355892-pat00024

Figure 112020042355892-pat00025

얼굴 아래 영역에 대해 가우시안 블러를 적용하며 수식은 아래와 같다.
Figure 112020042355892-pat00026

Figure 112020042355892-pat00027

Figure 112020042355892-pat00028

Figure 112020042355892-pat00029
는 2차원 가우시안 함수로 수식은 아래와 같다.
Figure 112020042355892-pat00030

이때,
Figure 112020042355892-pat00031
Figure 112020042355892-pat00032
에서의 표준 편차이며, 아래와 같다.
Figure 112020042355892-pat00033

해당 픽셀 값과 평균 값의 차이가 클수록 표준 편차가 커지며 더 흐릿하게 블라인드 처리가 된다.
Figure 112020042355892-pat00034
는 사용자 설정 값으로 전체적인 블라인드 정도를 조정한다.The following is an explanation of how to blind school uniform information by performing image processing.
Figure 112020042355892-pat00018
To
Figure 112020042355892-pat00019
The red, green, blue values of the location pixel,
Figure 112020042355892-pat00020
The detected face area,
Figure 112020042355892-pat00021
When is the number of pixels in the detected face region, the average pixel value in the detected face region (
Figure 112020042355892-pat00022
) Is calculated as follows.
Figure 112020042355892-pat00023

Figure 112020042355892-pat00024

Figure 112020042355892-pat00025

Gaussian blur is applied to the area under the face, and the formula is as follows.
Figure 112020042355892-pat00026

Figure 112020042355892-pat00027

Figure 112020042355892-pat00028

Figure 112020042355892-pat00029
Is a two-dimensional Gaussian function, and the formula is as follows.
Figure 112020042355892-pat00030

At this time,
Figure 112020042355892-pat00031
Is
Figure 112020042355892-pat00032
Is the standard deviation from, and is as follows.
Figure 112020042355892-pat00033

The larger the difference between the pixel value and the average value, the larger the standard deviation and the more blurry the blinding process is.
Figure 112020042355892-pat00034
Is the user set value to adjust the overall blindness.

도 7, 8을 참고하면, 이러한 모델들은 블라인드 면접 시스템에서 지원자 사진의 교복 제거, 지원자와 면접 대상자 동일인 유사도 체크가 블라인드 면접에 적용되면 블라인드 문제점을 해결하는데 중요한 역할을 하게 된다.Referring to FIGS. 7 and 8, these models play an important role in solving the blind problem when the uniform removal of the applicant's photo and the similarity check of the same person as the applicant and the interviewee are applied to the blind interview in the blind interview system.

도 9는 본 발명의 딥러닝을 활용한 대리면접 예방에 관한 실시예를 구체적으로 설명하기 위하여 도시한 구성도이다.9 is a block diagram showing in detail an embodiment of a proxy interview prevention using deep learning of the present invention.

도 9를 참조하면, 본 발명은 수험생단말기(100), 감독관단말기(200), 관리서버(300), 전자인증서버(400), 면접위원단말기(500)를 포함한다. 각 단말기는 고사실별로 다수의 단말기가 사용될 수 있으며 상호 유무선 통신이 가능한 단말기로서 실시간 정보를 송수신한다.Referring to FIG. 9, the present invention includes a test taker terminal 100, a supervisor terminal 200, a management server 300, an electronic authentication server 400, and an interviewer terminal 500. Each terminal can use a number of terminals for each test room, and is a terminal capable of wired or wireless communication with each other and transmits and receives real-time information.

수험생단말기(100)는 관리서버(300)를 통해 전자수험표를 발급받는다. 수험생단말기(100)는 관리서버(300)로부터 발급받은 전자수험표를 이용해 전자인증서버(400)에 본인 전자인증 처리를 요청한다. The examinee's terminal 100 receives an electronic test ticket through the management server 300. The examinee's terminal 100 requests the electronic authentication server 400 to process the user's electronic authentication using the electronic test ticket issued from the management server 300.

전자인증서버(400)는 수험생단말기(100)로부터 요청 받은 본인 전자인증 처리 결과를 알려준다. The electronic authentication server 400 informs the user of the electronic authentication processing result requested from the examinee's terminal 100.

수험생단말기(100)는 전자인증서버(400)로부터 확인된 본인 전자인증 처리 결과를 이용해 수험생 식별코드와 전자인증 암호화 토큰을 일시적으로 발행하여 관리서버(300)에 저장을 한 후 수험생단말기(100)로 고사실 책상이나 벽에 붙어있는 고사실 QR코드를 촬영하면 수험생 식별코드, 전자인증 암호화 토큰, 고사실 코드를 이용해 출석상태가 되고 수험생단말기(100)에 QR코드가 생성된다. 이는 학생들이 신분증을 미지참 하더라도 스마트폰은 대부분 지참하기 때문에 스마트폰을 이용하여 본인인증을 함으로써 출결 확인 및 신분증 미지참자 처리 프로세스(즉, 신분 및 출결 확인, 신분증 미지참자 촬영, 보관, 사후 신분증대조 업무)를 획기적으로 줄여주는 효과가 있다.The examinee's terminal 100 temporarily issues the examinee's identification code and the electronic authentication encryption token using the result of the user's electronic authentication confirmed from the electronic authentication server 400 and stores it in the management server 300, and then the examinee's terminal 100 If you take a picture of the test room QR code attached to the test room desk or the wall, the attendance status is made using the examinee identification code, electronic authentication encryption token, and test room code, and a QR code is generated in the examinee's terminal 100. This is the process of verifying attendance and processing of non-ID card holders by verifying their identity using a smart phone (i.e., identification and attendance verification, photographing, storing, and post identification verification work for non-ID cards), even if students do not bring their ID card. ) Is drastically reduced.

감독관단말기(200)는 수험생단말기(100)의 출결 및 신분확인 이외에 추가로 대면 출결 확인이 필요할 경우 수험생단말기(100)에 출력된 QR코드를 카메라 인식 모듈로 스캔하여 QR코드에서 수험생 식별코드와 전자인증 암호화 토큰을 사용하여 수험생 식별코드가 단방향 암호화 된 Hash값을 식별하여 관리서버(300)에 있는 전자인증 암호화 토큰을 암호화 Key로 사용하여 수험생 식별코드를 단방향 암호화 한 Hash값의 일치여부로 진위여부를 확인한다.
이때 감독관단말기(200)가 수험생단말기(100)의 QR코드로부터 읽어 들인 수험생 식별코드는 단방향 Hash salt로 암호화 되어있다. 단방향 Hash salt의 Salt key 값은 전자인증서버(400)로부터 인증완료시 발급받은 전자인증 암호화 토큰으로 사용된다. 그러므로 수험생 또는 제 3자가 부주의 또는 해킹을 통해 수험생단말기(100)에서 화면을 이미지로 캡쳐 또는 복사하여 유출되더라도 관리서버(300)에서 일시적으로 부여되는 Salt key(즉, 전자인증 암호화 토큰)가 달라지므로 제3자가 가지고 있는 QR코드 이미지는 더 이상 유효하지 않아 인증에 실패하게 된다. 또한 여기에서 사용되는 전자인증서버(400)는 본인 전자인증을 법적으로 보장받는 신뢰할 수 있는 기관의 서비스를 이용함으로 원서접수시 조작된 사진정보나 신분증을 이용한 본인확인 시도를 예방할 수 있다. 이렇게 진위여부가 확인되면 감독관 단말기는 지원자의 출석사진을 촬영하여 관리서버(300)로 전송한다.
The supervisor's terminal 200 scans the QR code output on the examinee's terminal 100 with a camera recognition module when additional face-to-face attendance verification is required in addition to the attendance and identification of the examinee's terminal 100. Using an authentication encryption token, the examinee's identification code is one-way encrypted hash value, and the digital authentication encryption token in the management server 300 is used as an encryption key to verify the authenticity by whether the hash value of one-way encryption of the examinee's identification code is matched. Check.
At this time, the examinee identification code read by the supervisor terminal 200 from the QR code of the examinee terminal 100 is encrypted with one-way hash salt. The salt key value of the one-way hash salt is used as an electronic authentication encryption token issued when authentication is completed from the electronic authentication server 400. Therefore, even if the examinee or a third party captures or copies the screen as an image from the examinee's terminal 100 through carelessness or hacking, the salt key temporarily given by the management server 300 (that is, the electronic authentication encryption token) is different. The QR code image held by the third party is no longer valid and authentication fails. In addition, the electronic authentication server 400 used here uses a service of a trusted institution that legally guarantees the user's electronic authentication, thereby preventing an attempt to verify an identity using manipulated photo information or an identification card at the time of application. When the authenticity is confirmed in this way, the supervisor terminal takes a picture of the applicant's attendance and transmits it to the management server 300.

관리서버(300)는 수험생단말기(100)로부터 생성된 전자인증 암호화 토큰을 일시적으로 저장하고 있다가 감독관단말기(200)로부터 수험생 식별코드와 전자인증 암호화 토큰을 이용하여 확인요청을 받으면 요청 받은 암호화 토큰이 유효한지 확인후 그 결과를 감독관단말기(200)에 알려준다. 이때 관리서버(300)는 전자인증 암호화 토큰을 더이상 사용할 수 없는 상태로 파기한다. 또한 관리서버(300)는 감독관단말기(200)로부터 전송 받은 암호화 토큰이 유효한 경우 출석처리상태로 갱신하고, 유효하지 않은 경우 오프라인으로 신분증을 확인하고 출석사진을 촬영할 수 있도록 안내한다.The management server 300 temporarily stores the electronic authentication encryption token generated from the examinee's terminal 100 and receives a request for confirmation using the examinee's identification code and the electronic authentication encryption token from the supervisor's terminal 200. After checking whether this is valid, the result is notified to the supervisor terminal 200. At this time, the management server 300 destroys the electronic authentication encryption token in a state that can no longer be used. In addition, the management server 300 updates to the attendance processing state when the encryption token transmitted from the supervisor terminal 200 is valid, and when not valid, guides the identification card to be checked offline and photographs of attendance can be taken.

관리서버(300)는 지원자가 출석처리 상태로 갱신되면 감독관단말기(200)로부터 전송 받은 출석사진과 지원자가 원서접수시 제출한 접수사진에서 추출한 특징 벡터 사이의 코사인유사도를 계산하여 면접위원단말기(500)로 전송한다.The management server 300 calculates the cosine similarity between the attendance photo received from the supervisor terminal 200 and the feature vector extracted from the reception photo submitted by the applicant when the application is received when the applicant is updated to the attendance processing state, and the interviewer terminal 500 ).

이때 관리서버(300)는 원서접수시 제출한 접수사진은 사전에 교복을 블라인드처리한 사진으로 전송한다.At this time, the management server 300 transmits the photograph of the application submitted at the time of application as a photograph obtained by blinding the school uniform in advance.

100 : 수험생단말기
200 : 감독관단말기
300 : 관리서버
400 : 전자인증서버
500 : 면접위원단말기
100: student terminal
200: Supervisor terminal
300: management server
400: electronic authentication server
500: Interviewer terminal

Claims (3)

수험생단말기(100)로 고사실 책상이나 벽에 붙어있는 고사실 QR코드를 촬영하면 수험생 식별코드, 전자인증 암호화 토큰, 고사실 코드를 이용하여 출석상태가 되고 수험생단말기(100)에 QR코드를 생성하는 단계;
감독관단말기(200)는 수험생단말기(100)의 출결 및 신분확인에 더해 대면 출결 확인이 필요할 경우 수험생단말기(100)에 출력된 QR코드를 카메라 인식 모듈로 스캔하여 QR코드에서 수험생 식별코드와 전자인증 암호화 토큰을 식별하여 관리서버(300)에 진위여부를 확인하는 단계;
진위여부가 확인되면 감독관 단말기는 지원자의 출석사진을 촬영하여 관리서버(300)로 전송하는 단계;
관리서버(300)는 원서접수시 제출한 접수사진에서 MTCNN(Multi-task Cascaded Convolutional Networks)을 이용하여 얼굴을 검출(Face Detection)하는 단계;
관리서버(300)는 검출된 얼굴 영역의 평균 픽셀 값을 계산하는 단계;
관리서버(300)는 검출된 얼굴 아래 부분의 영역에서 평균 픽셀 값과의 차이에 따라 가우시안 블러를 적용하여 블라인드 처리하는 단계
관리서버(300)는 감독관단말기(200)에서 촬영된 사진을 MTCNN을 이용하여 얼굴을 검출(Face Detection)하는 단계;
관리서버(300)가 원서 접수 사진 및 촬영된 사진에서 검출된 얼굴의 크기, 방향을 정렬(Face Alignment)하는 단계;
관리서버(300)가 정렬된 얼굴에서 DCNN을 이용하여 특징을 추출(Feature Extraction)하는 단계;
관리서버(300)가 원서접수 사진과 촬영된 사진에서 추출한 특징 벡터 사이의 코사인 유사도를 측정하는 단계를 포함하는 딥러닝을 이용한 대리 면접 예방 방법.
If the test room QR code attached to the test room desk or wall is photographed with the test examinee's terminal 100, an attendance state is established using the test examinee identification code, an electronic authentication encryption token, and the test room code, and generating a QR code on the test examinee's terminal 100;
In addition to the attendance and identification of the examinee terminal 100, the supervisor terminal 200 scans the QR code output on the examinee's terminal 100 with a camera recognition module when a face-to-face attendance confirmation is required, and the identification code and electronic authentication of the examinee in the QR code Identifying the encryption token and confirming the authenticity with the management server 300;
When the authenticity is confirmed, the supervisor terminal takes a picture of the applicant's attendance and transmits it to the management server 300;
The management server 300 includes a step of detecting a face from the photo submitted at the time of application by using Multi-task Cascaded Convolutional Networks (MTCNN);
The management server 300 calculates an average pixel value of the detected face area;
The management server 300 performs blind processing by applying a Gaussian blur according to the difference from the average pixel value in the area under the detected face.
The management server 300 includes the steps of detecting a face by using the MTCNN of the picture taken by the supervisor terminal 200;
A step of the management server 300 aligning the size and direction of the face detected in the application reception photo and the taken photo;
The management server 300 extracting features from the aligned faces using DCNN;
A proxy interview prevention method using deep learning, comprising the step of measuring, by the management server 300, a cosine similarity between an application acceptance picture and a feature vector extracted from the taken picture.
삭제delete 삭제delete
KR1020190121441A 2019-10-01 2019-10-01 Surrogate Interview Prevention Method Using Deep Learning KR102145132B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190121441A KR102145132B1 (en) 2019-10-01 2019-10-01 Surrogate Interview Prevention Method Using Deep Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190121441A KR102145132B1 (en) 2019-10-01 2019-10-01 Surrogate Interview Prevention Method Using Deep Learning

Publications (2)

Publication Number Publication Date
KR20190118993A KR20190118993A (en) 2019-10-21
KR102145132B1 true KR102145132B1 (en) 2020-08-14

Family

ID=68460659

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190121441A KR102145132B1 (en) 2019-10-01 2019-10-01 Surrogate Interview Prevention Method Using Deep Learning

Country Status (1)

Country Link
KR (1) KR102145132B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220063935A (en) * 2020-11-11 2022-05-18 위드로봇 주식회사 Camera device and method performed by the camera device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929256A (en) * 2019-11-20 2020-03-27 秒针信息技术有限公司 Method and device for identifying abnormal access equipment
CN111080853B (en) * 2019-12-20 2021-02-05 珠海格力电器股份有限公司 Intelligent door lock system, unlocking method, device, equipment and medium
CN116863576B (en) * 2023-09-04 2023-12-22 民航成都电子技术有限责任公司 Method, system and medium for synchronizing passage information of aircrew

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020032010A (en) 2000-10-25 2002-05-03 이재찬 A user certifying system using a certification key and the certifying method
KR100983346B1 (en) 2009-08-11 2010-09-20 (주) 픽셀플러스 System and method for recognition faces using a infra red light
KR101397845B1 (en) * 2012-10-26 2014-05-20 포항공과대학교 산학협력단 Face recognition method, machine-readable storage medium and face recognition device
KR20170106736A (en) * 2016-03-14 2017-09-22 이기곤 Smart Exam and Supervisor system
KR102005150B1 (en) * 2017-09-29 2019-10-01 이인규 Facial expression recognition system and method using machine learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220063935A (en) * 2020-11-11 2022-05-18 위드로봇 주식회사 Camera device and method performed by the camera device
KR102557293B1 (en) * 2020-11-11 2023-07-19 위드로봇 주식회사 Camera device and method performed by the camera device

Also Published As

Publication number Publication date
KR20190118993A (en) 2019-10-21

Similar Documents

Publication Publication Date Title
KR102145132B1 (en) Surrogate Interview Prevention Method Using Deep Learning
Ferrara et al. On the effects of image alterations on face recognition accuracy
KR102406432B1 (en) Identity authentication methods and devices, electronic devices and storage media
JP5076563B2 (en) Face matching device
US20140016836A1 (en) Face recognition system and method
Bhatti et al. Smart attendance management system using face recognition
KR20180109664A (en) Liveness test method and apparatus
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
US20210406351A1 (en) Non-face-to-face authentication system
CN113642639B (en) Living body detection method, living body detection device, living body detection equipment and storage medium
CN113111810B (en) Target identification method and system
WO2021166289A1 (en) Data registration device, biometric authentication device, and recording medium
JP2006085289A (en) Facial authentication system and facial authentication method
Sudhakar et al. Facial identification of twins based on fusion score method
CN112308035A (en) Image detection method, image detection device, computer equipment and storage medium
JP2008065651A (en) Face image authentication method, face image authentication apparatus and program
WO2022222957A1 (en) Method and system for identifying target
Karunakar et al. Smart Attendance Monitoring System (SAMS): A Face Recognition Based Attendance System for Classroom Environment
JP4222558B2 (en) Image recognition device
JP5279007B2 (en) Verification system, verification method, program, and recording medium
Shrestha et al. Attendance and security assurance using image processing
Shinde et al. An Approach for e-Voting using Face and Fingerprint Verification
Karthik et al. Face anti-spoofing based on sharpness profiles
Anisha et al. AUTOMATED FACIAL RECOGNITION FOR CLASS ATTENDANCE
Toprak et al. Fusion of full-reference and no-reference anti-spoofing techniques for ear biometrics under print attacks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant