KR102310135B1 - Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model - Google Patents

Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model Download PDF

Info

Publication number
KR102310135B1
KR102310135B1 KR1020200038497A KR20200038497A KR102310135B1 KR 102310135 B1 KR102310135 B1 KR 102310135B1 KR 1020200038497 A KR1020200038497 A KR 1020200038497A KR 20200038497 A KR20200038497 A KR 20200038497A KR 102310135 B1 KR102310135 B1 KR 102310135B1
Authority
KR
South Korea
Prior art keywords
personality
information
user
answer
image
Prior art date
Application number
KR1020200038497A
Other languages
Korean (ko)
Inventor
유대훈
이영복
Original Assignee
주식회사 제네시스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제네시스랩 filed Critical 주식회사 제네시스랩
Priority to KR1020200038497A priority Critical patent/KR102310135B1/en
Application granted granted Critical
Publication of KR102310135B1 publication Critical patent/KR102310135B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Tourism & Hospitality (AREA)
  • Medical Informatics (AREA)
  • Economics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to a method, system and computer-readable medium for conducting a recruitment process for an applicant using a machine learning model and, more specifically, to a method, system and computer-readable medium for deriving authenticity information referring to a degree of reliability for answer content of a user for a personality and aptitude test through the machine learning model and comparing the answer content for the personality and aptitude test and an interview answer video to determine whether the user is the same person.

Description

기계학습 모델을 이용하여 지원자에 대한 채용과정을 수행하는 방법, 시스템 및 컴퓨터-판독가능 매체 {Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model}Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model

본 발명은 기계학습 모델을 이용하여 지원자에 대한 채용과정을 수행하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 사용자의 인적성 답변컨텐츠에 대하여 신뢰 정도에 해당하는 진위성정보를 기계학습 모델을 통하여 도출하고, 인적성 답변컨텐츠 및 면접 답변영상을 비교하여 해당 사용자가 동일한 인물인지 판단하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, system, and computer-readable medium for performing a recruitment process for applicants using a machine learning model, and more particularly, to the authenticity information corresponding to the degree of trust in the user's personality answer content by machine It relates to a method, system, and computer-readable medium derived through a learning model, and a method, system, and computer-readable medium for determining whether the user is the same person by comparing the personality response content and the interview response image.

기업 혹은 기관 등에서 수행하는 일반적인 형태의 채용 프로세스는, 지원자들로부터 해당 기업 혹은 기관에 대한 지원서(서류)를 제출 받고, 지원서에 따라 1차 합격된 지원자들을 대상으로 인적성 혹은 직무능력에 대한 시험 및 면접을 1회 이상 수행하여 1차 합격된 지원자들 가운데 적합한 지원자를 최종적으로 채용하게 된다.In the general type of recruitment process performed by companies or institutions, applicants submit applications (documents) for the company or institution, and based on the application, applicants who have passed the first stage are tested and interviewed for personality or job ability. Applicants who have passed the 1st round will be finally recruited from among the applicants who passed the 1st round.

특히 인적성 검사의 경우, 이를 진행하는 기업 혹은 기관에서는 인적성 검사를 진행하기 위하여 학교와 같이 별도로 마련된 물리적 공간을 마련해야 하고, 물리적 공간뿐만 아니라 인적성 검사를 진행, 감독하기 위한 인적자원 또한 마련되어야 한다. 따라서 종래의 채용과정을 진행하는 기업 혹은 기관 입장에서는 많은 비용, 시간 및 인적자원이 소요되는 문제점이 있다.In particular, in the case of a personality test, a company or institution that conducts the test must prepare a separate physical space such as a school to conduct the personality test, and provide not only the physical space but also human resources for conducting and supervising the personality test. Therefore, there is a problem that a lot of money, time, and human resources are required from the perspective of a company or institution that proceeds with the conventional hiring process.

또한, 대리 응시와 같은 부정행위를 방지하기 위하여, 지원자가 소지한 전자기기를 제출 받거나, 인적성 검사를 수행하기 전에 지원자의 얼굴을 신분증과 대조하는 등의 추가적인 절차를 수행해야 하므로, 인적성 검사를 위해 절차적으로 소요되는 시간이 증가한다.In addition, in order to prevent fraudulent acts such as taking a proxy test, additional procedures such as receiving the electronic device possessed by the applicant or comparing the applicant's face with the ID card before performing the personality test are required. Procedural time is increased.

한편, 종래의 인적성 검사를 위한 문항의 구성에 있어서는, 인적성 검사 문항에 대한 지원자의 답변에 대해 신뢰성(진위성)을 파악하기 위하여 동일한 문항이 중복 포함되거나 혹은 해당 문항과 비슷한 유형의 문항들이 중복 포함된다. 이와 같은 이유로 인적성 검사에 소요되는 시간이 통상적으로 90분 정도에 달할 정도로 많은 시간이 소요되어, 채용을 진행하는 기업 혹은 인적성 검사를 받는 지원자 모두에게 피로감을 가중시키는 문제점이 발생한다. 또한 상기와 같은 인적성 검사의 문항 구성은 지원자가 이에 대해 사전에 대비하는 경우에 비교적 높은 진위성을 갖도록 의도적으로 답을 작성할 수 있으므로, 기업에 실제로 필요한 지원자를 판단하는데 어려움이 발생할 수 있다.On the other hand, in the composition of the questions for the conventional personality test, the same questions are duplicated or similar types of questions are included in order to determine the reliability (authenticity) of the applicant's answers to the personality test questions. . For this reason, the time required for the personality test is usually about 90 minutes, so there is a problem that aggravates the fatigue of both the companies that are hiring and the applicants who are taking the personality test. In addition, since the above-mentioned composition of the questions of the personality test can intentionally prepare the answers to have relatively high authenticity when the applicant prepares for it in advance, it may be difficult to determine the applicants actually needed by the company.

추가적으로, 최근 들어 대내외적으로 경영 환경이 급격하게 변화함에 따라 기업들은 정기 채용보다는 인재가 필요한 상황에 맞추어 유연하게 채용할 수 있는 수시 채용방식을 선호하고 있으며, 따라서 정기 채용에 비해 한번에 많은 인재를 채용하지 않으나 필요할 때마다 이루어지는 수시 채용 방식에 있어서는 상술한 오프라인 방식의 인적성 검사를 매번 수행하기에는 채용을 진행하는 기업 입장에서 부담되는 요소로 작용할 수 있다.In addition, as the business environment changes rapidly both internally and externally in recent years, companies prefer the frequent hiring method that can flexibly hire talents according to the situation where they need talent rather than regular hiring. However, in the occasional hiring method that is performed whenever necessary, it may act as a burdensome factor for the company that is hiring to perform the above-described offline personality test every time.

따라서, 인적성 검사와 같은 채용과정에 있어서 소요되는 비용 및 시간을 단축시키는 것과 동시에 대리 응시와 같은 부정행위를 예방할 수 있는 채용방법의 개발이 필요한 상황이다.Therefore, there is a need to develop a hiring method that can reduce the cost and time required in the hiring process, such as a personality test, and at the same time prevent fraudulent acts such as taking a proxy test.

본 발명은 기계학습 모델을 이용하여 지원자에 대한 채용과정을 수행하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 사용자의 인적성 답변컨텐츠에 대하여 신뢰 정도에 해당하는 진위성정보를 기계학습 모델을 통하여 도출하고, 인적성 답변컨텐츠 및 면접 답변영상을 비교하여 해당 사용자가 동일한 인물인지 판단하는 방법, 시스템 및 컴퓨터-판독가능 매체를 제공하는 것을 목적으로 한다.The present invention relates to a method, system, and computer-readable medium for performing a recruitment process for applicants using a machine learning model, and more particularly, to the authenticity information corresponding to the degree of trust in the user's personality answer content by machine It aims to provide a method, system, and computer-readable medium that is derived through a learning model and determines whether the user is the same person by comparing the personality response content and the interview response image.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅시스템에서 수행되는 온라인 지원자 채용과정을 수행하는 방법으로서, 1 이상의 인적성 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 인적성 질문컨텐츠에 대한 사용자의 인적성 답변영상을 포함하는 답변컨텐츠를 상기 사용자단말기로부터 수신하는 인적성제공단계; 기계학습된 모델에 의하여 상기 인적성 답변영상으로부터 해당 인적성 답변영상의 진위성정보를 도출하는 진위성도출단계; 1 이상의 상기 인적성 답변영상의 진위성정보 및 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보에 기초하여 해당 사용자에 대한 인적성 검사결과를 도출하는 인적성결과도출단계; 1 이상의 면접 질문컨텐츠를 상기 사용자단말기에 제공하고, 각각의 상기 면접 질문컨텐츠에 대한 사용자의 면접 답변영상을 상기 사용자단말기로부터 수신하는 온라인면접제공단계; 및 상기 인적성 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제1얼굴이미지와 상기 면접 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제2얼굴이미지에 기초하여, 상기 인적성 답변영상에서의 사용자와 상기 면접 답변영상에서의 사용자의 동일성을 판단하는 동일성판단단계;를 포함하는, 온라인 지원자 채용과정을 수행하는 방법을 제공한다.In order to solve the above problems, an embodiment of the present invention is a method of performing an online applicant recruitment process performed in a computing system having one or more processors and one or more memories, wherein one or more personality question contents are provided to a user terminal. A personality providing step of providing, and receiving, from the user terminal, answer contents including a personal response image of the user for each of the personality question contents; Authenticity derivation step of deriving authenticity information of the personality answer image from the personality answer image by the machine-learning model; a personality result deriving step of deriving a personality test result for the user based on the authenticity information of one or more of the personality answer images and the user's answer information for the personality question content; an online interview providing step of providing one or more interview question contents to the user terminal, and receiving an interview answer image of the user for each of the interview question contents from the user terminal; and one or more first face images including the user's face extracted from the personality answer image and one or more second face images including the user's face extracted from the interview answer image, based on the user in the personality answer image It provides a method of performing an online applicant recruitment process, including; identity determination step of determining the identity of the user in the interview answer image.

본 발명의 일 실시예에서는, 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보는, 상기 인적성 질문컨텐츠에 대한 해당 사용자의 인적성 답변영상의 음성정보에 기초하여 도출될 수 있다.In one embodiment of the present invention, the user's answer information to the personality question content may be derived based on the voice information of the user's personality answer image to the personality question content.

본 발명의 일 실시예에서는, 상기 진위성정보는, 1 이상의 상기 인적성 질문컨텐츠에 대한 각각의 인적성 답변영상에 기초하여 개별적으로 도출되고, 상기 인적성 검사결과는 복수의 평가항목 각각에 대한 항목평가정보 및 항목진위성정보를 포함하고, 상기 항목평가정보는, 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 답변정보 및 기설정된 규칙에 기초하여 도출되고, 상기 항목진위성정보는, 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 진위성정보에 기초하여 도출될 수 있다.In an embodiment of the present invention, the authenticity information is derived individually based on each personality answer image for one or more of the personality question content, and the personality test result is item evaluation information for each of a plurality of evaluation items and Item authenticity information is included, wherein the item evaluation information is derived based on answer information for one or more personality question contents corresponding to the evaluation item and a preset rule, and the item authenticity or satellite information is at least one corresponding to the evaluation item. It can be derived based on authenticity information about the personality question content.

본 발명의 일 실시예에서는, 상기 진위성정보는, 1 이상의 상기 인적성 질문컨텐츠에 대한 각각의 인적성 답변영상에 기초하여 개별적으로 도출되고, 상기 인적성 검사결과는 종합진위성정보 및 복수의 평가항목 각각에 대한 항목평가정보를 포함하고, 상기 종합진위성정보는, 복수의 상기 진위성정보에 기초하여 도출되고, 상기 항목평가정보는, 각각의 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 답변정보 및 기설정된 규칙에 기초하여 도출될 수 있다.In an embodiment of the present invention, the authenticity information is derived individually based on each personality answer image for one or more of the personality question content, and the personality test result is the comprehensive authenticity information and each of a plurality of evaluation items. Item evaluation information is included, and the comprehensive authenticity information is derived based on a plurality of the authenticity information, and the item evaluation information includes answer information and preset rules for one or more personality question contents corresponding to each evaluation item. can be derived based on

본 발명의 일 실시예에서는, 상기 온라인면접제공단계는 자동평가결과도출단계를 포함하고, 상기 자동평가결과도출단계는, 상기 면접 답변영상에 대하여 기계학습된 모델에 의하여 1 이상의 종합평가항목에 대한 정보를 포함하는 자동평가결과를 도출할 수 있다.In an embodiment of the present invention, the online interview providing step includes an automatic evaluation result deriving step, and the automatic evaluation result deriving step is based on a machine-learned model for the interview answer image for one or more comprehensive evaluation items. Automatic evaluation results including information can be derived.

본 발명의 일 실시예에서는, 상기 동일성판단단계는, 상기 인적성 답변영상의 복수의 프레임에 포함된 복수의 제1얼굴이미지로부터 각각의 제1얼굴특징정보를 추출하는 단계; 상기 면접 답변영상의 복수의 프레임에 포함된 복수의 제2얼굴이미지로부터 각각의 제2얼굴특징정보를 추출하는 단계; 및 상기 제1얼굴특징정보 및 상기 제2얼굴특징정보를 상호 비교하여 각 영상에서의 사용자의 동일성을 판단하는 단계;를 포함할 수 있다.In an embodiment of the present invention, the step of determining the identity comprises: extracting each first facial feature information from a plurality of first face images included in a plurality of frames of the personality response image; extracting each second facial feature information from a plurality of second face images included in a plurality of frames of the interview answer image; and determining the identity of the user in each image by comparing the first facial feature information and the second facial feature information.

본 발명의 일 실시예에서는, 상기 온라인 지원자 채용과정을 수행하는 방법은 동일성판단정보제공단계를 더 포함하고, 상기 동일성판단정보제공단계는, 상기 인적성제공단계에서 수신한 인적성 답변영상 혹은 상기 온라인면접제공단계에서 수신한 면접 답변영상에서 사용자의 얼굴을 포함하는 1 이상의 판단이미지를 추출하는 단계; 및 추출된 1 이상의 상기 판단이미지를 면접관의 단말기에서 디스플레이될 수 있도록 외부 단말기로 송신하는 단계;를 포함할 수 있다.In an embodiment of the present invention, the method of performing the online applicant recruitment process further comprises the step of providing identity determination information, wherein the step of providing the identity determination information includes the personality response image received in the personality provision step or the online interview. extracting one or more judgment images including the user's face from the interview answer image received in the providing step; and transmitting the extracted one or more judgment images to an external terminal to be displayed on the terminal of the interviewer.

본 발명의 일 실시예에서는, 상기 인적성제공단계는, 1 이상의 기준 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 기준질문 컨텐츠에 대한 사용자의 기준 답변영상을 상기 사용자단말기로부터 수신하는 기준질문제공단계;를 더 수행하고, 상기 진위성도출단계는, 기계학습된 모델에 의하여 상기 인적성 답변영상; 및 상기 기준 답변영상 혹은 상기 기준 답변영상으로부터 도출된 기준지표;에 기초하여 인적성 답변영상에 대한 진위성정보를 도출할 수 있다.상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 온라인 지원자 채용과정을 수행하는 컴퓨팅시스템으로서, 1 이상의 인적성 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 인적성 질문컨텐츠에 대한 사용자의 인적성 답변영상을 포함하는 답변컨텐츠를 상기 사용자단말기로부터 수신하는 인적성제공부; 기계학습된 모델에 의하여 상기 인적성 답변영상으로부터 해당 인적성 답변영상의 진위성정보를 도출하는 진위성도출부; 1 이상의 상기 인적성 답변영상의 진위성정보 및 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보에 기초하여 해당 사용자에 대한 인적성 검사결과를 도출하는 인적성결과도출부; 1 이상의 면접 질문컨텐츠를 상기 사용자단말기에 제공하고, 각각의 상기 면접 질문컨텐츠에 대한 사용자의 면접 답변영상을 상기 사용자단말기로부터 수신하는 온라인면접제공부; 및 상기 인적성 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제1얼굴이미지와 상기 면접 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제2얼굴이미지에 기초하여, 상기 인적성 답변영상에서의 사용자와 상기 면접 답변영상에서의 사용자의 동일성을 판단하는 동일성판단부;를 포함하는, 컴퓨팅시스템을 제공한다.In an embodiment of the present invention, the providing of personality comprises providing one or more reference question contents to a user terminal, and a reference question providing step of receiving a user's reference answer image for each of the reference question contents from the user terminal ; further performing, the authenticity deriving step, the personality answer image by a machine-learned model; and a reference index derived from the reference answer image or the reference answer image; it is possible to derive authenticity information about the personality answer image. In order to solve the above problems, an embodiment of the present invention provides an online As a computing system for performing a candidate recruitment process, a personality providing unit that provides one or more personality question contents to a user terminal, and receives answer contents including an image of a user's personality answer for each of the personality question contents from the user terminal ; Authenticity derivation unit for deriving authenticity information of the personality answer image from the personality answer image by the machine-learned model; a personality result deriving unit for deriving a personality test result for the user based on the authenticity information of the one or more personality answer images and the user's answer information for the personality question content; an online interview providing unit for providing one or more interview question contents to the user terminal and receiving an interview answer image of the user for each of the interview question contents from the user terminal; and one or more first face images including the user's face extracted from the personality answer image and one or more second face images including the user's face extracted from the interview answer image, based on the user in the personality answer image It provides a computing system comprising a; identity determination unit for determining the identity of the user in the interview answer image.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅시스템에서 수행되는 온라인 지원자 채용과정을 수행하는 방법으로서, 1 이상의 면접 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 면접 질문컨텐츠에 대한 사용자의 면접 답변영상을 상기 사용자단말기로부터 수신하는 온라인면접제공단계; 1 이상의 인적성 질문컨텐츠를 상기 사용자단말기에 제공하고, 각각의 상기 인적성 질문컨텐츠에 대한 사용자의 인적성 답변영상을 포함하는 답변컨텐츠를 상기 사용자단말기로부터 수신하는 인적성제공단계; 기계학습된 모델에 의하여 상기 인적성 답변영상으로부터 해당 인적성 답변영상의 진위성정보를 도출하는 진위성도출단계; 1 이상의 상기 인적성 답변영상의 진위성정보 및 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보에 기초하여 해당 사용자에 대한 인적성 검사결과를 도출하는 인적성결과도출단계; 및 상기 인적성 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제1얼굴이미지와 상기 면접 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제2얼굴이미지에 기초하여, 상기 인적성 답변영상에서의 사용자와 상기 면접 답변영상에서의 사용자의 동일성을 판단하는 동일성판단단계;를 포함하는, 온라인 지원자 채용과정을 수행하는 방법을 제공한다.In order to solve the above problems, an embodiment of the present invention provides a method of performing an online applicant recruitment process performed in a computing system having one or more processors and one or more memories, wherein one or more interview question contents are provided to a user terminal. an online interview providing step of providing, and receiving, from the user terminal, the user's interview answer image for each of the interview question content; A personality providing step of providing one or more personality question contents to the user terminal, and receiving answer contents including an image of the user's personality answer for each of the personality question contents from the user terminal; Authenticity derivation step of deriving authenticity information of the personality answer image from the personality answer image by the machine-learning model; a personality result deriving step of deriving a personality test result for the user based on the authenticity information of one or more of the personality answer images and the user's answer information for the personality question content; and one or more first face images including the user's face extracted from the personality answer image and one or more second face images including the user's face extracted from the interview answer image, based on the user in the personality answer image It provides a method of performing an online applicant recruitment process, including; identity determination step of determining the identity of the user in the interview answer image.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 전술한 온라인 지원자 채용과정을 수행하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터-판독가능 기록매체를 제공한다.In order to solve the above problems, an embodiment of the present invention provides a computer-readable recording medium in which a program for performing the method for performing the above-described online applicant recruitment process is recorded.

본 발명의 일 실시예에 따르면, 인적성 검사를 온라인 방식으로 수행하므로, 채용을 진행하는 기업 측에서는 채용에 소요되는 비용을 절약할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the personality test is performed in an online manner, it is possible to exhibit the effect of saving the cost required for the recruitment on the side of the company that is hiring.

본 발명의 일 실시예에 따르면, 기계학습된 모델을 사용하여 온라인 방식으로 수행된 인적성 검사에 대한 인적성 답변영상으로부터 진위성정보를 도출하므로, 유사한 문항을 중복하여 구성하는 기존의 인적성 검사에 비해 검사 시간을 대폭적으로 감소시킬 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since authenticity information is derived from a personality answer image for a personality test performed in an online manner using a machine-learning model, the test time compared to the existing personality test consisting of overlapping similar questions can have the effect of significantly reducing

본 발명의 일 실시예에 따르면, 진위성정보 및 각 문항에 대한 답변정보에 기초하여 인적성 검사결과를 도출하므로, 더욱더 정확한 결과를 도출하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the personality test result is derived based on the authenticity information and the answer information for each question, it is possible to exert the effect of deriving more accurate results.

본 발명의 일 실시예에 따르면, 온라인 방식으로 제공되는 면접 질문컨텐츠에 대하여 사용자(지원자)의 면접 답변영상을 수신하는 것으로 면접이 수행되므로, 채용에 소요되는 비용을 절약할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the interview is performed by receiving the interview answer image of the user (applicant) with respect to the interview question content provided in an online manner, it is possible to exhibit the effect of saving the cost of hiring have.

본 발명의 일 실시예에 따르면, 온라인면접제공단계는 면접 답변영상에 대해 기계학습된 모델을 사용하여 면접에 대한 평가결과를 도출하므로, 종래의 면접에 대한 평가결과에 비해 더욱 객관적인 결과를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the online interview providing step derives the evaluation result for the interview by using a machine-learning model for the interview answer image, it is possible to provide more objective results compared to the evaluation result for the conventional interview. possible effect can be exerted.

본 발명의 일 실시예에 따르면, 동일성판단단계는, 인적성 답변영상에서의 사용자와 면접 답변영상에서의 사용자의 동일성을 판단하므로, 각 채용 단계에서의 대리 응시와 같은 부정행위를 용이하게 찾아낼 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the identity determination step determines the identity of the user in the personality answer image and the user in the interview answer image, it is possible to easily find fraudulent acts such as a proxy test in each hiring step. can have an effect.

본 발명의 일 실시예에 따르면, 동일성판단정보제공부는 면접관에게 실제 오프라인 채용전형에 참석한 사용자에 대한 판단이미지를 제공하므로, 면접관이 온라인으로 채용과정을 수행한 사용자와 실제 오프라인으로 참석한 사용자가 동일한지 용이하게 파악할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the identity determination information providing unit provides the interviewer with a judgment image of the user who actually participated in the offline recruitment screening, the user who performed the online recruitment process by the interviewer and the user who actually participated offline It can exhibit the effect of easily grasping whether it is the same.

도 1은 본 발명의 일 실시예에 따른 온라인 지원자에 대한 채용과정을 수행하기 위한 전체적인 시스템의 형태를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 컴퓨팅시스템의 내부 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 채용과정을 수행하기 위한 단계들을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 인적성 질문컨텐츠 및 인적성 질문컨텐츠에 따른 답변컨텐츠를 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 진위성도출부의 동작을 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 평가항목에 상응하는 인적성 질문컨텐츠의 구성을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 인적성 검사결과를 도출하기 위한 단계들을 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 인적성 검사결과를 도출하기 위한 또 다른 구성의 단계들을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 자동평가결과도출부의 동작을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 온라인면접제공부의 동작에 따른 사용자단말기에서 표시되는 인적성 질문컨텐츠에 대한 화면의 일 예를 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 온라인면접제공부의 동작에 따른 면접관단말기에서 표시되는 소프트스킬정보에 대한 화면의 일 예를 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 사용자의 동일성을 판단하는 단계들을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 동일성판단부의 동작을 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 각 평가모델의 내부 구성을 개략적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 피처추출모델의 내부 구성을 개략적으로 도시한다.
도 16은 본 발명의 일 실시예에 따른 피처추론모델의 내부구성을 개략적으로 도시한다.
도 17은 본 발명의 일 실시예에 따른 동일성판단정보제공단계를 수행하기 위한 세부 단계들을 개략적으로 도시한다.
1 schematically shows the form of an overall system for performing a recruitment process for an online applicant according to an embodiment of the present invention.
2 schematically illustrates an internal configuration of a computing system according to an embodiment of the present invention.
3 schematically shows steps for performing a hiring process according to an embodiment of the present invention.
FIG. 4 schematically shows personality question content and answer content according to personality question content according to an embodiment of the present invention.
5 schematically shows the operation of the authenticity or authenticity derivation unit according to an embodiment of the present invention.
6 schematically shows the configuration of personality question content corresponding to evaluation items according to an embodiment of the present invention.
7 schematically shows steps for deriving a personality test result according to an embodiment of the present invention.
8 schematically shows steps of another configuration for deriving a personality test result according to an embodiment of the present invention.
9 schematically shows an operation of an automatic evaluation result deriving unit according to an embodiment of the present invention.
10 schematically illustrates an example of a screen for personality question content displayed on a user terminal according to an operation of an online interview providing unit according to an embodiment of the present invention.
11 schematically illustrates an example of a screen for soft skill information displayed on an interviewer terminal according to an operation of an online interview providing unit according to an embodiment of the present invention.
12 schematically illustrates steps for determining the identity of a user according to an embodiment of the present invention.
13 schematically shows the operation of the identity determining unit according to an embodiment of the present invention.
14 schematically shows the internal configuration of each evaluation model according to an embodiment of the present invention.
15 schematically shows an internal configuration of a feature extraction model according to an embodiment of the present invention.
16 schematically shows the internal configuration of a feature inference model according to an embodiment of the present invention.
17 schematically shows detailed steps for performing the step of providing identity determination information according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that other components may be further included rather than excluding other components unless otherwise stated.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

이하에서 언급되는 "사용자단말기", "면접관단말기"는 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network;LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The "user terminal" and "interviewer terminal" mentioned below may be implemented as a computer or portable terminal that can access a server or other terminal through a network. Here, the computer includes, for example, a laptop, a desktop, and a laptop equipped with a web browser (WEB Browser), and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code) Division Multiple Access)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro) terminals, and the like may include all types of handheld-based wireless communication devices. In addition, "network" refers to a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN), or a mobile radio communication network or satellite. It may be implemented as any kind of wireless network, such as a communication network.

한편, 본 발명에서 기술하는 "인적성 검사"는 일반적으로 수행하는 채용과정에 있어서 직무적성검사와 같이 기업의 인재상에 부합하는 지를 평가할 수 있는 인성 검사 및 기본적인 업무에 대한 역량을 평가할 수 있는 적성 검사를 모두 포함하거나, 인성 검사만을 의미하거나 혹은 적성 검사만을 의미할 수도 있다.On the other hand, the "personality test" described in the present invention is a personality test that can evaluate whether it conforms to the company's talent image, such as a job aptitude test, and an aptitude test that can evaluate the competency for basic tasks in the general hiring process. It can include all, mean only personality tests, or only aptitude tests.

또한, 본 발명에서 기술하는 "진위성"은 인적성 검사에 대하여 사용자가 응답한 답변의 일관성 혹은 신뢰성을 포함하는 개념으로 이해될 수 있다.In addition, "authenticity" described in the present invention may be understood as a concept including the consistency or reliability of the user's response to the personality test.

도 1은 본 발명의 일 실시예에 따른 온라인 지원자에 대한 채용과정을 수행하기 위한 전체적인 시스템의 형태를 개략적으로 도시한다.1 schematically shows the form of an overall system for performing a recruitment process for an online applicant according to an embodiment of the present invention.

도 1에 도시된 컴퓨팅시스템(1000)에서는 자동화된 방식으로 사용자단말기(2000)로부터 인적성 검사에 대한 답변컨텐츠 및 면접 답변영상을 수신하고, 수신한 답변컨텐츠에 기초하여 답변컨텐츠에 대한 진위성정보를 포함하는 인적성 검사 결과를 도출하고, 상기 답변컨텐츠 및 상기 면접 답변영상에 기초하여 해당 영상에 포함된 사용자에 대한 동일성을 판단한다. 또한 도출된 상기 인적성 검사 결과 및 상기 사용자에 대한 동일성 판단결과는 상기 사용자단말기(2000) 혹은 면접관단말기(3000) 등에 제공될 수 있다. 본 발명의 바람직한 실시예에서는 상기 컴퓨팅시스템(1000)은 1 이상의 기업의 온라인 기반의 채용프로세스를 수행할 수 있고, 더 구체적으로 상기 컴퓨팅시스템(1000)은 각 기업별로 온라인 기반의 면접 및 인적성 검사를 수행할 수 있다. 따라서, 상기 컴퓨팅시스템(1000)은 각 기업별로 수행한 온라인 면접에 대한 면접 답변영상 및 인적성 검사에 대한 답변컨텐츠에 기초하여 면접 답변영상에 대한 분석결과, 인적성 검사결과 및 각 영상에 대한 사용자의 동일성 판단 결과를 도출하고, 도출된 각각의 결과들을 해당 기업의 채용담당자를 포함하는 면접관의 면접관단말기(3000)에 제공할 수 있다.The computing system 1000 shown in FIG. 1 receives the answer content and the interview answer image for the personality test from the user terminal 2000 in an automated manner, and includes authenticity information about the answer content based on the received answer content derives a personality test result, and determines the identity of the user included in the corresponding image based on the answer content and the interview answer image. In addition, the derived personality test result and the identity determination result for the user may be provided to the user terminal 2000 or the interviewer terminal 3000 . In a preferred embodiment of the present invention, the computing system 1000 may perform an online-based recruitment process of one or more companies, and more specifically, the computing system 1000 performs an online-based interview and personality test for each company. can be done Therefore, the computing system 1000 is based on the interview answer image for the online interview performed by each company and the answer content for the personality test, the analysis result of the interview answer image, the personality test result, and the identity of the user for each image The determination result may be derived, and the derived results may be provided to the interviewer terminal 3000 of the interviewer including the hiring manager of the corresponding company.

또한, 컴퓨팅시스템(1000)은 1 이상의 컴퓨팅장치 및/또는 1 이상의 서버를 포함할 수 있고, 상기 사용자단말기(2000) 및 상기 면접관단말기(3000)와 통신을 수행할 수 있다. 따라서 상기 컴퓨팅시스템(1000)은 물리적으로 구분된 1 이상의 컴퓨팅장치 및/또는 1 이상의 서버에 의해 구현될 수 있고, 상기 컴퓨팅시스템(1000)에 포함되는 1 이상의 컴퓨팅장치 및/또는 1 이상의 서버는 상호 통신을 수행할 수 있다. 또한 상기 컴퓨팅시스템(1000)은 면접관단말기(3000)로부터 해당 기업의 인적성 검사결과에 대하여 우수한 검사결과를 받은 지원자 혹은 낮은 검사결과를 받은 지원자의 답변컨텐츠를 수신할 수 있고, 상기 컴퓨팅시스템(1000)은 해당 답변컨텐츠에 기초하여 해당 기업에 상응하는 평가모델을 학습 및 개선시킬 수 있다.Also, the computing system 1000 may include one or more computing devices and/or one or more servers, and may communicate with the user terminal 2000 and the interviewer terminal 3000 . Accordingly, the computing system 1000 may be implemented by one or more physically separated computing devices and/or one or more servers, and the one or more computing devices and/or one or more servers included in the computing system 1000 are mutually exclusive. communication can be performed. In addition, the computing system 1000 may receive from the interviewer terminal 3000 the response content of the applicant who received an excellent test result or a low test result with respect to the personality test result of the company, and the computing system 1000 can learn and improve the evaluation model corresponding to the corresponding company based on the corresponding answer content.

한편, 사용자단말기(2000)의 주체에 해당하는 사용자는 상기 컴퓨팅시스템(1000)과의 통신을 수행하여 특정 기업의 채용에 지원한 구직자에 해당하고, 특정 기업에 대해 지원서를 작성한 후에 상기 컴퓨팅시스템(1000)을 통해 해당 기업에 대한 온라인 면접 및 인적성 검사를 수행하는 주체를 포함할 수 있다.On the other hand, the user corresponding to the subject of the user terminal 2000 corresponds to a job seeker who applied for employment of a specific company by performing communication with the computing system 1000, and after filling out an application form for the specific company, the computing system ( 1000) through the online interview and personality test for the company can be included.

면접관단말기(3000)를 사용하는 주체는 해당 기업의 채용 프로세스에서 오프라인 면접을 수행하는 면접관 및 해당 기업의 채용을 담당하는 담당자를 포함할 수 있다. 상기 면접관단말기(3000)는 상술한 바와 같이 상기 컴퓨팅시스템(1000)으로부터 해당 사용자에 대한 인적성 검사결과 및 온라인 면접에 대한 자동평가결과를 제공받아, 이를 디스플레이 할 수 있다. 또한 상기 면접관단말기(3000)는 상기 컴퓨팅시스템(1000)으로부터 해당 사용자에 대한 인적성 답변영상 혹은 면접 답변영상 자체를 제공받거나, 해당 사용자에 대한 인적성 답변영상 혹은 면접 답변영상에서 추출된 1 이상의 판단이미지를 제공받아 디스플레이 할 수 있고, 면접관은 오프라인 면접에 참석한 사용자와 상기 디스플레이된 영상 혹은 이미지에 포함된 사용자의 동일 여부를 판단하여 상기 면접관단말기(3000)에 입력할 수 있다.The subject using the interviewer terminal 3000 may include an interviewer who performs an offline interview in the hiring process of the corresponding company and a person in charge of hiring of the corresponding company. As described above, the interviewer terminal 3000 may receive the personality test result for the user and the automatic evaluation result for the online interview from the computing system 1000 and display it. In addition, the interviewer terminal 3000 is provided with a personality answer image or interview answer image itself for the user from the computing system 1000, or one or more judgment images extracted from the personality answer image or interview answer image for the user. It may be provided and displayed, and the interviewer may determine whether the user who participated in the offline interview and the user included in the displayed image or image are the same, and may input the information into the interviewer terminal 3000 .

사용자단말기(2000) 혹은 면접관단말기(3000)는 상기 컴퓨팅시스템(1000)에 웹브라우져를 통해 상기 컴퓨팅시스템(1000)에서 제공하는 웹페이지에 접속하거나 혹은 별도의 전용 애플리케이션(프로그램)을 통해 상기 컴퓨팅시스템(1000)과 통신을 수행할 수 있다. 사용자단말기(2000) 혹은 면접관단말기(3000)는 해당 단말기를 사용하는 주체에 대한 각각의 계정으로 상기 컴퓨팅시스템(1000)과 통신을 수행하여 상기 컴퓨팅시스템(1000)에서 제공하는 서비스를 이용할 수 있다. 한편, 사용자단말기(2000) 혹은 면접관단말기(3000)는 각각 상이한 형태의 계정, 예를 들어 사용자(지원자) 타입의 계정, 면접관(채용담당자) 타입의 계정을 통해 상기 컴퓨팅시스템(1000)과 통신을 수행할 수 있다.The user terminal 2000 or the interviewer terminal 3000 accesses a web page provided by the computing system 1000 through a web browser on the computing system 1000 or through a separate dedicated application (program). It can communicate with (1000). The user terminal 2000 or the interviewer terminal 3000 may use the service provided by the computing system 1000 by performing communication with the computing system 1000 with each account of the subject using the terminal. On the other hand, the user terminal 2000 or the interviewer terminal 3000 communicates with the computing system 1000 through different types of accounts, for example, a user (applicant) type account, an interviewer (recruiter) type account. can be done

또한, 상기 컴퓨팅시스템(1000)은 각각의 기업에서 수행하는 실제 채용과정을 수행하여 인적성 검사결과를 도출하고, 사용자의 동일성을 판단하는 것뿐만 아니라, 구직자들에게 면접 혹은 인적성 검사를 연습하기 위한 서비스 혹은 구직자들이 연습한 면접 혹은 인적성 검사에 기초하여 지원하기에 적합한 기업에 대한 정보를 제공하고, 기업측에는 해당 기업에 적합한 구직자에 대한 정보를 제공하는 서비스를 추가적으로 수행할 수도 있다.In addition, the computing system 1000 performs the actual hiring process performed by each company to derive a personality test result, and not only determines the identity of a user, but also provides a service for job seekers to practice an interview or personality test Alternatively, information on suitable companies to apply for based on the interview or personality test practiced by job seekers may be provided, and the company may additionally provide information on job seekers suitable for the company.

도 2는 본 발명의 일 실시예에 따른 컴퓨팅시스템(1000)의 내부 구성을 개략적으로 도시한다.2 schematically shows an internal configuration of a computing system 1000 according to an embodiment of the present invention.

본 발명에서의 컴퓨팅시스템(1000)은 온라인 기반의 채용과정들을 수행하는 시스템으로 이용될 수 있다. 구체적으로, 사용자가 사용자단말기(2000)를 통하여 답변컨텐츠 및 면접 답변영상을 상기 컴퓨팅시스템(1000)에 제공하고, 상기 컴퓨팅시스템(1000)은 상기 답변컨텐츠 및 면접 답변영상에 기초하여 인적성 검사결과 및 사용자의 동일성에 대한 판단 결과를 도출한다. 상기 컴퓨팅시스템(1000)은 도출된 상기 인적성 검사결과 및 상기 사용자의 동일성에 대한 판단 결과를 면접관단말기(3000)에 제공할 수 있다.The computing system 1000 in the present invention may be used as a system for performing online-based recruitment processes. Specifically, a user provides answer content and an interview answer image to the computing system 1000 through the user terminal 2000, and the computing system 1000 provides a personality test result and an interview answer image based on the answer content and interview answer image A judgment result for the user's identity is derived. The computing system 1000 may provide the derived personality test result and the user's identity determination result to the interviewer terminal 3000 .

또한, 상기 컴퓨팅시스템(1000)은 면접관단말기(3000)로부터 해당 기업에 대한 학습데이터, 구체적으로 해당 기업에 대한 온라인 면접을 통해 합격 혹은 불합격한 지원자의 면접 답변영상, 온라인 기반의 인적성 검사를 통해 합격 혹은 불합격한 지원자의 인적성 답변영상을 포함하는 답변컨텐츠를 제공 받고, 이에 기초하여 각각의 평가모델을 학습 및 개선시킬 수도 있다.In addition, the computing system 1000 passes through learning data about the company from the interviewer terminal 3000, specifically, the interview response image of the applicant who passed or failed through the online interview for the company, and an online-based personality test. Alternatively, the response content including the personality response image of the unsuccessful applicant may be provided, and based on this, each evaluation model may be learned and improved.

도 2에 도시된 컴퓨팅시스템(1000)에서 인적성제공부(1100)는 인적성 답변영상을 포함하는 답변컨텐츠를 제공받기 위하여 사용자단말기(2000)에서 표시 혹은 재생되는 인적성 질문컨텐츠를 사용자단말기(2000)에 제공하고, 사용자단말기(2000)로부터 상기 인적성 질문컨텐츠에 대하여 수행한 인적성 답변영상을 포함하는 답변컨텐츠를 수신한다.In the computing system 1000 shown in FIG. 2 , the personality providing unit 1100 transmits the personality question content displayed or reproduced in the user terminal 2000 to the user terminal 2000 in order to receive the answer content including the personality answer image. and receives, from the user terminal 2000, answer content including a personality answer image performed on the personality question content.

한편, 상기 컴퓨팅시스템(1000)에는 각 기업별로 구성된 1 이상의 인적성 질문컨텐츠가 저장되어 있고, 사용자가 특정 기업에 대해 인적성 검사를 수행하는 경우, 해당 기업에 상응하는 1 이상의 인적성 질문컨텐츠가 상기 사용자단말기(2000)에 디스플레이될 수 있다. 한편 인적성 질문컨텐츠는 사용자단말기(2000)에서 재생 혹은 표시될 수 있는 모든 종류의 컨텐츠를 포함하며, 바람직하게는 텍스트, 영상, 음성 중 1 이상으로 구현될 수 있다.On the other hand, the computing system 1000 stores one or more personality question contents configured for each company, and when a user performs a personality test on a specific company, one or more personality question contents corresponding to the company is stored in the user terminal. (2000) can be displayed. Meanwhile, the personality question content includes all types of content that can be reproduced or displayed in the user terminal 2000, and may preferably be implemented as one or more of text, video, and audio.

진위성도출부(1200)는, 기계학습을 이용하는 진위성 평가모델을 통하여 인적성 검사의 답변컨텐츠에 대한 진위성정보를 도출한다. 바람직하게, 진위성 평가모델은 기계학습 기반의 1 이상의 세부 진위성 평가모델을 포함하고, 구체적으로는 딥러닝 기반의 1 이상의 세부 진위성 평가모델을 포함할 수 있다.The authenticity derivation unit 1200 derives authenticity information about the answer content of the personality test through the authenticity evaluation model using machine learning. Preferably, the authenticity evaluation model may include one or more detailed authenticity evaluation models based on machine learning, and specifically, one or more detailed authenticity evaluation models based on deep learning.

바람직하게 상기 진위성 평가모델은 1 이상의 딥러닝 기반의 학습된 인공신경망 모듈을 포함한다. 또한 상기 진위성 평가모델은 학습된 인공신경망 모듈뿐만 아니라 기설정된 규칙에 기반한 세부 진위성 평가모델을 더 포함할 수도 있다. 즉, 본 발명의 일 실시예에서는, 상기 진위성 평가모델은 학습된 인공신경망 모듈 및 규칙에 기반한 세부 진위성 평가모델을 복합적으로 이용하는 구성에 해당할 수 있다.Preferably, the authenticity evaluation model includes one or more deep learning-based trained artificial neural network modules. In addition, the authenticity evaluation model may further include a detailed authenticity evaluation model based on a preset rule as well as the learned artificial neural network module. That is, in an embodiment of the present invention, the authenticity evaluation model may correspond to a configuration using a learned artificial neural network module and a detailed authenticity evaluation model based on rules in a complex manner.

즉, 컴퓨팅시스템(1000)은 답변컨텐츠를 수신한 후에, 진위성 평가모델을 이용하여 자동적으로 진위성정보를 도출한다. 상기 진위성정보는 답변컨텐츠에 포함되는 각각의 답변영상 별로 개별적으로 도출되며, 구체적으로, 답변영상에서의 사용자의 음성 높낮이, 떨림, 억양 등의 음성정보 및 사용자의 표정, 움직임 등의 프레임정보에 기초하여 각 답변영상 별로 진위성정보가 도출될 수 있다. 또한, 질문이 음성으로 전달될 경우 질문이 제시된 시점에서 답변하기까지 걸린 시간이 측정될 수 있고, 측정된 시간정보를 더 고려하여 진위성정보가 도출될 수 있다.That is, the computing system 1000 automatically derives the authenticity information by using the authenticity evaluation model after receiving the answer content. The authenticity information is derived individually for each answer image included in the answer content, and specifically, based on the user's voice information such as the user's voice pitch, tremor, and intonation in the answer image, and frame information such as the user's expression, movement, etc. Thus, authenticity information can be derived for each answer image. In addition, when a question is delivered by voice, the time taken from the time the question is presented to the answer can be measured, and authenticity information can be derived by further considering the measured time information.

따라서, 통상적으로 시행하는 지필 방식의 인적성 검사에서는 진위성정보를 도출하기 위하여 동일 혹은 유사한 문항들을 사용자가 반복하여 답변해야 하므로 검사 시간이 길어지나, 본 발명에서는 인적성 질문컨텐츠에 대한 사용자의 답변영상에 기초하여 진위성정보를 도출하므로 인적성 검사의 수행시간을 대폭적으로 줄일 수 있는 효과를 발휘할 수 있다.Therefore, in the conventional paper-and-pencil personality test, the user has to repeatedly answer the same or similar questions in order to derive authenticity information, so the test time is long, but in the present invention, based on the user's answer image Therefore, since authenticity information is derived, it is possible to exert the effect of significantly reducing the execution time of the personality test.

인적성결과도출부(1300)는 인적성 검사에 대한 사용자의 답변컨텐츠, 구체적으로는 상기 답변컨텐츠에 포함된 1 이상의 답변영상에 대한 답변정보 및 각 답변영상에 대한 진위성정보에 기초하여 해당 사용자의 인적성 검사결과를 도출한다. 상기 인적성 검사결과는 1 차적으로 각각의 답변영상 별로 개별적으로 검사결과가 도출되고, 도출된 각각의 검사결과를 종합하여 상기 인적성 검사결과가 도출되거나, 각각의 답변영상을 종합하여 상기 인적성 검사결과가 도출될 수 있다.Personality result deriving unit 1300 is based on the user's answer content to the personality test, specifically, the answer information for one or more answer images included in the answer content, and the authenticity information for each answer image, the personality test of the user To derive the results. As for the personality test result, the test result is derived individually for each answer image, and the personality test result is derived by synthesizing each of the derived test results, or the personality test result is obtained by synthesizing each answer image can be derived.

바람직하게, 상기 인적성결과도출부(1300)는 인적성 검사에 대한 1 이상의 평가항목에 상응하는 답변영상에 대하여 평가항목별로 검사결과를 도출하고, 도출된 1 이상의 평가항목별 검사결과 및 진위성정보에 기초하여 상기 인적성 검사결과를 도출할 수 있다.Preferably, the personality result derivation unit 1300 derives test results for each evaluation item with respect to the answer image corresponding to one or more evaluation items for the personality test, and based on the derived test results and authenticity information for each of the at least one evaluation item Thus, the personality test result can be derived.

온라인면접제공부(1400)는 면접 답변영상을 사용자단말기(2000)로부터 제공받기 위하여 사용자단말기(2000)에서 표시 혹은 재생되는 면접 질문컨텐츠를 사용자단말기(2000)에 제공하고, 사용자단말기(2000)로부터 면접 질문컨텐츠에 대하여 수행한 면접 답변영상을 수신한다.The online interview providing unit 1400 provides interview question content displayed or reproduced in the user terminal 2000 to the user terminal 2000 in order to receive the interview answer image from the user terminal 2000, and from the user terminal 2000 Receives an interview response image performed on the interview question content.

한편, 상기 컴퓨팅시스템(1000)에는 각 기업별로 구성된 1 이상의 면접 질문컨텐츠가 저장되어 있고, 사용자가 특정 기업에 대해 온라인 면접을 수행하는 경우, 해당 기업에 상응하는 1 이상의 면접 질문컨텐츠가 상기 사용자단말기(2000)에 디스플레이될 수 있다. 한편 면접 질문컨텐츠는 사용자단말기(2000)에서 재생 혹은 표시될 수 있는 모든 종류의 컨텐츠를 포함하며, 바람직하게는 텍스트, 영상, 음성 중 1 이상으로 구현될 수 있다.On the other hand, the computing system 1000 stores one or more interview question contents configured for each company, and when a user conducts an online interview for a specific company, one or more interview question contents corresponding to the corresponding company are stored in the user terminal. (2000) can be displayed. On the other hand, the interview question content includes all kinds of content that can be reproduced or displayed on the user terminal 2000, and may preferably be implemented as one or more of text, video, and audio.

또한, 상기 온라인면접제공부(1400)는 추가적으로 사용자단말기(2000)로부터 수신한 면접 답변영상에 대하여 자동평가결과를 도출할 수 있다. 구체적으로 상기 온라인면접제공부(1400)는 기계학습을 이용한 면접영상 평가모델을 통하여 면접 답변영상에 대한 자동평가결과를 도출한다. 바람직하게, 상기 면접영상 평가모델은 기계학습 기반의 1 이상의 세부 면접영상 평가모델을 포함하고, 더욱 바람직하게는 딥러닝 기반의 1 이상의 세부 면접영상 평가모델을 포함할 수 있다.In addition, the online interview providing unit 1400 may additionally derive an automatic evaluation result for the interview answer image received from the user terminal 2000 . Specifically, the online interview providing unit 1400 derives an automatic evaluation result for the interview answer image through the interview image evaluation model using machine learning. Preferably, the interview image evaluation model may include one or more detailed interview image evaluation models based on machine learning, and more preferably, one or more detailed interview image evaluation models based on deep learning.

바람직하게는, 상기 면접영상 평가모델은 1 이상의 딥러닝 기반의 학습된 인공신경망 모듈을 포함한다. 상기 면접영상 평가모델은 학습된 인공신경망 모듈뿐만 아니라 기설정된 규칙에 기반한 세부 면접영상 평가모델을 더 포함할 수도 있다. 즉, 본 발명의 일 실시예에서는, 상기 면접영상 평가모델은 학습된 인공신경망 모듈 및 규칙에 기반한 세부 면접영상 평가모델을 복합적으로 이용하는 구성에 해당할 수 있다.Preferably, the interview image evaluation model includes one or more deep learning-based trained artificial neural network modules. The interview image evaluation model may further include a detailed interview image evaluation model based on a preset rule as well as the learned artificial neural network module. That is, in an embodiment of the present invention, the interview image evaluation model may correspond to a configuration using a detailed interview image evaluation model based on the learned artificial neural network module and rules in a complex manner.

즉, 컴퓨팅시스템(1000)은 면접 답변영상을 사용자단말기(2000)로부터 수신한 후에, 면접영상 평가모델을 이용하여 자동적으로 자동평가결과를 도출한다. 상기 자동평가결과는 채용추천지수, 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈 마주침, 친절함, 유쾌함 및 습관어 등의 사용여부 중 1 이상을 포함하는 의사소통 및 태도에 대한 정보를 포함하는 소프트스킬정보; 개방성, 성실성, 외향성, 친화성 및 신경성 중 1 이상을 포함하는 성격특성정보; 및 해당 사용자의 시선변화정보 중 1 이상을 포함할 수 있다.That is, the computing system 1000 automatically derives an automatic evaluation result by using the interview image evaluation model after receiving the interview answer image from the user terminal 2000 . The automatic evaluation result is information on communication and attitude, including at least one of the employment recommendation index, favorable sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, kindness, pleasantness, and use of habitual words, etc. including soft skill information; personality trait information including at least one of openness, conscientiousness, extraversion, affinity, and neuroticism; And it may include one or more of the gaze change information of the user.

동일성판단부(1500)는 상기 인적성제공부(1100)에서 수신한 인적성 답변영상을 포함하는 답변컨텐츠 및 상기 온라인면접제공부(1400)에서 수신한 면접 답변영상에 기초하여 해당 사용자의 동일성을 판단한다. 구체적으로, 답변컨텐츠에 포함된 1 이상의 이미지 및 면접 답변영상에 포함된 1 이상의 이미지를 상호 비교하여 각 이미지간의 유사성을 기반으로 각 이미지의 사용자가 동일한 인물인지 판단할 수 있다.The identity determination unit 1500 determines the identity of the user based on the answer content including the personality answer image received from the personality providing unit 1100 and the interview answer image received from the online interview providing unit 1400 . Specifically, it is possible to determine whether the user of each image is the same person based on the similarity between each image by comparing one or more images included in the answer content and one or more images included in the interview answer image.

바람직하게 동일성판단부(1500)는 기계학습을 이용한 동일성 평가모델을 통하여 사용자에 대한 동일성을 판단할 수 있다. 구체적으로 상기 동일성 평가모델은 기계학습 기반의 1 이상의 세부 동일성 판단모델을 포함할 수 있고, 더 구체적으로는 1 이상의 딥러닝 기반의 학습된 인공신경망 모듈을 포함한다. 상기 동일성 평가모델은 학습된 인공신경망 모듈뿐만 아니라 기설정된 규칙에 기반한 세부 동일성 평가모델을 더 포함할 수도 있다. 즉, 본 발명의 일 실시예에서는, 상기 동일성 평가모델은 학습된 인공신경망 모듈 및 규칙에 기반한 세부 동일성 평가모델을 복합적으로 이용하는 구성에 해당할 수 있다.Preferably, the identity determination unit 1500 may determine the identity of the user through the identity evaluation model using machine learning. Specifically, the identity evaluation model may include one or more detailed identity judgment models based on machine learning, and more specifically, includes one or more deep learning-based trained artificial neural network modules. The identity evaluation model may further include a detailed identity evaluation model based on a preset rule as well as the learned artificial neural network module. That is, in an embodiment of the present invention, the identity evaluation model may correspond to a configuration using a learned artificial neural network module and a detailed identity evaluation model based on rules in a complex manner.

한편, 본 발명의 다른 실시예에서는, 각 영상간의 유사성을 도출하기 위하여, 상기 동일성 평가모델은 메트릭 학습(Metric Learning)방식으로 구현될 수도 있다.Meanwhile, in another embodiment of the present invention, in order to derive the similarity between the respective images, the identity evaluation model may be implemented in a metric learning method.

모델학습부(1600)는 진위성 평가모델, 면접영상 평가모델, 동일성 평가모델 등과 같이 상기 컴퓨팅시스템(1000)에서 사용하는 각각의 평가모델들을 학습시키기 위한 단계들을 수행한다. 상기 모델학습부(1600)는 해당 기업의 채용을 위한 온라인 기반의 인적성 검사를 통해 획득한 합격자 및 불합격자의 인적성 답변영상을 포함하는 답변컨텐츠, 온라인 면접을 통해 획득한 합격자 및 불합격자의 면접 답변영상에 의하여 상기 각각의 평가모델을 학습시킬 수 있다.The model learning unit 1600 performs steps for learning each of the evaluation models used in the computing system 1000 such as the authenticity evaluation model, the interview image evaluation model, the identity evaluation model, and the like. The model learning unit 1600 is the answer content including the personality response image of the successful and unsuccessful obtained through the online-based personality test for the recruitment of the company, the interview answer image of the successful and unsuccessful obtained through the online interview Thus, each of the evaluation models can be trained.

바람직하게, 상기 모델학습부(1600)는 상기 온라인 기반의 인적성 검사를 통해 획득한 합격자 및 불합격자의 인적성 답변영상을 포함하는 답변컨텐츠에 의하여 상기 진위성 평가모델을 학습시키는 진위성평가모델학습부(미도시); 상기 온라인 면접을 통해 획득한 합격자 및 불합격자의 면접 답변영상에 의하여 상기 면접영상 평가모델을 학습시키는 면접영상평가모델학습부(미도시); 및 합격자 혹은 불합격자의 인적성 답변영상을 포함하는 답변컨텐츠 및 면접 답변영상에 의하여 상기 동일성 평가모델을 학습시키는 동일성평가모델학습부(미도시)를 포함한다.Preferably, the model learning unit 1600 is a authenticity evaluation model learning unit (not shown) that learns the authenticity evaluation model by answering content including the personality response images of successful and unsuccessful candidates obtained through the online-based personality test. ); an interview image evaluation model learning unit (not shown) for learning the interview image evaluation model based on the interview response images of successful and unsuccessful candidates obtained through the online interview; and an identity evaluation model learning unit (not shown) for learning the identity evaluation model based on the answer content and the interview answer image including the personality answer image of the successful or unsuccessful person.

한편, 상기 동일성평가모델학습부 (미도시)는 상이한 2 이상의 영상 혹은 2 이상의 이미지 사이의 유사성을 학습하기 위하여, 해당 기업의 합격자 혹은 불합격자에 대한 영상뿐만 아니라, 다양한 형태의 복수의 영상 혹은 이미지에 의하여 상기 동일성 평가모델을 학습시킬 수 있다.On the other hand, the identity evaluation model learning unit (not shown) in order to learn the similarity between two or more different images or two or more images, as well as an image of a successful or unsuccessful person of the company, as well as a plurality of images or images of various types. Thus, the identity evaluation model can be trained.

동일성판단정보제공부(1700)는 해당 기업의 온라인 기반의 인적성 검사를 수행한 사용자의 답변컨텐츠 혹은 온라인 면접에 대한 면접 답변영상을 해당 기업의 면접관단말기(3000)에 디스플레이 될 수 있도록 외부 단말기로 송신한다. 구체적으로, 동일성판단정보제공부(1700)는 상기 답변컨텐츠 혹은 면접 답변영상을 상기 면접관단말기(3000)로 직접적 혹은 간접적으로 제공할 수 있으며, 직접적으로 상기 면접관단말기(3000)에 디스플레이 되는 경우, 상기 외부 단말기는 상기 면접관단말기(3000)에 해당할 수 있으며, 간접적으로 상기 면접관단말기(3000)에 디스플레이 되는 경우, 상기 외부 단말기는 별도의 서버, 타 단말기 혹은 타 컴퓨팅장치 등에 해당하여 1 차적으로 상기 동일성판단정보제공부(1700)로부터 해당 영상을 수신하고, 2 차적으로 상기 면접관단말기(3000)로 해당 영상을 송신할 수 있다.The identity determination information providing unit 1700 transmits the answer content of the user who has performed the online-based personality test of the company or the interview response image for the online interview to an external terminal so that it can be displayed on the interviewer terminal 3000 of the company do. Specifically, the identity determination information providing unit 1700 may provide the answer content or the interview answer image to the interviewer terminal 3000 directly or indirectly, and directly or directly on the interviewer terminal 3000. The external terminal may correspond to the interviewer terminal 3000, and when it is indirectly displayed on the interviewer terminal 3000, the external terminal corresponds to a separate server, another terminal, or other computing device and is primarily the same A corresponding image may be received from the determination information providing unit 1700 , and the corresponding image may be secondarily transmitted to the interviewer terminal 3000 .

바람직하게, 상기 동일성판단정보제공부(1700)는 답변컨텐츠 혹은 면접 답변영상 자체를 상기 면접관단말기(3000)에 제공할 수 있으나, 상기 동일성판단정보제공부(1700)는 상기 답변컨텐츠 혹은 면접 답변영상에서 사용자의 얼굴을 포함하는 1 이상의 판단이미지를 추출하고, 1 이상의 상기 판단이미지를 해당 면접관단말기(3000)에 제공할 수 있다.Preferably, the identity determination information providing unit 1700 may provide the answer content or the interview answer image itself to the interviewer terminal 3000, but the identity determination information providing unit 1700 is the answer content or interview answer image. may extract one or more judgment images including the user's face, and provide the one or more judgment images to the interviewer terminal 3000 .

한편, 상기 면접관단말기(3000)에는 1 이상의 상기 판단이미지 혹은 해당 영상이 디스플레이되기 위한 인터페이스가 표시되고, 상기 인터페이스에서는 면접관의 동일성 판단 결과를 수신하기 위한 엘리먼트가 포함된다. 따라서 면접관은 대면 면접과 같이 채용과정에서 오프라인 방식으로 수행하는 채용 전형에 사용자가 참석하는 경우, 실제 참석한 사용자와 상기 면접관단말기(3000)에 표시된 영상에 포함된 사용자가 동일한지 식별하여, 상기 엘리먼트를 통해 판단 결과를 입력할 수 있고, 상기 면접관단말기(3000)는 상기 판단 결과를 포함하는 입력정보를 상기 컴퓨팅시스템(1000)에 직접적 혹은 간접적으로 제공할 수 있다.On the other hand, the interviewer terminal 3000 displays an interface for displaying one or more of the determination images or corresponding images, and the interface includes an element for receiving the result of determining the identity of the interviewer. Therefore, when a user participates in a recruitment screening performed in an offline manner in the hiring process, such as a face-to-face interview, the interviewer identifies whether the user who actually attended is the same as the user included in the image displayed on the interviewer terminal 3000, and the element The determination result may be input through , and the interviewer terminal 3000 may directly or indirectly provide input information including the determination result to the computing system 1000 .

상기 컴퓨팅시스템(1000)에 포함된 DB(1800)에는 각 기업별로 구비된 인적성 질문컨텐츠, 사용자단말기(2000)로부터 수신한 인적성 검사에 대한 답변컨텐츠, 진위성도출부(1200)에서 수행하여 도출된 진위성정보, 인적성결과도출부(1300)에서 수행하여 도출된 인적성 검사결과, 각 기업별로 구비된 면접 질문컨텐츠, 온라인면접제공부(1400)를 통해 사용자단말기(2000)로부터 수신한 면접 답변영상, 동일성판단부(1500)에서 수행하여 도출된 동일성 판단 결과, 동일성판단정보제공부(1700)에서 추출한 판단이미지, 상기 컴퓨팅시스템(1000)에서 사용하는 진위성 평가모델, 면접영상 평가모델, 동일성 평가모델 등과 같은 학습모델, 사용자정보 및 기업정보가 저장될 수 있다.In the DB 1800 included in the computing system 1000, the personality question content provided for each company, the answer content for the personality test received from the user terminal 2000, and the authenticity derived by performing the authenticity derivation unit 1200 Information, personality test results derived by performing the personality result deriving unit 1300, interview question content provided for each company, the interview answer image received from the user terminal 2000 through the online interview providing unit 1400, identity determination Learning such as the result of the determination of identity derived by performing in the unit 1500, the determination image extracted from the identity determination information providing unit 1700, the authenticity evaluation model used in the computing system 1000, the interview image evaluation model, the identity evaluation model, etc. Model, user information, and company information may be stored.

한편, 사용자정보 및 기업정보는 각각 사용자단말기(2000) 및 면접관단말기(3000)에서 입력 받아 상기 컴퓨팅시스템(1000)으로 전송되어 저장될 수 있으며, 사용자정보의 경우 기업에서 수행하는 채용 과정 가운데 서류전형과 같은 사용자정보를 입력하는 전형을 통해 상기 DB(1800)에 저장될 수도 있다.On the other hand, user information and company information may be input from the user terminal 2000 and the interviewer terminal 3000, respectively, and transmitted to the computing system 1000 and stored. It may be stored in the DB 1800 through the example of inputting user information such as .

도 2에 도시된 컴퓨팅시스템(1000)은 도시된 구성요소 이외에 다른 구성요소들을 더 포함할 수 있으나, 설명을 용이하게 하기 위하여 본 발명의 실시예에 따른 지원자에 대한 채용과정을 수행하는 방법을 수행하기 위한 구성요소들만을 도시하였으며, 따라서 도 2에 도시된 구성요소만으로 상기 컴퓨팅시스템(1000)이 한정되지는 않는다.The computing system 1000 illustrated in FIG. 2 may further include other components in addition to the illustrated components, but for ease of explanation, the method of performing the recruitment process for applicants according to an embodiment of the present invention is performed. Only the components to be used are shown, and therefore, the computing system 1000 is not limited to only the components shown in FIG. 2 .

한편, 도 2에 도시된 컴퓨팅시스템(1000)은 복수의 컴퓨팅장치로 구성될 수 있다. 예를 들어, 상기 컴퓨팅시스템(1000)이 제1컴퓨팅장치 및 제2컴퓨팅장치를 포함하는 경우, 상기 제1컴퓨팅장치 및 상기 제2컴퓨팅장치는 상호 통신을 수행하고, 상기 제1컴퓨팅장치에는 인적성 검사를 제공하고, 인적성 검사 결과를 도출하는 구성을 포함하고, 상기 제2컴퓨팅장치는 온라인 면접을 제공하고, 온라인 면접 결과를 도출하는 구성을 포함할 수 있다. 한편, 동일성을 판단하거나, 면접관단말기(3000)에 판단이미지를 제공하는 구성 및 모델을 학습시키는 구성은 상기 제1컴퓨팅장치 혹은 상기 제2컴퓨팅장치에 포함되거나, 별도의 컴퓨팅장치에 포함될 수도 있다.Meanwhile, the computing system 1000 illustrated in FIG. 2 may include a plurality of computing devices. For example, when the computing system 1000 includes a first computing device and a second computing device, the first computing device and the second computing device communicate with each other, and the first computing device has a personality. It may include a configuration for providing a test and deriving a personality test result, and the second computing device may include a configuration for providing an online interview and deriving an online interview result. Meanwhile, the configuration for determining the identity or providing the judgment image to the interviewer terminal 3000 and the configuration for learning the model may be included in the first computing device or the second computing device, or may be included in a separate computing device.

도 3은 본 발명의 일 실시예에 따른 채용과정을 수행하기 위한 단계들을 개략적으로 도시한다.3 schematically shows steps for performing a hiring process according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅시스템에서 수행되는 온라인 지원자 채용과정을 수행하는 방법으로서, 1 이상의 인적성 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 인적성 질문컨텐츠에 대한 사용자의 인적성 답변영상을 포함하는 답변컨텐츠를 상기 사용자단말기로부터 수신하는 인적성제공단계(S10); 기계학습된 모델에 의하여 상기 인적성 답변영상으로부터 해당 인적성 답변영상의 진위성정보를 도출하는 진위성도출단계(S11); 1 이상의 상기 인적성 답변영상의 진위성정보 및 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보에 기초하여 해당 사용자에 대한 인적성 검사결과를 도출하는 인적성결과도출단계(S12); 1 이상의 면접 질문컨텐츠를 상기 사용자단말기에 제공하고, 각각의 상기 면접 질문컨텐츠에 대한 사용자의 면접 답변영상을 상기 사용자단말기로부터 수신하는 온라인면접제공단계(S13); 및 상기 인적성 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제1얼굴이미지와 상기 면접 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제2얼굴이미지에 기초하여, 상기 인적성 답변영상에서의 사용자와 상기 면접 답변영상에서의 사용자의 동일성을 판단하는 동일성판단단계(S14);를 포함한다.As shown in FIG. 3 , as a method of performing an online applicant recruitment process performed in a computing system having one or more processors and one or more memories, one or more personality question contents are provided to a user terminal, and each of the personality question contents Personality providing step (S10) of receiving the answer content including the user's personality response image for the user terminal from the user terminal; Authenticity derivation step (S11) of deriving authenticity information of the personality answer image from the personality answer image by the machine-learned model; a personality result deriving step (S12) of deriving a personality test result for a corresponding user based on the authenticity information of one or more of the personality answer images and the user's answer information for the personality question content; an online interview providing step (S13) of providing one or more interview question contents to the user terminal, and receiving an interview answer image of the user for each of the interview question contents from the user terminal; and one or more first face images including the user's face extracted from the personality answer image and one or more second face images including the user's face extracted from the interview answer image, based on the user in the personality answer image and an identity determination step (S14) of determining the identity of the user in the interview answer image.

구체적으로, 사용자 혹은 면접관(기업의 채용 담당자)이 각각의 사용자단말기(2000) 혹은 면접관단말기(3000) 상에서의 실행 입력에 따라 상기 인적성제공부(1100)는 해당 기업에 대한 1 이상의 인적성 질문컨텐츠를 사용자단말기(2000)에 제공하고, 사용자단말기(2000)에 디스플레이 되는 1 이상의 인적성 질문컨텐츠에 따라 사용자가 인적성 검사를 수행하여 생성된 답변컨텐츠를 수신하는 단계(S10)를 수행한다. 해당 단계(S10)에서 수신된 상기 답변컨텐츠는 상기 컴퓨팅시스템(1000)에 DB(1800)에 별도의 식별정보와 함께 저장될 수 있다.Specifically, according to the execution input of the user or the interviewer (recruiter of the company) on each user terminal 2000 or the interviewer terminal 3000, the personality providing unit 1100 provides one or more personality question contents for the company. It is provided to the user terminal 2000, and the user performs a personality test according to one or more personality question contents displayed on the user terminal 2000 to receive answer contents generated by performing a personality test (S10). The reply content received in the corresponding step (S10) may be stored together with separate identification information in the DB 1800 in the computing system 1000 .

상기 진위성도출부(1200)는 상기 단계(S10)에서 수신한 답변컨텐츠에 포함된 각각의 답변영상 및 진위성 평가모델에 기초하여 진위성정보를 도출하는 단계(S11)를 수행한다. 구체적으로 상기 진위성도출부(1200)는 상기 진위성 평가모델에 각각의 답변영상을 입력으로 하여, 각각의 답변영상에 대한 진위성정보를 도출할 수 있다.The authenticity or falsehood derivation unit 1200 performs a step (S11) of deriving authenticity information based on each answer image and the authenticity evaluation model included in the answer content received in the step (S10). Specifically, the authenticity or falsehood derivation unit 1200 may input each answer image to the authenticity evaluation model to derive authenticity information for each answer image.

이어서, 상기 인적성결과도출부(1300)는 도출된 각각의 답변영상에 대한 진위성정보 및 각각의 답변영상에서 도출된 각각의 답변정보에 기초하여 인적성 검사결과를 도출하는 단계(S13)를 수행한다. 더 구체적으로, 기업별 인적성 검사에 대하여 1 이상의 평가항목이 존재하고, 1 이상의 인적성 질문컨텐츠는 1 이상의 평가항목에 상응하게 된다. 따라서 인적성결과도출부(1300)는 각 평가항목에 상응하는 인적성 질문컨텐츠에 대한 답변정보에 기초하여 각 평가항목 별로 세부적인 인적성 검사결과를 도출할 수 있다.Next, the personality result deriving unit 1300 performs a step (S13) of deriving a personality test result based on the derived authenticity information for each answer image and each answer information derived from each answer image. More specifically, one or more evaluation items exist for the personality test for each company, and one or more personality question contents correspond to one or more evaluation items. Accordingly, the personality result derivation unit 1300 may derive detailed personality test results for each evaluation item based on the answer information for the personality question content corresponding to each evaluation item.

한편, 상기 온라인면접제공부(1400)는 사용자 혹은 면접관(기업의 채용 담당자)이 각각의 사용자단말기(2000) 혹은 면접관단말기(3000) 상에서의 실행 입력에 따라 상기 온라인면접제공부(1400)는 해당 기업에 상응하는 1 이상의 면접 질문컨텐츠를 사용자단말기(2000)에 제공하고, 사용자단말기(2000)에 디스플레이 되는 1 이상의 면접 질문컨텐츠에 따라 사용자가 온라인 면접을 수행하여 생성된 면접 답변영상을 수신하는 단계(S13)를 수행한다. 해당 단계(S13)에서 수신된 상기 면접 답변영상은 상기 컴퓨팅시스템(1000)의 DB(1800)에 별도의 식별정보와 함께 저장될 수 있다.On the other hand, the online interview providing unit 1400 is the online interview providing unit 1400 according to the execution input of the user or the interviewer (recruiter of the company) on each user terminal 2000 or the interviewer terminal 3000. Step of providing one or more interview question contents corresponding to the company to the user terminal 2000, and receiving the interview answer image generated by the user performing an online interview according to the one or more interview question contents displayed on the user terminal 2000 (S13) is performed. The interview answer image received in the corresponding step (S13) may be stored in the DB 1800 of the computing system 1000 together with separate identification information.

본 발명의 다른 실시예에서는, 상기 단계(S13)는 상기 컴퓨팅시스템(1000)에서 수행하는 온라인 기반의 인적성 검사를 제공하기 위한 단계(S10, S11 및 S13)들이 수행되기 전에 선행될 수도 있다. 즉, 상기 온라인면접제공부(1400)에서 수행하는 단계(S13)는 인적성제공부(1100)에서 수행하는 단계(S10) 이전에 수행되어도 무방하다.In another embodiment of the present invention, the step (S13) may be preceded before the steps (S10, S11, and S13) for providing the online-based personality test performed by the computing system 1000 are performed. That is, the step (S13) performed by the online interview providing unit 1400 may be performed before the step (S10) performed by the personality providing unit 1100.

마지막으로, 동일성판단부(1500)는 수신한 인적성 답변영상 및 면접 답변영상에 포함되는 각 사용자의 동일성을 판단하는 단계(S14)를 수행한다. 구체적으로, 상기 단계(S14)에서는 상기 인적성 답변영상에서 1 이상의 이미지를 추출하고, 상기 면접 답변영상에서 1 이상의 이미지를 추출하여, 각 영상에서 추출된 이미지간의 비교를 통해서 동일성을 판단할 수 있다.Finally, the identity determination unit 1500 performs a step (S14) of determining the identity of each user included in the received personal response image and interview answer image. Specifically, in step S14, one or more images are extracted from the personality response image, one or more images are extracted from the interview response image, and the identity can be determined through comparison between images extracted from each image.

바람직하게 상기 단계(S14)에서는 동일성 평가모델을 이용하여 각 영상에서 추출된 각 이미지의 특징정보를 도출하고, 도출된 특징정보에 기초하여 각 이미지간의 동일성을 판단할 수 있다. 한편, 메트릭 학습방식으로 상기 동일성 평가모델이 구현될 수 있고, 이와 같은 경우, 해당 사용자의 인적성 답변영상과 면접 답변영상의 유사한 정도에 대한 정보에 해당하는 유사성정보가 포함될 수 있다.Preferably, in the step S14, feature information of each image extracted from each image is derived using the identity evaluation model, and the identity between the images can be determined based on the derived feature information. On the other hand, the identity evaluation model may be implemented in a metric learning method, and in this case, similarity information corresponding to information on the degree of similarity between the user's personality answer image and the interview answer image may be included.

본 발명의 또 다른 실시예에서는, 상기 인적성제공단계(S10)는, 1 이상의 기준 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 기준질문 컨텐츠에 대한 사용자의 기준 답변영상을 상기 사용자단말기로부터 수신하는 기준질문제공단계;를 포함할 수 있다.In another embodiment of the present invention, the personality providing step (S10) is to provide one or more reference question contents to the user terminal, and to receive the reference answer image of the user for each of the reference question contents from the user terminal It may include a step of providing a standard question.

구체적으로, 기준질문제공단계에서 제공하는 기준 질문컨텐츠는 '본인의 성별은 무엇인가요?', '본인의 이름은 무엇인가요?', '본인의 고향은 어디입니까? ' 등과 같이, 인적성 검사를 수행하는 사용자가 답변하는데 오랜 시간이 필요하지 않는, 즉 틀린 답변을 할 수 없는 질문으로 구성된다.Specifically, the standard question content provided in the standard questioning stage includes 'What is your gender?', 'What is your name?', and 'Where is your hometown? ', etc., it is composed of questions that do not require a long time for the user performing the personality test to answer, that is, cannot give a wrong answer.

따라서 상기 기준 질문컨텐츠에 대한 사용자의 기준 답변영상은 상술한 진위성도출단계(S11)에서 진위성정보를 도출하는데 있어 활용될 수 있다. 더 구체적으로, 상기 기준 답변영상에서의 사용자의 표정, 음성 또는 답변하기까지의 시간 등이 기준 지표가 될 수 있고, 인적성 답변영상에 대한 진위성정보는 기준 지표에 기초하여 도출될 수 있다.Therefore, the user's reference answer image to the reference question content can be utilized in deriving the authenticity information in the above-described authenticity deriving step (S11). More specifically, the user's facial expression, voice, or time until answering in the reference answer image may be a reference index, and authenticity information for the personality answer image may be derived based on the reference index.

이와 같이, 본 발명의 일 실시예에 따르면, 기준질문제공단계를 통해 제공되는 기준 질문컨텐츠를 통해 인적성 검사를 수행하는 각각의 사용자 별로 더욱 정확한 진위성정보를 도출할 수 있는 효과를 발휘할 수 있다.As such, according to an embodiment of the present invention, it is possible to exert the effect of deriving more accurate authenticity information for each user who performs a personality test through the reference question content provided through the reference question providing step.

도 4는 본 발명의 일 실시예에 따른 인적성 질문컨텐츠 및 인적성 질문컨텐츠에 따른 답변컨텐츠를 개략적으로 도시한다.FIG. 4 schematically shows personality question content and answer content according to personality question content according to an embodiment of the present invention.

도 4의 (A)는 인적성 질문컨텐츠 및 인적성 질문컨텐츠에 대한 답변 형태의 일 실시예를 도시한 도면에 해당하고, 도 4의 (B)는 사용자단말기(2000)에 디스플레이되어 답변컨텐츠를 생성하기 위한 인적성인터페이스의 일 실시예를 도시한 도면에 해당한다.Figure 4 (A) corresponds to a view showing an embodiment of the answer form to the personality question content and personality question content, Figure 4 (B) is displayed on the user terminal 2000 to generate the answer content It corresponds to a drawing showing an embodiment of a personality interface for

구체적으로, 도 4의 (A)에 도시된 바와 같이 1 이상의 인적성 질문컨텐츠는 해당 기업의 인재상 등과 같은 채용 기준에 따라서 내용이 구성될 수 있고, 상기 인적성 질문컨텐츠는 텍스트뿐만 아니라, 음성 혹은 영상과 같이 다양한 형태로 구성될 수도 있다.Specifically, as shown in FIG. 4(A), one or more personality question content may be configured according to the hiring criteria such as the talent image of the corresponding company, and the personality question content is not only text, but also voice or video and It may also be configured in various forms.

한편, 상기 인적성 질문컨텐츠에 대한 답변의 형태는 도 4의 (A)에 도시된 바와 같이 '전혀 아님', '보통', '매우 그러함'에 각각 상응하는 복수의 번호가운데 특정 번호를 선택하는 방식으로 구성될 수 있으며, 혹은 상기 인적성 질문컨텐츠에 대하여 '예', '아니오'와 같은 양자택일의 형태로 답변이 구성되거나 혹은 선택지가 구비되지 않고, 기설정된 시간 내에 자유롭게 답변하는 것과 같이 인적성 검사에서 일반적으로 사용하는 답변 형태들을 모두 포함할 수 있다.On the other hand, the form of the answer to the personality question content is a method of selecting a specific number from among a plurality of numbers corresponding to 'not at all', 'normal', and 'very much' as shown in FIG. 4A In the personality test, such as answering in the form of alternatives such as 'yes' and 'no' to the personality question content, or no options are provided, and freely answering within a preset time. All commonly used answer forms can be included.

한편, 상기와 같은 1 이상의 인적성 질문컨텐츠는 도 4의 (B)에서 도시된 바와 같이, 해당 사용자의 사용자단말기(2000)에 인적성인터페이스 상에서 디스플레이될 수 있다.On the other hand, one or more personality question content as described above may be displayed on the personality interface in the user terminal 2000 of the corresponding user, as shown in FIG. 4B .

상기 인적성인터페이스는 사용자단말기(2000)에 구비된 촬영모듈을 통해 사용자가 실시간으로 촬영되는 면접영상레이어(L1)를 포함한다. 상기 면접영상레이어(L1)에는 인적성 검사가 시작되거나, 각각의 인적성 질문컨텐츠가 실행되는 경우에 촬영됨을 사용자가 인지할 수 있도록 기설정된 숫자(예를 들어, 5)가 표시되고, 이후 순차적으로 숫자가 감소되며 카운트다운 될 수 있다.The personality interface includes an interview image layer L1 in which the user is photographed in real time through a photographing module provided in the user terminal 2000 . In the interview image layer (L1), a preset number (for example, 5) is displayed so that the user can recognize that the personality test is started or that each personality question content is taken when executed, and then sequentially numbers is decremented and can be counted down.

한편, 상기 인적성인터페이스는 질문컨텐츠레이어(L2)를 더 포함하여, 촬영이 시작되는 경우 상기 질문컨텐츠레이어(L2)에 순차적으로 인적성 질문컨텐츠가 표시될 수 있다. 한편, 상기 질문컨텐츠레이어(L2)에는 도 4의 (A)에 도시된 바와 같이, 인적성 질문컨텐츠에 대한 답변의 형태가 표시될 수 있고, 따라서 사용자는 상기 질문컨텐츠레이어(L2)에 표시되는 답변의 형태에 따라 음성 형태로 답변정보를 말하는 것으로 촬영이 이루어질 수 있다. 예를 들어, 사용자는 도 4의 (B)의 질문컨텐츠레이어(L2)에 표시된 문항 2를 읽고, 답변 형태를 참고하여 2번에 해당하는 것으로 판단하는 경우, 2번을 육성으로 말하는 것으로 문항 2에 대한 답변정보가 답변영상에 포함될 수 있다.On the other hand, the personality interface further includes a question content layer (L2), so that when shooting starts, personality question content can be sequentially displayed on the question content layer (L2). On the other hand, in the question content layer (L2), as shown in FIG. 4 (A), the form of an answer to the personality question content may be displayed, and thus the user can answer the question displayed on the content layer (L2). Depending on the form of , shooting can be done by saying the answer information in the form of a voice. For example, when the user reads question 2 displayed in the question content layer L2 of FIG. 4B and determines that it corresponds to number 2 with reference to the answer form, question 2 is said to be voiced 2 Response information may be included in the response image.

본 발명의 다른 실시예에서는, 상기 질문컨텐츠레이어(L2)는 생략될 수 있고, 생략되는 경우 상기 인적성 질문컨텐츠는 음성정보로써 사용자에게 제공될 수 있다. 또는 상기 질문컨텐츠레이어(L2)가 포함되는 경우에도, 상기 인적성 질문컨텐츠는 텍스트정보 및 음성정보로써 동시에 사용자에게 제공될 수도 있다.In another embodiment of the present invention, the question content layer (L2) may be omitted, and if omitted, the personality question content may be provided to the user as voice information. Alternatively, even when the question content layer L2 is included, the personality question content may be simultaneously provided to the user as text information and voice information.

따라서, 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보는, 상기 인적성 질문컨텐츠에 대한 해당 사용자의 인적성 답변영상의 음성정보에 기초하여 도출될 수 있다.Accordingly, the user's answer information to the personality question content may be derived based on the voice information of the user's personality answer image to the personality question content.

더 구체적으로, 인적성결과도출부(1300)는 인적성 검사결과를 도출하기 위하여 사용자의 인적성 답변영상에서의 음성정보에 기초하여 상기 답변정보를 도출하고, 상기 답변정보 및 답변영상에 대한 진위성정보에 기초하여 인적성 검사결과를 도출할 수 있다. 한편, 상기 인적성 답변영상에서의 음성정보에 기초하여 상기 답변정보를 도출하기 위하여 상기 인적성결과도출부(1300)는 통상적으로 사용하는 음성 인식 관련 기술을 사용할 수 있다.More specifically, the personality result deriving unit 1300 derives the answer information based on the voice information in the user's personality answer image in order to derive the personality test result, and based on the answer information and the authenticity information about the answer image In this way, the results of the personality test can be derived. On the other hand, in order to derive the answer information based on the voice information in the personality response image, the personality result deriving unit 1300 may use a commonly used voice recognition related technology.

본 발명의 다른 실시예에서는, 상기 답변정보는 사용자의 음성정보 형태뿐만 아니라 사용자단말기(2000)에 구비된 입력장치(키보드, 마우스 혹은 터치스크린)를 통해서 부가적으로 입력된 입력답변정보에 기초하여 도출될 수도 있다. 따라서, 상기 컴퓨팅시스템(1000)은 답변영상에서 답변정보를 용이하게 도출할 수 있다.In another embodiment of the present invention, the answer information is based on the input answer information additionally input through the input device (keyboard, mouse or touch screen) provided in the user terminal 2000 as well as the user's voice information form. may be derived. Accordingly, the computing system 1000 can easily derive answer information from the answer image.

이와 같이, 상기 답변컨텐츠에는 각각의 인적성 질문컨텐츠에 대한 1 이상의 인적성 답변영상, 입력답변정보, 해당 사용자정보 등이 포함될 수 있다.In this way, the answer content may include one or more personal answer image for each personality question content, input answer information, corresponding user information, and the like.

한편, 상기 인적성 답변영상은 각각의 인적성 질문컨텐츠에 따라 구분된 복수의 영상의 형태로 생성되거나, 혹은 각각의 인적성 답변영상이 하나의 영상의 형태로 생성되고, 각각의 인적성 답변영상 별로 구분되는 방식으로 생성될 수도 있다.On the other hand, the personality answer image is generated in the form of a plurality of images divided according to each personality question content, or each personality answer image is generated in the form of one image, and is divided by each personality answer image may be created as

또한, 상기 인적성인터페이스는 부가정보레이어(L3)를 더 포함하고, 상기 부가정보레이어(L3)에는 답변 제한시간 및 해당 답변에 대한 소요시간이 표시되고, 사용자의 선택 입력에 따라 다음 문항으로 전환되는 엘리먼트가 표시될 수 있다. 한편, 답변 제한시간이 초과되는 경우, 상기 인적성인터페이스는 다음 문항으로 자동적으로 전환될 수도 있다.In addition, the personality interface further includes an additional information layer (L3), and the additional information layer (L3) displays an answer time limit and a required time for the corresponding answer, and is converted to the next question according to the user's selection input Elements may be displayed. On the other hand, when the answer time limit is exceeded, the personality interface may automatically switch to the next question.

도 5는 본 발명의 일 실시예에 따른 진위성도출부(1200)의 동작을 개략적으로 도시한다.5 schematically illustrates the operation of the authenticity or falsehood derivation unit 1200 according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 진위성도출부(1200)에서 기계학습된 진위성 평가모델을 이용하여 인적성 답변영상에 대한 진위성정보를 도출하는 것을 도시한 도면에 해당한다.As shown in FIG. 5 , it corresponds to a diagram illustrating the deriving of authenticity information for a personality answer image by using the machine-learned authenticity evaluation model in the authenticity derivation unit 1200 .

상기 진위성 평가모델은 인적성 답변영상에 대한 평가를 수행하는 다양한 세부 진위성 평가모델을 포함할 수 있다. 상기 세부 진위성 평가모델은 딥러닝 기반의 학습된 평가모델에 기초하여 진위성정보를 도출할 수 있는 세부 진위성 평가모델에 해당하거나 혹은 학습이 아닌 기설정된 루틴 혹은 알고리즘에 따라 해당 인적성 답변영상에 대한 특징정보(예를 들어 시선의 위치, 얼굴의 표정)를 도출하고, 도출된 특징정보에 대하여 진위성정보를 도출하는 세부 진위성 평가모델에 해당될 수 있다.The authenticity evaluation model may include various detailed authenticity evaluation models for performing evaluation on the personality response image. The detailed authenticity evaluation model corresponds to a detailed authenticity evaluation model capable of deriving authenticity information based on a deep learning-based learned evaluation model, or according to a preset routine or algorithm rather than learning, characteristic information about the personality response image. It may correspond to a detailed authenticity evaluation model that derives (eg, gaze position, facial expression) and derives authenticity information with respect to the derived feature information.

본 발명의 일 실시예에서 상기 진위성도출부(1200)는 기본적으로 복수의 연속된 이미지(영상) 정보 및 음성 정보를 포함하는 영상을 입력 받고, 딥러닝과 같은 기계학습 기술을 통해 학습된 진위성 평가모델을 통하여 진위성정보를 도출한다. 또한 추가적으로 상기 진위성도출부(1200)는 기계학습이 아닌 기설정된 규칙을 기반으로 인적성 답변영상을 분석하고, 진위성정보를 도출할 수도 있다. 또한 상기 세부 진위성 평가모델은 복수의 연속된 이미지(영상) 및 음성을 포함하는 인적성 답변영상으로부터 영상 및 음성정보를 추출하여, 이를 각각 별도로 구비된 각각의 세부 진위성 평가모델에 입력하여 진위성정보를 도출할 수도 있다.In an embodiment of the present invention, the authenticity derivation unit 1200 basically receives an image including a plurality of continuous image (video) information and voice information, and evaluates the authenticity learned through machine learning technology such as deep learning. Authenticity information is derived through the model. In addition, the authenticity deriving unit 1200 may further analyze the personality response image based on a preset rule rather than machine learning, and may derive authenticity information. In addition, the detailed authenticity evaluation model extracts image and audio information from a personality response image including a plurality of consecutive images (videos) and voices, and inputs them into each separately provided detailed authenticity evaluation model to derive authenticity information You may.

한편, 상기 진위성도출부(1200)는 상기 진위성 평가모델을 포함하여, 상기 진위성 평가모델에서 도출된 특징정보에 기초하여 진위성정보를 도출하거나, 혹은 상기 진위성도출부(1200)는 별도로 구비된 진위성 평가모델을 호출하여 상기 진위성 평가모델에서 도출된 특징정보에 기초하여 진위성정보를 도출할 수 있다. 또한 도출된 진위성정보는 해당 기업의 면접관단말기(3000)로 제공될 수도 있다.On the other hand, the authenticity deriving unit 1200 derives authenticity information based on the feature information derived from the authenticity evaluation model, including the authenticity evaluation model, or the authenticity deriving unit 1200 is provided separately for authenticity evaluation. By calling the model, authenticity information can be derived based on the feature information derived from the authenticity evaluation model. In addition, the derived authenticity information may be provided to the interviewer terminal 3000 of the corresponding company.

도 6은 본 발명의 일 실시예에 따른 평가항목에 상응하는 인적성 질문컨텐츠의 구성을 개략적으로 도시한다.6 schematically shows the configuration of personality question content corresponding to evaluation items according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 기업별로 수행하는 인적성 검사에 대하여 1 이상의 평가항목이 존재하며, 1 이상의 상기 평가항목은 각 기업의 채용기준 혹은 인재상에 따라 평가항목의 내용 및 개수가 상이할 수 있다. 도 6에 도시된 '열정', '혁신', '경쟁', '성실'의 항목은 평가항목에 대한 예시에 해당하며, 각각의 평가항목 별로 항목평가정보가 산출되고, 상기 항목평가정보는 인적성 검사결과에 포함될 수 있다.As shown in FIG. 6 , one or more evaluation items exist with respect to the personality test performed by each company, and the content and number of evaluation items may be different depending on the hiring criteria or talent image of each company. . The items of 'passion', 'innovation', 'competition', and 'sincerity' shown in FIG. 6 correspond to examples of evaluation items, and item evaluation information is calculated for each evaluation item, and the item evaluation information is personality. may be included in the test results.

한편, 도 6의 인적성 검사문항은 상술한 인적성 질문컨텐츠에 해당할 수 있다. 또한 각각의 인적성 검사문항은 1 이상의 평가항목에 대응될 수 있다. 도 6을 예로 들면, '문항 1'의 경우에는 '열정' 및 '경쟁'의 평가항목에 각각 대응되고, '문항 2'의 경우에는 '혁신'의 평가항목에 대응될 수 있다.Meanwhile, the personality test questions of FIG. 6 may correspond to the aforementioned personality question contents. In addition, each personality test item may correspond to one or more evaluation items. 6 as an example, 'question 1' may correspond to evaluation items of 'passion' and 'competition', respectively, and 'question 2' may correspond to evaluation items of 'innovation'.

따라서, 인적성 질문컨텐츠에 대한 사용자의 답변, 즉 답변정보에 따라 해당 인적성 질문컨텐츠와 대응되는 평가항목에 대한 항목평가정보가 산출될 수 있다. 도 6을 예로 들면, '성실'에 대한 평가항목에 상응하는 인적성 검사문항은 '문항 4' 및 '문항 5'이고, 사용자가 '문항 4' 및 '문항 5'에 대해 답변한 답변정보에 기초하여 '성실'에 대한 평가항목의 항목평가정보가 산출될 수 있다.Accordingly, item evaluation information for the evaluation item corresponding to the personality question content may be calculated according to the user's answer to the personality question content, that is, answer information. Taking Fig. 6 as an example, the personality test questions corresponding to the evaluation items for 'sincerity' are 'question 4' and 'question 5', and based on the answer information that the user answers to 'question 4' and 'question 5' Thus, item evaluation information of the evaluation item for 'sincerity' can be calculated.

또한, 특정 인적성 질문컨텐츠가 2 이상의 평가항목에 상응하는 경우, 해당 인적성 질문컨텐츠에 대한 사용자의 답변정보는 상응하는 각 평가항목에 대하여 상이하게 반영될 수 있다. 예를 들어, A 평가항목에 대하여 해당 답변정보는 2 점의 비중으로 반영될 수 있고, B 평가항목에 대하여 해당 답변정보는 5점의 비중으로 반영될 수 있다. 이와 같이, 각 평가항목 별로 상응하는 인적성 질문컨텐츠에 대한 답변정보의 내용에 따른 점수 혹은 가중치가 기설정된 규칙에 포함될 수 있고, 상기 기설정된 규칙은 기업별로 각각 컴퓨팅시스템(1000)에 저장될 수 있다.In addition, when specific personality question content corresponds to two or more evaluation items, the user's answer information for the corresponding personality question content may be reflected differently for each corresponding evaluation item. For example, for evaluation item A, the corresponding answer information may be reflected with a weight of 2 points, and for evaluation item B, the corresponding answer information may be reflected with a weight of 5 points. In this way, a score or weight according to the content of the answer information for the personality question content corresponding to each evaluation item may be included in a preset rule, and the preset rule may be stored in the computing system 1000 for each company. .

한편, 평가항목 별로 항목진위성정보가 도출될 수 있으며, 상기 항목진위성정보는 각 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 사용자의 답변영상을 통해 도출된 1 이상의 진위성정보에 기초하여 도출될 수 있다.On the other hand, item authenticity information can be derived for each evaluation item, and the item authenticity information can be derived based on one or more items of authenticity information derived through the user's answer image to one or more personality question contents corresponding to each evaluation item. have.

도 7은 본 발명의 일 실시예에 따른 인적성 검사결과를 도출하기 위한 단계들을 개략적으로 도시한다.7 schematically shows steps for deriving a personality test result according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 상기 진위성정보는, 1 이상의 상기 인적성 질문컨텐츠에 대한 각각의 인적성 답변영상에 기초하여 개별적으로 도출되고, 상기 인적성 검사결과는 복수의 평가항목 각각에 대한 항목평가정보 및 항목진위성정보를 포함하고, 상기 항목평가정보는, 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 답변정보 및 기설정된 규칙에 기초하여 도출되고, 상기 항목진위성정보는, 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 진위성정보에 기초하여 도출된다.As shown in FIG. 7 , the authenticity information is individually derived based on each personality answer image for one or more of the personality question contents, and the personality test result includes item evaluation information for each of a plurality of evaluation items and Item authenticity information is included, wherein the item evaluation information is derived based on answer information for one or more personality question contents corresponding to the evaluation item and a preset rule, and the item authenticity or satellite information is at least one corresponding to the evaluation item. It is derived based on the authenticity information about the personality question content.

구체적으로, 인적성결과도출부(1300)는 사용자의 1 이상의 인적성 답변영상 별로 답변정보를 추출하는 단계(S20)를 수행한다. 상기 단계(S20)에서는 각각의 인적성 답변영상에 포함된 음성정보에 기초하여 각각의 답변정보를 도출한다.Specifically, the personality result deriving unit 1300 performs a step (S20) of extracting answer information for each of the user's one or more personality response images. In the step (S20), each answer information is derived based on the voice information included in each personality answer image.

단계 S21에서 인적성결과도출부(1300)는 1 이상의 평가항목별로 각 평가항목에 상응하는 답변정보 및 기설정된 규칙에 기초하여 항목평가정보를 도출한다. 상기 기설정된 규칙은 답변정보의 내용에 따라 해당 평가항목에서의 점수 혹은 가중치와 같은 반영비율에 대한 규칙들을 포함할 수 있다.In step S21, the personality result deriving unit 1300 derives item evaluation information based on the answer information corresponding to each evaluation item and preset rules for each of one or more evaluation items. The preset rule may include rules for a reflection ratio such as a score or weight in the corresponding evaluation item according to the content of the answer information.

단계 S22에서 인적성결과도출부(1300)는 1 이상의 평가항목별로 각 평가항목에 상응하는 진위성도출부(1200)에서 도출한 각 인적성 답변영상에 대한 진위성정보에 기초하여 항목진위성정보를 도출한다. 더 구체적으로, 상기 항목진위성정보는 각 평가항목에 상응하는 진위성정보들의 총합 혹은 평균 등과 같이 기설정된 도출방법에 의해 도출될 수 있다. 이와 같이, 항목진위성정보는 사용자의 각 평가항목별 진위 정도를 포함하므로, 후술하는 항목진위성정보를 포함하는 인적성 검사결과는 각 평가항목별로 사용자가 신뢰성 있는 응답을 하는지에 대한 세부적인 사항들을 제공할 수 있는 효과를 발휘할 수 있다.In step S22, the personality result deriving unit 1300 derives item authenticity information based on the authenticity information for each personality answer image derived from the authenticity deriving unit 1200 corresponding to each evaluation item for each of one or more evaluation items. More specifically, the item authenticity information may be derived by a preset derivation method, such as a sum or average of authenticity information corresponding to each evaluation item. As such, since the item authenticity information includes the level of authenticity for each evaluation item of the user, the personality test result including the item authenticity information to be described later provides detailed information on whether the user makes a reliable response for each evaluation item. possible effect can be exerted.

단계 S23에서 인적성결과도출부(1300)는 상기 단계 S21 및 단계 S22에서 도출한 각 평가항목별 1 이상의 항목평가정보 및 1 이상의 항목진위성정보를 포함하는 인적성 검사결과를 도출한다. 상기 인적성 검사결과는 각 평가항목별로 도출된 1 이상의 항목평가정보 및 1 이상의 항목진위성정보에 따라서 해당 사용자의 종합적인 인적성 검사결과를 포함할 수 있다. 또한 상기 인적성 검사결과는 각 평가항목별로 세부적인 인적성 검사결과를 포함할 수도 있다.In step S23, the personality result deriving unit 1300 derives a personality test result including at least one item evaluation information and at least one item authenticity information for each evaluation item derived in steps S21 and S22. The personality test result may include a comprehensive personality test result of the user according to one or more items of evaluation information and one or more items of authenticity information derived for each evaluation item. In addition, the personality test result may include detailed personality test results for each evaluation item.

따라서, 인적성 검사결과에는 단순히 답변정보에 따라 기업의 채용기준에 따른 결과가 포함되는 것뿐만 아니라, 해당 검사를 수행한 사용자의 답변정보의 신뢰성까지 포함하므로, 채용 과정에서 더욱 적합한 지원자를 채용할 수 있는 효과를 발휘할 수 있다.Therefore, the personality test result not only includes the results according to the company's hiring standards based on the answer information, but also includes the reliability of the answer information of the user who performed the test, so that more suitable applicants can be recruited in the hiring process. can have an effect.

도 8은 본 발명의 일 실시예에 따른 인적성 검사결과를 도출하기 위한 또 다른 구성의 단계들을 개략적으로 도시한다.8 schematically shows steps of another configuration for deriving a personality test result according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 상기 진위성정보는, 1 이상의 상기 인적성 질문컨텐츠에 대한 각각의 인적성 답변영상에 기초하여 개별적으로 도출되고, 상기 인적성 검사결과는 종합진위성정보 및 복수의 평가항목 각각에 대한 항목평가정보를 포함하고, 상기 종합진위성정보는, 복수의 상기 진위성정보에 기초하여 도출되고, 상기 항목평가정보는, 각각의 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 답변정보 및 기설정된 규칙에 기초하여 도출된다.As shown in FIG. 8 , the authenticity information is individually derived based on each personality answer image for one or more of the personality question contents, and the personality test result is the comprehensive authenticity information and each of a plurality of evaluation items. Item evaluation information is included, and the comprehensive authenticity information is derived based on a plurality of the authenticity information, and the item evaluation information includes answer information and preset rules for one or more personality question contents corresponding to each evaluation item. is derived based on

구체적으로, 도 8에 도시된 단계 S30 및 단계 S31은 각각 상술한 도 7의 단계 S20 및 단계 S21과 실질적으로 동일하므로, 자세한 설명은 생략하도록 한다.Specifically, since steps S30 and S31 shown in FIG. 8 are substantially the same as steps S20 and S21 of FIG. 7 described above, respectively, a detailed description thereof will be omitted.

한편, 인적성결과도출부(1300)는 각각의 인적성 답변영상에 대한 각각의 진위성정보에 기초하여 종합진위성정보를 도출하는 단계(S32)를 수행한다. 평가항목 별로 도출되는 항목진위성정보와는 상이하게 상기 종합진위성정보는 평가항목은 고려하지 않고, 각각의 진위성정보를 전체적으로 고려하여 도출되는 정보에 해당한다. 또한 상기 종합진위성정보는 각각의 진위성정보를 합산하는 방식으로 도출될 수도 있고, 각각의 진위성정보의 내용에 따라 가중치를 부여하여 합산하는 방식과 같이 다양한 방법으로 도출될 수 있다. On the other hand, the personality result deriving unit 1300 performs a step (S32) of deriving synthetic authenticity information based on each authenticity information for each personality answer image. Unlike the item authenticity information derived for each evaluation item, the comprehensive authenticity information corresponds to information derived by considering each authenticity information as a whole without considering the evaluation items. In addition, the comprehensive authenticity/falseness information may be derived by adding up each authenticity or falsehood information, or may be derived by various methods such as adding weights according to the contents of each authenticity/falseness information and adding them together.

이어서, 인적성결과도출부(1300)는 각각의 항목평가정보 및 종합진위성정보를 포함하는 인적성 검사결과를 도출하는 단계(S33)를 수행한다. 상기 단계 S33을 수행하여 도출된 인적성 검사결과는 인적성 검사에 대한 전반적인 사용자의 응답에 대한 신뢰 정도를 고려할 수 있다.Next, the personality result deriving unit 1300 performs a step (S33) of deriving a personality test result including each item evaluation information and comprehensive authenticity information. The personality test result derived by performing the step S33 may consider the degree of confidence in the overall user's response to the personality test.

한편, 본 발명의 다른 실시예에서는 상술한 기준질문제공단계를 통해 수신한 기준 답변영상을 추가적으로 고려하여 진위성정보를 도출할 수도 있다.Meanwhile, in another embodiment of the present invention, authenticity information may be derived by additionally considering the reference answer image received through the above-described reference question providing step.

구체적으로, 인적성결과도출부(1300)는 사용자별로 전술한 기준 답변영상에서의 사용자의 표정, 음성 톤 및 답변하기까지의 시간 중 1 이상을 포함하는 기준 지표를 도출하고, 상기 기준 지표 및 인적성 답변영상에 기초하여 진위성정보를 도출할 수 있다. 본 발명의 일 실시예에서는 상기 기준 질문컨텐츠에 대한 기준 답변영상으로부터 추출된 상기 기준 지표; 및 상기 인적성 질문컨텐츠에 대한 인적성 답변영상 혹은 인적성 답변영상으로부터 추출한 특징정보를 기계학습된 모델에 입력하여 개개인의 표정, 음성, 답변시간 등의 고유특성에 의한 영향을 최소화하면서, 더욱 정확하게 진위성정보를 도출할 수 있다.Specifically, the personality result deriving unit 1300 derives a reference index including at least one of the user's facial expression, voice tone, and time until answering in the above-described reference answer image for each user, and the reference index and personality answer Authenticity information can be derived based on the image. In an embodiment of the present invention, the reference index extracted from the reference answer image for the reference question content; and input the feature information extracted from the personality answer image or the personality answer image for the personality question content into a machine-learning model to minimize the influence of individual characteristics such as facial expression, voice, and response time, while more accurately providing authenticity information can be derived

혹은, 본 발명의 다른 실시예에서는, 인적성 답변영상에 기초하여 기계학습된 모델을 통하여 도출된 진위성정보를 상기 기준 지표에 기초하여 조정하여 최종 진위성정보를 도출하는 형태로 구현될 수도 있다.Alternatively, in another embodiment of the present invention, the authenticity information derived through a machine-learning model based on the personality response image may be adjusted based on the reference index to derive the final authenticity information.

도 9는 본 발명의 일 실시예에 따른 자동평가결과도출부(1410)의 동작을 개략적으로 도시한다.9 schematically shows the operation of the automatic evaluation result deriving unit 1410 according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 상기 온라인면접제공부(1400)는 자동평가결과도출부(1410)를 포함하고, 상기 자동평가결과도출부(1410)에서 수행하는 상기 자동평가결과도출단계는, 상기 면접 답변영상에 대하여 기계학습된 모델에 의하여 1 이상의 종합평가항목에 대한 정보를 포함하는 자동평가결과를 도출한다.9, the online interview providing unit 1400 includes an automatic evaluation result deriving unit 1410, and the automatic evaluation result deriving step performed by the automatic evaluation result deriving unit 1410 includes: An automatic evaluation result including information on one or more comprehensive evaluation items is derived by a machine-learning model for an interview response image.

구체적으로, 상기 면접영상 평가모델은 면접 답변영상에 대한 평가를 수행하는 다양한 세부 면접영상 평가모델을 포함할 수 있다. 상기 면접영상 평가모델은 딥러닝 기반의 학습된 평가모델에 기초하여 평가를 수행할 수 있는 세부 면접영상 평가모델에 해당하거나 혹은 학습이 아닌 기설정된 루틴 혹은 알고리즘에 따라 해당 면접 답변영상에 대한 특징정보(예를 들어 시선의 위치)를 도출하고, 도출된 특징정보에 대한 평가를 수행하는 세부 면접영상 평가모델에 해당될 수 있다.Specifically, the interview image evaluation model may include various detailed interview image evaluation models for evaluating the interview response image. The interview image evaluation model corresponds to a detailed interview image evaluation model that can perform evaluation based on a deep learning-based learned evaluation model, or characteristic information about the interview response image according to a preset routine or algorithm rather than learning. It may correspond to a detailed interview image evaluation model that derives (eg, the position of the gaze) and evaluates the derived feature information.

본 발명의 일 실시예에서는 상기 자동평가결과도출부(1410)는 기본적으로 복수의 연속된 이미지(영상) 정보 및 음성 정보를 포함하는 면접 답변영상을 입력 받고, 딥러닝과 같은 기계학습 기술을 통해 학습된 면접영상 평가모델을 통하여 자동평가결과를 도출한다. 또한 추가적으로, 상기 자동평가결과도출부(1410)는 기계학습이 아닌 기설정된 규칙을 기반으로 면접 답변영상을 분석하고, 특정 평가값들을 도출할 수도 있다. 상기 세부 면접영상 평가모델은 복수의 연속된 이미지(영상) 및 음성을 포함하는 면접 답변영상으로부터 영상 및 음성 정보를 추출하여 이를 각각의 세부 면접영상 평가모델에 입력하여 결과값을 도출하거나 혹은 영상 및 음성 정보를 종합하여 세부 면접영상 평가모델에 입력하여 결과값을 도출할 수도 있다.In an embodiment of the present invention, the automatic evaluation result deriving unit 1410 basically receives an interview answer image including a plurality of continuous image (video) information and voice information, and through machine learning technology such as deep learning An automatic evaluation result is derived through the learned interview image evaluation model. In addition, the automatic evaluation result deriving unit 1410 may analyze the interview answer image based on a preset rule rather than machine learning, and may derive specific evaluation values. The detailed interview image evaluation model extracts video and audio information from an interview answer image including a plurality of consecutive images (videos) and audio and inputs it to each detailed interview image evaluation model to derive a result value, or It is also possible to derive the result value by synthesizing the voice information and inputting it into the detailed interview image evaluation model.

한편, 상기 자동평가결과도출부(1410)는 상기 면접영상 평가모델을 포함하여, 상기 면접영상 평가모델에서 도출된 특징정보에 기초하여 자동평가결과를 도출하거나, 혹은 상기 자동평가결과도출부(1410)는 별도로 구비된 면접영상 평가모델을 호출하여 상기 면접영상 평가모델에서 도출된 특징정보에 기초하여 자동평가결과를 도출할 수 있다.On the other hand, the automatic evaluation result deriving unit 1410 derives an automatic evaluation result based on the feature information derived from the interview image evaluation model, including the interview image evaluation model, or the automatic evaluation result deriving unit 1410 ) may call a separately provided interview image evaluation model to derive an automatic evaluation result based on the feature information derived from the interview image evaluation model.

바람직하게는, 상기 세부 면접영상 평가모델은 면접 답변영상의 복수의 프레임에서의 사용자의 시선의 복수의 위치정보를 추출하는 모듈을 포함할 수 있고, 이를 통하여 상기 자동평가결과도출부(1410)에 의하여 면접관단말기(3000)에서 사용자의 시선의 위치현황 및 시선의 이동현황에 대한 정보 등을 포함하는 시선변화정보를 제공할 수 있다.Preferably, the detailed interview image evaluation model may include a module for extracting a plurality of positional information of the user's gaze from a plurality of frames of the interview answer image, and through this, the automatic evaluation result deriving unit 1410 In this way, the interviewer terminal 3000 may provide gaze change information including information on the position status of the user's gaze and information on the motion status of the gaze.

바람직하게는, 상기 세부 면접영상 평가모델은 면접 답변영상의 복수의 프레임에서의 사용자의 머리의 움직임을 추출하는 모듈을 포함할 수 있고, 이를 통하여 상기 자동평가결과도출부(1410)에 의하여 면접관단말기(3000)에서 사용자의 머리의 움직임에 대한 정보를 제공할 수 있다.Preferably, the detailed interview image evaluation model may include a module for extracting the movement of the user's head from a plurality of frames of the interview answer image, and through this, the interviewer terminal At 3000 , information on the movement of the user's head may be provided.

바람직하게는, 상기 세부 면접영상 평가모델은 복수의 프레임에서의 음성의 높낮이, 음성의 크기 등의 음성의 소리적 특성값을 추출하는 모듈을 포함할 수 있고, 이를 통하여 자동평가결과도출부(1410)에 의하여 면접관단말기(3000)에서 사용자의 음성에 대한 정보를 제공할 수 있다.Preferably, the detailed interview image evaluation model may include a module for extracting sound characteristic values of speech, such as pitch and volume of speech in a plurality of frames, and through this, the automatic evaluation result deriving unit 1410 ), the interviewer terminal 3000 may provide information about the user's voice.

바람직하게는, 상기 세부 면접영상 평가모델은 영상의 구간별로 사용자의 감정요소들의 세기를 추출하는 모듈을 포함할 수 있고, 이를 통하여 자동평가결과도출부(1410)에 의하여 면접관단말기(3000)에서 사용자의 감정에 대한 정보를 제공할 수 있다. 이 경우, 상기 딥러닝으로 학습된 인공신경망에 의한 세부 면접영상 평가모델이 이용될 수 있다.Preferably, the detailed interview image evaluation model may include a module for extracting the intensity of the user's emotional elements for each section of the image, and through this, the user in the interviewer terminal 3000 by the automatic evaluation result deriving unit 1410 can provide information about their emotions. In this case, the detailed interview image evaluation model by the artificial neural network learned by the deep learning may be used.

이와 같이, 상기 자동평가결과도출부(1410)는 면접영상 평가모델을 이용하여 상술한 사용자의 시선변화정보, 머리의 움직임에 대한 정보, 음성에 대한 정보 및 감정에 대한 정보와 같이, 해당 사용자의 개인적인 특성에 대한 정보들을 도출할 수 있다.In this way, the automatic evaluation result deriving unit 1410 uses the interview image evaluation model to determine the user's gaze change information, information about head movement, information about voice, and information about emotions, as described above. Information about personal characteristics can be derived.

한편, 본 발명의 다른 실시예에서는, 특정 세부 면접영상 평가모델은 사용자의 면접 답변영상의 복수의 프레임에서의 사용자의 특징정보를 추출하는 모듈을 포함할 수 있고, 이를 통하여 상기 자동평가결과도출부(1410)에 의하여 면접관단말기(3000)에서 사용자의 해당 기업의 합격 예측에 대한 정보, 해당 기업에서의 고과 정도의 예측에 대한 정보 및 해당 기업에서의 근속 예측에 대한 정보 등을 포함하는 추천정보를 제공할 수 있다.On the other hand, in another embodiment of the present invention, the specific detailed interview image evaluation model may include a module for extracting the user's characteristic information from a plurality of frames of the user's interview answer image, through which the automatic evaluation result deriving unit In the interviewer terminal 3000 by (1410), the user's recommendation information including information on the prediction of acceptance of the company, information on the prediction of the degree of performance in the company, and information on the prediction of service in the company, etc. can provide

도 10은 본 발명의 일 실시예에 따른 온라인면접제공부(1400)의 동작에 따른 사용자단말기(2000)에서 표시되는 인적성 질문컨텐츠에 대한 화면의 일 예를 개략적으로 도시한다.10 schematically illustrates an example of a screen for personality question content displayed on the user terminal 2000 according to the operation of the online interview providing unit 1400 according to an embodiment of the present invention.

온라인면접제공부(1400)는 면접관단말기(3000)와 같이 해당 기업의 채용 담당자가 사용하는 단말기에 의해 면접 질문컨텐츠를 생성하거나 관리할 수 있다. 도 10은 온라인면접제공부(1400)에 의해 사용자단말기(2000)에 표시되는 초기 화면을 도시한다.The online interview providing unit 1400 may generate or manage interview question content by a terminal used by a hiring manager of a corresponding company, such as the interviewer terminal 3000 . FIG. 10 shows an initial screen displayed on the user terminal 2000 by the online interview providing unit 1400 .

도 10에서는 이미 생성되거나 혹은 초기에 주어지는 면접 질문컨텐츠의 정보를 디스플레이한다. 상기 면접 질문컨텐츠의 정보는 해당 면접 질문컨텐츠의 질문, 면접 질문컨텐츠의 식별정보 및 면접 질문컨텐츠의 생성일자를 포함할 수 있다. 또한, 첫 번째 박스에서와 같이, 사용자가 실제 온라인 면접을 수행하기 전에 임의로 면접 질문컨텐츠를 생성할 수 있는 인터페이스 요소가 디스플레이될 수 있다. 따라서, 도 10에 도시된 화면의 특정 면접 질문컨텐츠에 대한 박스를 선택하는 경우, 온라인 면접을 수행하기 위한 화면으로 전환될 수 있다.In FIG. 10, information on interview question content that has already been created or initially given is displayed. The information of the interview question content may include a question of the corresponding interview question content, identification information of the interview question content, and a creation date of the interview question content. Also, as in the first box, an interface element capable of arbitrarily generating interview question content before the user performs an actual online interview may be displayed. Accordingly, when a box for specific interview question content on the screen shown in FIG. 10 is selected, the screen may be switched to a screen for performing an online interview.

도 11은 본 발명의 일 실시예에 따른 온라인면접제공부(1400)의 동작에 따른 면접관단말기(3000)에서 표시되는 소프트스킬정보에 대한 화면의 일 예를 개략적으로 도시한다.11 schematically illustrates an example of a screen for soft skill information displayed on the interviewer terminal 3000 according to the operation of the online interview providing unit 1400 according to an embodiment of the present invention.

상기 자동평가결과도출부(1410)는 사용자의 면접 답변영상에 대한 자동평가결과에 기초한 다양한 평가화면이 면접관단말기(3000)에 표시될 수 있도록 할 수 있다.The automatic evaluation result deriving unit 1410 may enable various evaluation screens based on the automatic evaluation result of the user's interview answer image to be displayed on the interviewer terminal 3000 .

한편, 상기 자동평가결과는 상기 사용자의 의사소통 및 태도에 대한 정보를 포함하는 소프트스킬(Soft Skills)정보, 상기 사용자의 성격특성정보 및 상기 영상에서의 상기 사용자의 시선변화정보, 채용추천지수 중 1 이상을 포함할 수 있다.On the other hand, the automatic evaluation result is soft skills information including information about the user's communication and attitude, the user's personality characteristic information, the user's gaze change information in the image, and the employment recommendation index. It may include one or more.

한편,본 발명의 다른 실시예에서는, 각각의 상기 소프트스킬정보, 상기 성격특성정보 및 상기 시선변화정보, 상기 채용추천지수는 면접관단말기(3000)에 표시되는 인터페이스를 통해 면접관에게 제공될 수도 있다.Meanwhile, in another embodiment of the present invention, each of the soft skill information, the personality characteristic information, the gaze change information, and the employment recommendation index may be provided to the interviewer through an interface displayed on the interviewer terminal 3000 .

도 11은 소프트스킬정보를 포함하는 해당 면접 답변영상에 대한 종합평가를 제공하는 화면(도 11의 L6 영역에서 'AI 종합'에 대한 엘리먼트를 선택한 경우)을 도시한다.11 shows a screen that provides a comprehensive evaluation for the corresponding interview response image including soft skill information (when an element for 'AI synthesis' is selected in the L6 area of FIG. 11).

상기 자동평가결과도출부(1410)에서 제공하는 면접관단말기(3000)에서의 디스플레이 요소는, 상기 사용자의 면접 답변영상을 재생할 수 있는 영상레이어(L4); 상기 면접 답변영상에 대한 식별정보, 날짜, 설명정보 등이 표시될 수 있는 영상정보레이어(L5); 2 이상의 자동평가결과에 대한 정보의 카테고리를 선택할 수 있는 카테고리레이어(L6); 및 상기 2 이상의 자동평가결과에 대한 정보의 카테고리 중 선택된 평가결과 카테고리에 대한 자동평가결과가 표시되는 자동평가결과레이어(L7, L8, L9)를 포함한다.The display element in the interviewer terminal 3000 provided by the automatic evaluation result deriving unit 1410 includes: an image layer (L4) capable of reproducing the user's interview answer image; an image information layer (L5) on which identification information, date, and explanatory information for the interview answer image can be displayed; a category layer (L6) capable of selecting categories of information on two or more automatic evaluation results; and an automatic evaluation result layer (L7, L8, L9) in which an automatic evaluation result for a selected evaluation result category is displayed among the categories of information on the at least two automatic evaluation results.

상기 영상레이어(L4)에서는 사용자의 재생에 대한 입력에 따라서 해당 면접 답변영상이 재생될 수 있다.In the image layer L4, the corresponding interview answer image may be reproduced according to the user's input for reproduction.

상기 카테고리레이어(L6)에서는 면접관의 입력에 따라서 자동평가결과에 대한 정보의 카테고리가 변경되면서, 이에 따른 제공화면이 전환된다. 카테고리레이어(L6)의 'AI 종합'은 자동평가결과에 포함된 소프트스킬정보를 제공하는 것을 의미하고, '성격특성'은 자동평가결과에 포함된 성격특성정보를 제공하는 것을 의미하고, '프레임별 분석'은 자동평가결과에 포함된 시선변화정보를 제공하는 것을 의미한다.In the category layer L6, the category of information on the automatic evaluation result is changed according to the input of the interviewer, and the providing screen is switched accordingly. 'AI synthesis' of the category layer (L6) means providing soft skill information included in the automatic evaluation result, 'personality characteristic' means providing the personality characteristic information included in the automatic evaluation result, and 'frame Star analysis' means to provide gaze change information included in the automatic evaluation result.

즉, 상기 자동평가결과도출부(1410)에 의해 제공되는 면접관단말기(3000)에서의 화면은, 상기 사용자의 면접 답변영상에 대하여 소프트스킬정보를 디스플레이하는 제1화면(도 11), 상기 사용자의 면접 답변영상에 대하여 성격특성정보를 디스플레이하는 제2화면(미도시) 및 상기 영상의 부분단위의 평가에 대한 요소, 바람직하게 시선변화정보를 디스플레이하는 제3화면(미도시)을 포함한다.That is, the screen in the interviewer terminal 3000 provided by the automatic evaluation result deriving unit 1410 is a first screen ( FIG. 11 ) that displays soft skill information for the user's interview answer image, the user's It includes a second screen (not shown) for displaying personality characteristic information with respect to the interview answer image and a third screen (not shown) for displaying an element for evaluation of a partial unit of the image, preferably gaze change information.

도 11의 자동평가결과레이어(L7, L8 및 L9 이 이에 해당할 수 있음)에는 자동평가결과에 관한 복수의 평가정보가 디스플레이되고, 해당 사용자의 소프트스킬정보가 디스플레이(L9) 된다.In the automatic evaluation result layer (L7, L8, and L9 may correspond to this) of FIG. 11, a plurality of evaluation information regarding the automatic evaluation result is displayed, and soft skill information of the corresponding user is displayed (L9).

디스플레이 되는 상기 소프트스킬정보는 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈 마주침, 친절함, 습관어의 사용여부 및 유쾌함 중 1 이상에 대한 정량적인 수치를 포함한다. 한편, L7 레이어에서는 소프트스킬정보에 포함된 상기 정량적인 수치에 기초한 종합평가점수, 등급정보 및 추천지수가 표시되고, L8 레이어에서는 소프트스킬정보 및 이에 따른 종합평가점수, 등급정보 및 추천지수에 기초하여 자동적으로 작성된 텍스트형태의 평가정보가 표시된다.The displayed soft skill information includes quantitative values for one or more of favorable sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, kindness, use of habitual words, and pleasantness. On the other hand, in the L7 layer, the comprehensive evaluation score, grade information, and recommendation index based on the quantitative values included in the soft skill information are displayed, and in the L8 layer, the soft skill information and the resulting comprehensive evaluation score, grade information and recommendation index are displayed. Thus, the evaluation information in the form of text automatically created is displayed.

한편, 도 11에는 도시되지 않았으나, 본 발명의 다른 실시예에서 상기 카테고리레이어(L6)에는 채용추천지수를 디스플레이 하도록 하는 별도의 엘리먼트를 포함하고, 상기 엘리먼트를 선택하는 경우, 해당 사용자에 대한 채용추천지수가 디스플레이되는 별도의 화면이 면접관단말기(3000)에 출력될 수 있다.On the other hand, although not shown in FIG. 11, in another embodiment of the present invention, the category layer (L6) includes a separate element for displaying the employment recommendation index, and when the element is selected, hiring recommendation for the user A separate screen on which the index is displayed may be output to the interviewer terminal 3000 .

도 12는 본 발명의 일 실시예에 따른 사용자의 동일성을 판단하는 단계들을 개략적으로 도시한다.12 schematically illustrates steps for determining the identity of a user according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 상기 동일성판단단계는, 상기 인적성 답변영상의 복수의 프레임에 포함된 복수의 제1얼굴이미지로부터 각각의 제1얼굴특징정보를 추출하는 단계(S40); 상기 면접 답변영상의 복수의 프레임에 포함된 복수의 제2얼굴이미지로부터 각각의 제2얼굴특징정보를 추출하는 단계(S41); 및 상기 제1얼굴특징정보 및 상기 제2얼굴특징정보를 상호 비교하여 각 영상에서의 사용자의 동일성을 판단하는 단계(S42);를 포함한다.12, the step of determining the identity may include: extracting each first facial feature information from a plurality of first face images included in a plurality of frames of the personality response image (S40); extracting each second facial feature information from a plurality of second face images included in a plurality of frames of the interview answer image (S41); and determining the identity of the user in each image by comparing the first facial feature information and the second facial feature information (S42).

구체적으로, 동일성판단부(1500)는 사용자가 수행한 인적성 검사에 대한 답변컨텐츠, 바람직하게는 답변컨텐츠에 포함된 인적성 답변영상 및 해당 사용자가 추가적으로 수행한 온라인 면접에 대한 면접 답변영상에 기초하여 각 답변영상의 인물이 동일인물인지에 대한 동일성을 판단한다.Specifically, the identity determination unit 1500 is based on the answer content for the personality test performed by the user, preferably the personality answer image included in the answer content, and the interview answer image for the online interview additionally performed by the user. It is determined whether the person in the answer image is the same person or not.

이를 위하여 동일성판단부(1500)는, 인적성 답변영상의 복수의 프레임에서 각각 제1얼굴특징정보를 추출하는 단계(S40)를 수행한다. 상기 단계(S40)를 수행하기 위하여 동일성판단부(1500)는 동일성 평가모델을 사용하여 제1얼굴특징정보를 추출하거나, 혹은 기설정된 규칙기반의 알고리즘을 사용하여 제1얼굴특징정보를 추출할 수 있다.To this end, the identity determining unit 1500 performs a step (S40) of extracting the first facial feature information from each of the plurality of frames of the personality response image. In order to perform the step S40, the identity determination unit 1500 extracts the first facial feature information using the identity evaluation model, or extracts the first facial feature information using a preset rule-based algorithm. have.

또한, 동일성판단부(1500)는, 면접 답변영상의 복수의 프레임에서 각각 제2얼굴특징정보를 추출하는 단계(S41)를 수행한다. 마찬가지로, 상기 단계(S41)를 수행하기 위하여 동일성판단부(1500)는 동일성 평가모델을 사용하여 제2얼굴특징정보를 추출하거나, 혹은 기설정된 규칙기반의 알고리즘을 사용하여 제2얼굴특징정보를 추출할 수 있다.In addition, the identity determination unit 1500 performs a step (S41) of extracting the second facial feature information from each of the plurality of frames of the interview answer image. Similarly, in order to perform the step S41, the identity determining unit 1500 extracts the second facial feature information using the identity evaluation model, or extracts the second facial feature information using a preset rule-based algorithm. can do.

한편, 인적성 답변영상 및 면접 답변영상 각각에 대한 복수의 프레임은 서로 인접하는 연속된 복수의 프레임에 해당할 수도 있으나, 바람직하게는 복수의 프레임은 전체 영상에서 기설정된 간격에 따라 혹은 무작위로 추출될 수도 있다. 따라서, 동일성판단부(1500)는 각 답변영상의 전체 구간에 대한 동일성을 판단할 수 있게 된다.On the other hand, the plurality of frames for each of the personality answer image and the interview answer image may correspond to a plurality of consecutive frames adjacent to each other, but preferably, the plurality of frames are extracted according to a predetermined interval or randomly from the entire image. may be Accordingly, the identity determining unit 1500 can determine the identity of the entire section of each answer image.

마지막으로, 동일성판단부(1500)는 각각 추출한 1 이상의 제1얼굴특징정보 및 1 이상의 제2얼굴특징정보를 상호 비교하여 최종적으로 인적성 답변영상 및 면접 답변영상의 사용자가 동일한 인물인지 판단하는 단계(S42)를 수행한다. 더 구체적으로 해당 단계(S42)에서 1 이상의 제1얼굴특징정보 및 1 이상의 제2얼굴특징정보를 상호 비교하기 위하여, 단일 제1얼굴특징정보에 대해 일대일로 매칭되는 특정 제2얼굴특징정보만을 상호 비교하거나 혹은, 단일 제1얼굴특징정보에 대하여 전체 혹은 1 이상의 제2얼굴특징정보를 상호 비교할 수도 있다.Finally, the identity determination unit 1500 compares each extracted one or more first facial feature information and one or more second facial feature information to finally determine whether the user of the personality answer image and the interview answer image is the same person ( S42) is performed. More specifically, in order to mutually compare one or more first facial feature information and one or more second facial feature information in the corresponding step (S42), only specific second facial feature information that is matched one-to-one with respect to a single first facial feature information is mutually Alternatively, all or one or more second facial feature information may be compared with respect to a single first facial feature information.

이와 같이, 1 이상의 제1얼굴특징정보 및 1 이상의 제2얼굴특징정보를 상호 비교하기 위하여 동일성판단부(1500)는 기계학습된 동일성 평가모델을 사용하거나 기설정된 규칙기반의 알고리즘을 사용하여 동일성을 판단할 수 있다.In this way, in order to mutually compare the one or more first facial feature information and the one or more second facial feature information, the identity determination unit 1500 determines the identity using a machine-learned identity evaluation model or a preset rule-based algorithm. can judge

도 13은 본 발명의 일 실시예에 따른 동일성판단부(1500)의 동작을 개략적으로 도시한다.13 schematically illustrates the operation of the identity determining unit 1500 according to an embodiment of the present invention.

도 13은 동일성판단부(1500)에서 학습된 동일성 평가모델을 이용하여 사용자의 인적성 답변영상 및 면접 답변영상에 대한 분석을 수행하는 것을 도시한 도면에 해당한다.FIG. 13 corresponds to a diagram illustrating analysis of the user's personality response image and interview response image by using the identity evaluation model learned by the identity determination unit 1500 .

상기 동일성 평가모델은 인적성 답변영상 및 면접 답변영상에 대한 평가를 수행하는 다양한 세부 동일성 평가모델을 포함할 수 있다. 상기 세부 동일성 평가모델은 딥러닝 기반의 평가모델에 기초하여 평가를 수행할 수 있는 세부 동일성 평가모델에 해당하거나 혹은 학습이 아닌 기설정된 루틴 혹은 알고리즘에 따라 인적성 답변영상 및 면접 답변영상에 대한 각각의 제1얼굴특징정보 및 제2얼굴특징정보를 도출하고, 도출된 제1얼굴특징정보 및 제2얼굴특징정보에 기초하여 동일성에 대한 평가를 수행하는 세부 동일성 평가모델에 해당될 수 있다.The identity evaluation model may include a variety of detailed identity evaluation models that perform evaluation on the personality response image and the interview response image. The detailed identity evaluation model corresponds to a detailed identity evaluation model that can perform evaluation based on a deep learning-based evaluation model, or according to a preset routine or algorithm that is not learning. It may correspond to a detailed identity evaluation model in which the first facial feature information and the second facial feature information are derived, and the identity is evaluated based on the derived first facial feature information and the second facial feature information.

본 발명의 일 실시예에서는 상기 동일성판단부(1500)는 기본적으로 복수의 연속된 이미지(영상) 정보를 포함하는 인적성 답변영상 및 면접 답변영상을 입력 받고, 딥러닝과 같은 기계학습 기술을 통해 학습된 동일성 평가모델을 통하여 사용자에 대한 동일성 판단결과를 도출한다. 또한 추가적으로, 상기 동일성판단부(1500)는 기계학습이 아닌 기설정된 규칙을 기반으로 인적성 답변영상 및 면접 답변영상을 분석하고, 각각 제1얼굴특징정보 및 제2얼굴특징정보를 도출할 수도 있다. 상기 세부 동일성 평가모델은 복수의 연속된 이미지(영상)을 포함하는 인적성 답변영상 및 면접 답변영상으로부터 영상 정보를 추출하여 이를 각각의 세부 동일성 평가모델에 입력하여 결과값을 도출할 수도 있다.In an embodiment of the present invention, the identity determination unit 1500 basically receives a personality answer image and an interview answer image including a plurality of consecutive image (image) information, and learns through machine learning technology such as deep learning. The result of determining the identity of the user is derived through the identified identity evaluation model. Additionally, the identity determination unit 1500 may analyze the personality response image and the interview response image based on a preset rule rather than machine learning, and may derive the first facial feature information and the second facial feature information, respectively. The detailed identity evaluation model may extract image information from a personality answer image and an interview answer image including a plurality of consecutive images (images) and input it into each detailed identity evaluation model to derive a result value.

한편, 상기 동일성판단부(1500)는 상기 동일성 평가모델을 포함하여, 상기 동일성 평가모델에서 도출된 제1얼굴특징정보 및 제2얼굴특징정보에 기초하여 동일성 판단결과를 도출하거나 혹은 상기 동일성판단부(1500)는 별도로 구비된 동일성 평가모델을 호출하여 상기 동일성 평가모델에서 도출된 제1얼굴특징정보 및 제2얼굴특징정보에 기초하여 동일성 판단결과를 도출할 수 있다.On the other hand, the identity determination unit 1500 includes the identity evaluation model, and derives an identity determination result based on the first facial feature information and the second facial feature information derived from the identity evaluation model, or the identity determination unit 1500 may call a separately provided identity evaluation model to derive an identity determination result based on the first facial feature information and the second facial feature information derived from the identity evaluation model.

한편, 상기 동일성 판단결과는 인적성 답변영상 및 면접 답변영상에서의 각 사용자간의 동일성 여부에 대한 정보로 표현될 수도 있으나, 확률과 같은 가능성에 대한 정보로서 표현될 수도 있다.On the other hand, the identity determination result may be expressed as information on whether or not each user is identical in the personality answer image and the interview answer image, or may be expressed as information about a possibility such as a probability.

본 발명의 다른 실시예에서는, 상기 동일성 평가모델은 인적성 검사 혹은 온라인 면접가운데 선행되는 채용단계에서 획득한 답변영상에 의하여 메트릭 학습되어, 후행되는 채용단계에서 획득한 사용자의 답변영상과 메트릭 학습된 답변영상간의 유사성정보를 포함하는 정보를 도출하는 메트릭학습모델을 포함할 수도 있다.In another embodiment of the present invention, the identity evaluation model is metric-learned by the answer image obtained in the hiring step preceding the personality test or online interview, and the user's answer image and the metric-learned answer obtained in the following hiring step It may include a metric learning model for deriving information including similarity information between images.

도 14는 본 발명의 일 실시예에 따른 각 평가모델의 내부 구성을 개략적으로 도시한다.14 schematically shows the internal configuration of each evaluation model according to an embodiment of the present invention.

상술한 바와 같이 컴퓨팅시스템(1000)은 도 14의 (A)에 도시된 바와 같이 진위성 평가모델, 도 14의 (B)에 도시된 바와 같이 면접영상 평가모델 및 도 14의 (C)에 도시된 바와 같이 동일성 평가모델을 포함한다.As described above, the computing system 1000 includes the authenticity evaluation model as shown in FIG. 14(A), the interview image evaluation model as shown in FIG. 14(B), and the evaluation model shown in FIG. 14(C). As such, it includes an identity evaluation model.

도 14에 도시된 바와 같이, 본 발명의 일 실시예에서 상기 진위성 평가모델, 상기 면접영상 평가모델 및 상기 동일성 평가모델은 각각 입력정보에 해당하는 사용자의 인적성 답변영상 혹은 면접 답변영상에 대하여 특징정보를 도출하는 피처추출모델 및 상기 특징정보에 기초하여 각각의 평가모델 별로 추론정보를 도출하는 피처추론모델을 포함할 수 있다.14, in an embodiment of the present invention, the authenticity evaluation model, the interview image evaluation model, and the identity evaluation model are characteristic information for a user's personality response image or interview response image corresponding to input information, respectively. It may include a feature extraction model for deriving , and a feature inference model for deriving inference information for each evaluation model based on the feature information.

더 구체적으로, 상기 진위성 평가모델에 포함되는 피처추론모델에는 사용자의 인적성 답변영상에 대한 진위성정보를 도출하기 위한 진위성추론모델을 포함할 수 있고, 상기 면접영상 평가모델에 포함되는 피처추론모델에는 사용자의 면접 답변영상에 대한 자동평가결과를 도출하기 위한 면접결과추론모델을 포함할 수 있고, 상기 동일성 평가모델에 포함되는 피처추론모델에는 사용자의 인적성 답변영상 및 면접 답변영상에 대한 동일성 판단결과를 도출하기 위한 동일성추론모델을 포함할 수 있다.More specifically, the feature inference model included in the authenticity evaluation model may include a authenticity inference model for deriving authenticity information about the user's personality response image, and the feature inference model included in the interview image evaluation model includes a user may include an interview result inference model for deriving an automatic evaluation result for the interview response image of It may include an identity inference model for

상기 진위성 평가모델, 상기 면접영상 평가모델 및 상기 동일성 평가모델 각각은 피처추출모델 및 피처추론모델을 포함할 수 있다. 상기 피처추출모델은 기계학습 기반의 모델에 해당할 수 있고, 예를 들어 1 이상의 CNN모듈 및 1 이상의 LSTM모듈로 구성되거나 혹은 3차원 컨볼루션 신경망(Conv3D) 형태로 구성될 수도 있다.Each of the authenticity evaluation model, the interview image evaluation model, and the identity evaluation model may include a feature extraction model and a feature inference model. The feature extraction model may correspond to a machine learning-based model, for example, may consist of one or more CNN modules and one or more LSTM modules, or may be configured in the form of a three-dimensional convolutional neural network (Conv3D).

상기 피처추출모델은 복수의 연속된 이미지(영상) 정보 혹은 복수의 연속된 이미지(영상) 정보 및 음성 정보를 포함하는 사용자의 인적성 답변영상 혹은 면접 답변영상을 입력으로 하여 해당 사용자의 답변영상에 대한 특징정보를 도출한다.The feature extraction model is a plurality of continuous image (video) information or a plurality of continuous image (video) information and voice information of the user's personality answer image or interview answer image including the input as an input for the user's answer image Derive feature information.

한편, 상기 피처추론모델은 상기 피처추출모델에서 도출한 해당 인적성 답변영상 혹은 면접 답변영상에 대한 특징정보에 기초하여 진위성정보, 자동평가결과 혹은 동일성 판단결과와 관련된 추론정보를 도출한다.On the other hand, the feature inference model derives inference information related to authenticity information, an automatic evaluation result, or an identity determination result based on the feature information about the personality answer image or interview answer image derived from the feature extraction model.

상기 진위성 평가모델에 포함되는 진위성추론모델은 모델학습부(1600)를 통해 해당 기업의 합격자 및 불합격자의 인적성 답변영상에 의해 학습될 수 있고, 상기 면접영상 평가모델에 포함되는 면접결과추론모델은 모델학습부(1600)를 통해 해당 기업의 합격자 및 불합격자의 면접 답변영상에 의해 학습될 수 있다. 한편, 동일성 평가모델에 포함된 동일성추론모델은 상이한 영상 혹은 이미지 사이의 유사성을 학습하기 위한 별도의 학습데이터를 통해 학습될 수도 있다.The authenticity inference model included in the authenticity evaluation model can be learned by the personality response image of the successful and unqualified company through the model learning unit 1600, and the interview result inference model included in the interview image evaluation model is a model Through the learning unit 1600, it can be learned by the interview answer image of the successful and unsuccessful candidates of the company. On the other hand, the identity inference model included in the identity evaluation model may be learned through separate learning data for learning similarities between different images or images.

한편, 본 발명의 다른 실시예에서 상기 진위성평가모델에 포함된 피처추론모델은 Softmax 활성화 함수를 사용하여 기설정된 판별 기준에 따라 분류하도록 하는 문제를 처리하여 진위성정보를 도출할 수 있고, 상기 동일성평가모델에 포함된 피처추론모델은 회귀 분석을 위한 Sigmoid 활성화 함수 등을 이용하여 동일성 판단결과를 도출하는 방식으로 구현될 수 있다.On the other hand, in another embodiment of the present invention, the feature inference model included in the authenticity evaluation model can derive authenticity information by processing the problem of classifying according to a preset discrimination criterion using a Softmax activation function, and the identity evaluation The feature inference model included in the model can be implemented in a way that derives the sameness determination result by using a sigmoid activation function for regression analysis, etc.

도 15는 본 발명의 일 실시예에 따른 피처추출모델의 내부 구성을 개략적으로 도시한다.15 schematically shows the internal configuration of a feature extraction model according to an embodiment of the present invention.

도 15에 도시된 실시예에 따른 상기 피처추출모델은, 상기 사용자의 인적성 답변영상 혹은 면접 답변영상의 복수의 프레임의 이미지정보로부터 복수의 영상특징정보를 도출하는 공간 특징정보를 추출하는 제1딥뉴럴네트워크; 상기 사용자의 인적성 답변영상 혹은 면접 답변영상의 복수의 음성정보로부터 복수의 음성특징정보를 도출하는 공간 특징정보를 추출하는 제2딥뉴럴네트워크; 상기 복수의 영상특징정보를 수신하여 제1특징정보를 도출하는 제1순환신경망모듈; 및 상기 복수의 음성특징정보를 수신하여 제2특징정보를 도출하는 제2순환신경망모듈;을 포함할 수 있다.The feature extraction model according to the embodiment shown in FIG. 15 is a first deep extracting spatial feature information for deriving a plurality of image feature information from image information of a plurality of frames of the user's personality answer image or interview answer image neural network; a second deep neural network for extracting spatial feature information for deriving a plurality of voice feature information from a plurality of voice information of the user's personality response image or interview response image; a first cyclic neural network module for receiving the plurality of image feature information and deriving first feature information; and a second recurrent neural network module that receives the plurality of voice feature information and derives second feature information.

상기 제1딥뉴럴네트워크 및 상기 제2딥뉴럴네트워크는 CNN모듈 등이 이에 해당할 수 있고, 도 15에 도시된 일 실시예에서는 제1딥뉴럴네트워크는 제1CNN모듈에 해당하고, 제2딥뉴럴네트워크는 제2CNN모듈에 해당할 수 있다.The first deep neural network and the second deep neural network may correspond to a CNN module, etc., and in the embodiment shown in FIG. 15, the first deep neural network corresponds to the first CNN module, and the second deep neural network The network may correspond to the second CNN module.

상기 제1순환신경망모듈 및 제2순환신경망모듈은 LSTM모듈 등이 이에 해당할 수 있고, 도 15에 도시된 일 실시예에서는 제1순환신경망모듈은 제1LSTM모듈에 해당하고, 제2순환신경망모듈은 제2LSTM모듈에 해당할 수 있다.The first recurrent neural network module and the second recurrent neural network module may correspond to an LSTM module and the like, and in the embodiment shown in FIG. may correspond to the second LSTM module.

이하에서는 도 15에 도시된 실시예에 기초하여, 본 발명의 일 실시예에 따른 뉴럴네트워크의 동작에 대하여 설명하도록 한다.Hereinafter, an operation of a neural network according to an embodiment of the present invention will be described based on the embodiment shown in FIG. 15 .

상기 복수의 프레임은 기설정된 시간간격으로 영상의 이미지를 분할하여 생성될 수 있다. 또한, 제1CNN모듈에 의하여 도출된 복수의 영상특징정보는 제1LSTM모듈로 시계열 순으로 입력됨이 바람직하다.The plurality of frames may be generated by dividing an image of an image at preset time intervals. In addition, the plurality of image feature information derived by the first CNN module is preferably input to the first LSTM module in chronological order.

한편, 기설정된 시간구간에 대한 음성에 대한 특징정보(피치, 세기 등), 혹은 음성 자체의 데이터는 제2CNN모듈로 입력되고, 제2CNN모듈로부터 도출된 음성특징정보는 제2LSTM모듈로 시계열 순으로 입력됨이 바람직하다.On the other hand, the characteristic information (pitch, intensity, etc.) of the voice for a preset time period, or the data of the voice itself, is input to the second CNN module, and the voice feature information derived from the second CNN module is sent to the second LSTM module in time series order. input is preferred.

또한, 상기 음성에 대한 특징정보에는 피치 혹은 세기에 해당할 수 있으나, 더욱 바람직하게는 상기 음성을 일정한 구간으로 나누어, 각 구간에 대한 스펙트럼을 Mel Filter Bank를 적용하여 Cepstral 분석을 통해 특징을 추출하는 MFCC(Mel-Frequency Cepstral Coefficient)가 해당될 수 있다.In addition, the feature information for the voice may correspond to pitch or intensity, but more preferably, the voice is divided into certain sections, and the spectrum for each section is applied to Mel Filter Bank to extract features through Cepstral analysis. A Mel-Frequency Cepstral Coefficient (MFCC) may be applicable.

한편, 피처추출모델의 출력에 해당하는 특징정보(벡터열)는 상기 제1특징정보 및 상기 제2특징정보에 기초하여 도출된다. 가장 간단한 방법으로는 상기 제1특징정보 및 상기 제2특징정보를 단순 결합하여 상기 특징정보를 도출할 수 있고, 혹은 상기 제1특징정보 및 상기 제2특징정보에 가중치 등을 적용하여 상기 특징정보를 도출할 수도 있다.Meanwhile, feature information (a vector sequence) corresponding to the output of the feature extraction model is derived based on the first feature information and the second feature information. In the simplest method, the characteristic information can be derived by simply combining the first characteristic information and the second characteristic information, or the characteristic information can be obtained by applying a weight to the first characteristic information and the second characteristic information. can also be derived.

도 16은 본 발명의 일 실시예에 따른 피처추론모델의 내부구성을 개략적으로 도시한다.16 schematically shows the internal configuration of a feature inference model according to an embodiment of the present invention.

상술한 바와 같이 상기 진위성 평가모델에 포함된 피처추론모델은 진위성추론모델을 포함하고, 상기 면접영상 평가모델에 포함된 피처추론모델은 면접결과추론모델을 포함하고, 동일성 평가모델에 포함된 피처추론모델은 동일성추론모델을 포함할 수 있고, 각각의 진위성추론모델, 면접결과추론모델, 동일성추론모델은 도 16에 도시된 것과 같이 구성될 수도 있다.As described above, the feature inference model included in the authenticity evaluation model includes the authenticity inference model, the feature inference model included in the interview image evaluation model includes the interview result inference model, and the feature inference included in the identity evaluation model The model may include an identity inference model, and each of the authenticity inference model, the interview result inference model, and the identity inference model may be configured as shown in FIG. 16 .

피처추론모델은 피처추출모델로부터 도출된 특징정보에 대해 복수의 Fully-Connected Layer에 의하여 학습된 가중치를 부여하여 특징정보(feature)를 도출하는 과정을 수행하여 추론정보를 도출한다.The feature inference model derives inference information by performing a process of deriving feature information by assigning weights learned by a plurality of fully-connected layers to the feature information derived from the feature extraction model.

예를 들어, 진위성추론모델은 사용자의 인적성 답변영상을 분석하여 사용자의 인적성 검사에 대한 진위성에 대한 정보를 도출할 수 있고, 상기 면접결과추론모델은 사용자의 면접 답변영상을 분석하여 사용자의 온라인 면접에 대한 자동평가결과에 대한 정보를 도출할 수 있고, 상기 동일성추론모델은 사용자의 인적성 답변영상 및 면접 답변영상을 분석하여 각 영상에서의 사용자의 동일성 판단결과에 대한 정보를 도출할 수 있다.For example, the authenticity inference model analyzes the user's personality response image to derive information on the authenticity of the user's personality test, and the interview result inference model analyzes the user's interview response image to conduct an online interview of the user. can derive information on the automatic evaluation result for , and the identity inference model can derive information about the user's identity determination result in each image by analyzing the user's personality answer image and interview answer image.

또한, 상기 Fully-Connected Layer의 개수는 도 16에 도시된 개수에 한정되지 아니하고, 상기 피처추론모델은 1 이상의 Fully-Connected Layer을 포함할 수 있다. 상기 피처추론모델이 단일의 Fully-Connected Layer로 이루어진 경우에는 상기 중간결과는 생략될 수도 있다.In addition, the number of the Fully-Connected Layers is not limited to the number shown in FIG. 16 , and the feature inference model may include one or more Fully-Connected Layers. When the feature inference model consists of a single fully-connected layer, the intermediate result may be omitted.

한편, 본 발명의 다른 실시예에서는 상기 피처추론모델은 Softmax 활성화 함수를 사용하여 기설정된 판별 기준에 따라 분류하도록 하는 문제를 처리하거나 Sigmoid 활성화 함수 등을 이용하여 점수를 도출하는 방식으로 구현될 수 있다.On the other hand, in another embodiment of the present invention, the feature inference model can be implemented in such a way that it uses a Softmax activation function to process the problem of classifying according to a preset criterion, or derives a score using a sigmoid activation function, etc. .

도 17은 본 발명의 일 실시예에 따른 동일성판단정보제공단계를 수행하기 위한 세부 단계들을 개략적으로 도시한다.17 schematically illustrates detailed steps for performing the step of providing identity determination information according to an embodiment of the present invention.

도 17에 도시된 바와 같이, 상기 온라인 지원자 채용과정을 수행하는 방법은 동일성판단정보제공단계를 더 포함하고, 상기 동일성판단정보제공단계는, 상기 인적성제공단계에서 수신한 인적성 답변영상 혹은 상기 온라인면접제공단계에서 수신한 면접 답변영상에서 사용자의 얼굴을 포함하는 1 이상의 판단이미지를 추출하는 단계(S50); 및 추출된 1 이상의 상기 판단이미지를 면접관의 단말기에서 디스플레이될 수 있도록 외부 단말기로 송신하는 단계(S51);를 포함한다.As shown in FIG. 17 , the method of performing the online applicant recruitment process further includes a step of providing identity determination information, wherein the step of providing the identity determination information includes the personality response image received in the personality provision step or the online interview. extracting one or more judgment images including the user's face from the interview answer image received in the providing step (S50); and transmitting the extracted one or more judgment images to an external terminal to be displayed on the interviewer's terminal (S51).

구체적으로, 동일성판단정보제공부(1700)는 상기 동일성판단정보제공단계를 수행하며, 상술한 동일성판단부(1500)가 사용자의 인적성 답변영상 및 면접 답변영상 사이에서의 사용자의 동일성을 판단하는 것과 대비하여, 상기 동일성판단정보제공단계는 사용자의 인적성 답변영상 혹은 면접 답변영상에서의 사용자와 기업의 채용 과정에서의 대면 면접과 같은 전형을 통해 실제 사용자(지원자)가 동일한 인물인지 면접관이 확인할 수 있도록 한다.Specifically, the identity determination information providing unit 1700 performs the identity determination information providing step, and the above-described identity determination unit 1500 determines the identity of the user between the user's personality response image and the interview answer image. In contrast, in the step of providing the identity determination information, the interviewer can confirm whether the actual user (applicant) is the same person through a face-to-face interview in the hiring process of the user and the company in the user's personality response image or interview answer image. do.

동일성판단정보제공부(1700)는 사용자의 인적성 답변영상 혹은 면접 답변영상 중에서 1 이상의 판단이미지를 추출하는 단계(S50)를 수행한다. 상기 단계(S50)에서 추출되는 판단이미지는 사용자의 얼굴이 명확하게 표시된 이미지에 해당할 수 있다. 또한 복수의 판단이미지가 추출되는 경우, 연속된 프레임에 대한 판단이미지가 추출될 수도 있으나, 바람직하게는 기설정된 시간 간격 혹은 무작위로 복수의 판단이미지가 추출되어, 답변영상의 전체구간을 고려하여 복수의 판단이미지가 추출될 수도 있다.The identity determination information providing unit 1700 performs a step (S50) of extracting one or more determination images from the user's personality answer image or interview answer image. The judgment image extracted in step S50 may correspond to an image in which the user's face is clearly displayed. In addition, when a plurality of judgment images are extracted, judgment images for consecutive frames may be extracted, but preferably, a plurality of judgment images are extracted at a preset time interval or randomly, and a plurality of judgment images are taken in consideration of the entire section of the answer image. A judgment image of may be extracted.

본 발명의 다른 실시예에서 상기 동일성판단정보제공부(1700)는 별도의 판단이미지를 추출하지 않고, 상기 인적성 답변영상 혹은 면접 답변영상 중에서 하나의 답변영상의 전체 혹은 일부만을 상기 면접관단말기(3000)에 제공할 수도 있다.In another embodiment of the present invention, the identity determination information providing unit 1700 does not extract a separate judgment image, but only the whole or part of one answer image among the personality answer image or the interview answer image. The interviewer terminal (3000) can also be provided to

이어서, 상기 동일성판단제공부는 추출한 1 이상의 판단이미지를 면접관단말기(3000)로 제공하기 위하여 외부 단말기로 송신하는 단계(S51)를 수행한다. 상기 단계(S51)에서 상기 동일성판단제공부는 직접적 혹은 간접적으로 상기 면접관단말기(3000)에 1 이상의 판단이미지를 제공할 수 있다. 따라서 직접적으로 상기 1 이상의 판단이미지를 제공하는 경우, 상기 외부 단말기는 면접관단말기(3000)에 해당할 수 있고, 간접적으로 1 이상의 판단이미지를 제공하는 경우, 상기 외부 단말기는 별도의 서버 혹은 컴퓨팅장치 등에 해당할 수 있다.Then, the identity determination providing unit performs the step (S51) of transmitting the extracted one or more determination images to the external terminal in order to provide the interviewer terminal (3000). In the step S51 , the identity determination providing unit may provide one or more determination images to the interviewer terminal 3000 directly or indirectly. Therefore, when directly providing the one or more judgment images, the external terminal may correspond to the interviewer terminal 3000, and when providing one or more judgment images indirectly, the external terminal is a separate server or computing device, etc. may be applicable.

한편, 면접관단말기(3000)에 제공된 1 이상의 판단이미지는 상기 면접관단말기(3000)에서 별도의 인터페이스를 통해 디스플레이될 수 있다. 따라서, 면접관은 해당 인터페이스에 표시되는 1 이상의 판단이미지와 실제 대면한 사용자의 얼굴을 대조하여 동일한 인물인지 판단할 수 있다.Meanwhile, one or more judgment images provided to the interviewer terminal 3000 may be displayed through a separate interface in the interviewer terminal 3000 . Accordingly, the interviewer may determine whether the person is the same person by comparing one or more judgment images displayed on the corresponding interface with the face of the user who has actually met.

상기 면접관은 사용자의 동일성을 판단한 판단결과정보를 상기 면접관단말기(3000)에 표시되는 상기 인터페이스에 입력할 수 있고, 상기 동일성판단정보제공부(1700)는 면접관이 입력한 판단결과정보를 상기 면접관단말기(3000)로부터 수신하는 단계(S52)를 수행할 수 있다. 한편, 상기 단계(S52)에서 상기 동일성판단정보제공부(1700)는 직접적 혹은 간접적으로 상기 면접관단말기(3000)로부터 상기 판단결과정보를 제공받을 수 있고, 상기 판단결과정보는 상기 DB(1800)에 저장될 수 있다.The interviewer may input the determination result information for determining the identity of the user to the interface displayed on the interviewer terminal 3000, and the identity determination information providing unit 1700 may transmit the determination result information input by the interviewer to the interviewer terminal. Receiving from (3000) (S52) may be performed. Meanwhile, in the step (S52), the identity determination information providing unit 1700 may receive the determination result information from the interviewer terminal 3000 directly or indirectly, and the determination result information is stored in the DB 1800. can be saved.

이와 같이, 상기 동일성판단부(1500) 외에도 상기 동일성판단정보제공부(1700)에서 수행하는 동일성판단정보제공단계를 통해 온라인 기반의 채용과정에서 발생할 수 있는 대리응시 등과 같은 부정행위를 이중으로 방지할 수 있는 효과를 발휘할 수 있다.In this way, in addition to the identity determination unit 1500, through the identity determination information providing step performed by the identity determination information providing unit 1700, double prevention of fraudulent acts such as proxy examinations that may occur in the online-based recruitment process. possible effect can be exerted.

본 발명의 일 실시예에 따르면, 인적성 검사를 온라인 방식으로 수행하므로, 채용을 진행하는 기업 측에서는 채용에 소요되는 비용을 절약할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the personality test is performed in an online manner, it is possible to exhibit the effect of saving the cost required for the recruitment on the side of the company that is hiring.

본 발명의 일 실시예에 따르면, 기계학습된 모델을 사용하여 온라인 방식으로 수행된 인적성 검사에 대한 인적성 답변영상으로부터 진위성정보를 도출하므로, 유사한 문항을 중복하여 구성하는 기존의 인적성 검사에 비해 검사 시간을 대폭적으로 감소시킬 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since authenticity information is derived from a personality answer image for a personality test performed in an online manner using a machine-learning model, the test time compared to the existing personality test consisting of overlapping similar questions can have the effect of significantly reducing

본 발명의 일 실시예에 따르면, 진위성정보 및 각 문항에 대한 답변정보에 기초하여 인적성 검사결과를 도출하므로, 더욱더 정확한 결과를 도출하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the personality test result is derived based on the authenticity information and the answer information for each question, it is possible to exert the effect of deriving more accurate results.

본 발명의 일 실시예에 따르면, 온라인 방식으로 제공되는 면접 질문컨텐츠에 대하여 사용자(지원자)의 면접 답변영상을 수신하는 것으로 면접이 수행되므로, 채용에 소요되는 비용을 절약할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the interview is performed by receiving the interview answer image of the user (applicant) with respect to the interview question content provided in an online manner, it is possible to exhibit the effect of saving the cost of hiring have.

본 발명의 일 실시예에 따르면, 온라인면접제공단계는 면접 답변영상에 대해 기계학습된 모델을 사용하여 면접에 대한 평가결과를 도출하므로, 종래의 면접에 대한 평가결과에 비해 더욱 객관적인 결과를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the online interview providing step derives the evaluation result for the interview by using a machine-learning model for the interview answer image, it is possible to provide more objective results compared to the evaluation result for the conventional interview. possible effect can be exerted.

본 발명의 일 실시예에 따르면, 동일성판단단계는, 인적성 답변영상에서의 사용자와 면접 답변영상에서의 사용자의 동일성을 판단하므로, 각 채용 단계에서의 대리 응시와 같은 부정행위를 용이하게 찾아낼 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the identity determination step determines the identity of the user in the personality answer image and the user in the interview answer image, it is possible to easily find fraudulent acts such as a proxy test in each hiring step. can have an effect.

본 발명의 일 실시예에 따르면, 동일성판단정보제공부는 면접관에게 실제 오프라인 채용전형에 참석한 사용자에 대한 판단이미지를 제공하므로, 면접관이 온라인으로 채용과정을 수행한 사용자와 실제 오프라인으로 참석한 사용자가 동일한지 용이하게 파악할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the identity determination information providing unit provides the interviewer with a judgment image of the user who actually participated in the offline recruitment screening, the user who performed the online recruitment process by the interviewer and the user who actually participated offline It can exhibit the effect of easily grasping whether it is the same.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (11)

1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅시스템에서 수행되는 온라인 지원자 채용과정을 수행하는 방법으로서,
1 이상의 인적성 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 인적성 질문컨텐츠에 대한 사용자의 인적성 답변영상을 포함하는 답변컨텐츠를 상기 사용자단말기로부터 수신하는 인적성제공단계;
기계학습된 모델에 의하여 상기 인적성 답변영상으로부터 해당 인적성 답변영상의 진위성정보를 도출하는 진위성도출단계;
1 이상의 상기 인적성 답변영상의 진위성정보 및 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보에 기초하여 해당 사용자에 대한 인적성 검사결과를 도출하는 인적성결과도출단계;
1 이상의 면접 질문컨텐츠를 상기 사용자단말기에 제공하고, 각각의 상기 면접 질문컨텐츠에 대한 사용자의 면접 답변영상을 상기 사용자단말기로부터 수신하는 온라인면접제공단계; 및
상기 인적성 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제1얼굴이미지와 상기 면접 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제2얼굴이미지에 기초하여, 상기 인적성 답변영상에서의 사용자와 상기 면접 답변영상에서의 사용자의 동일성을 판단하는 동일성판단단계;를 포함하는, 온라인 지원자 채용과정을 수행하는 방법.
A method of performing an online applicant recruitment process performed in a computing system having one or more processors and one or more memories, the method comprising:
A personality providing step of providing one or more personality question contents to a user terminal, and receiving answer contents including an image of the user's personality answer for each of the personality question contents from the user terminal;
Authenticity derivation step of deriving authenticity information of the personality answer image from the personality answer image by the machine-learning model;
a personality result deriving step of deriving a personality test result for the user based on the authenticity information of one or more of the personality answer images and the user's answer information for the personality question content;
an online interview providing step of providing one or more interview question contents to the user terminal, and receiving an interview answer image of the user for each of the interview question contents from the user terminal; and
Based on at least one first face image including the user's face extracted from the personality answer image and at least one second face image including the user's face extracted from the interview answer image, the user in the personality answer image and the A method of performing an online applicant recruitment process, including; an identity determination step of determining the identity of the user in the interview answer image.
청구항 1에 있어서,
상기 인적성 질문컨텐츠에 대한 사용자의 답변정보는,
상기 인적성 질문컨텐츠에 대한 해당 사용자의 인적성 답변영상의 음성정보에 기초하여 도출되는, 온라인 지원자 채용과정을 수행하는 방법.
The method according to claim 1,
The user's answer information to the personality question content is,
A method of performing an online applicant recruitment process, which is derived based on the voice information of the user's personality answer image for the personality question content.
청구항 1에 있어서,
상기 진위성정보는,
1 이상의 상기 인적성 질문컨텐츠에 대한 각각의 인적성 답변영상에 기초하여 개별적으로 도출되고,
상기 인적성 검사결과는 복수의 평가항목 각각에 대한 항목평가정보 및 항목진위성정보를 포함하고,
상기 항목평가정보는, 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 답변정보 및 기설정된 규칙에 기초하여 도출되고,
상기 항목진위성정보는, 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 진위성정보에 기초하여 도출되는, 온라인 지원자 채용과정을 수행하는 방법.
The method according to claim 1,
The authenticity information is
Individually derived based on each personality answer image for one or more of the personality question content,
The personality test result includes item evaluation information and item authenticity information for each of a plurality of evaluation items,
The item evaluation information is derived based on the answer information and preset rules for one or more personality question content corresponding to the evaluation item,
Wherein the item authenticity information is derived based on the authenticity information on one or more personality question content corresponding to the evaluation item, a method of performing an online applicant recruitment process.
청구항 1에 있어서,
상기 진위성정보는,
1 이상의 상기 인적성 질문컨텐츠에 대한 각각의 인적성 답변영상에 기초하여 개별적으로 도출되고,
상기 인적성 검사결과는 종합진위성정보 및 복수의 평가항목 각각에 대한 항목평가정보를 포함하고,
상기 종합진위성정보는, 복수의 상기 진위성정보에 기초하여 도출되고,
상기 항목평가정보는, 각각의 평가항목에 상응하는 1 이상의 인적성 질문컨텐츠에 대한 답변정보 및 기설정된 규칙에 기초하여 도출되는, 온라인 지원자 채용과정을 수행하는 방법.
The method according to claim 1,
The authenticity information is
Individually derived based on each personality answer image for one or more of the personality question content,
The personality test result includes comprehensive authenticity information and item evaluation information for each of a plurality of evaluation items,
The comprehensive authenticity/satellite information is derived based on a plurality of the authenticity/satellite information;
Wherein the item evaluation information is derived based on preset rules and answer information for one or more personality question content corresponding to each evaluation item, a method of performing an online applicant recruitment process.
청구항 1에 있어서,
상기 온라인면접제공단계는 자동평가결과도출단계를 포함하고,
상기 자동평가결과도출단계는,
상기 면접 답변영상에 대하여 기계학습된 모델에 의하여 1 이상의 종합평가항목에 대한 정보를 포함하는 자동평가결과를 도출하는, 온라인 지원자 채용과정을 수행하는 방법.
The method according to claim 1,
The online interview providing step includes an automatic evaluation result deriving step,
The automatic evaluation result deriving step is,
A method of performing an online applicant recruitment process for deriving an automatic evaluation result including information on one or more comprehensive evaluation items by a machine-learned model with respect to the interview answer image.
청구항 1에 있어서,
상기 동일성판단단계는,
상기 인적성 답변영상의 복수의 프레임에 포함된 복수의 제1얼굴이미지로부터 각각의 제1얼굴특징정보를 추출하는 단계;
상기 면접 답변영상의 복수의 프레임에 포함된 복수의 제2얼굴이미지로부터 각각의 제2얼굴특징정보를 추출하는 단계; 및
상기 제1얼굴특징정보 및 상기 제2얼굴특징정보를 상호 비교하여 각 영상에서의 사용자의 동일성을 판단하는 단계;를 포함하는, 온라인 지원자 채용과정을 수행하는 방법.
The method according to claim 1,
The identity determination step is,
extracting each first facial feature information from a plurality of first face images included in a plurality of frames of the personality response image;
extracting each second facial feature information from a plurality of second face images included in a plurality of frames of the interview answer image; and
and determining the identity of the user in each image by comparing the first facial feature information and the second facial feature information with each other.
청구항 1에 있어서,
상기 온라인 지원자 채용과정을 수행하는 방법은 동일성판단정보제공단계를 더 포함하고,
상기 동일성판단정보제공단계는,
상기 인적성제공단계에서 수신한 인적성 답변영상 혹은 상기 온라인면접제공단계에서 수신한 면접 답변영상에서 사용자의 얼굴을 포함하는 1 이상의 판단이미지를 추출하는 단계; 및
추출된 1 이상의 상기 판단이미지를 면접관의 단말기에서 디스플레이될 수 있도록 외부 단말기로 송신하는 단계;를 포함하는, 온라인 지원자 채용과정을 수행하는 방법.
The method according to claim 1,
The method of performing the online applicant recruitment process further comprises the step of providing identity determination information,
The step of providing the identity determination information comprises:
extracting one or more judgment images including the user's face from the personality answer image received in the personality providing step or the interview answer image received in the online interview providing step; and
Transmitting the extracted one or more judgment images to an external terminal so that they can be displayed on the terminal of the interviewer.
청구항 1에 있어서,
상기 인적성제공단계는,
1 이상의 기준 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 기준질문 컨텐츠에 대한 사용자의 기준 답변영상을 상기 사용자단말기로부터 수신하는 기준질문제공단계;를 더 수행하고,
상기 진위성도출단계는,
기계학습된 모델에 의하여 상기 인적성 답변영상; 및 상기 기준 답변영상 혹은 상기 기준 답변영상으로부터 도출된 기준지표;에 기초하여 인적성 답변영상에 대한 진위성정보를 도출하는, 온라인 지원자 채용과정을 수행하는 방법.
The method according to claim 1,
In the step of providing the personality,
A reference question providing step of providing one or more reference question contents to a user terminal, and receiving a reference answer image of the user for each of the reference question contents from the user terminal;
In the step of deriving the authenticity,
The personality response image by the machine-learning model; and a reference index derived from the reference answer image or the reference answer image; a method of performing an online applicant recruitment process for deriving authenticity information about a personality answer image based on the.
온라인 지원자 채용과정을 수행하는 컴퓨팅시스템으로서,
1 이상의 인적성 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 인적성 질문컨텐츠에 대한 사용자의 인적성 답변영상을 포함하는 답변컨텐츠를 상기 사용자단말기로부터 수신하는 인적성제공부;
기계학습된 모델에 의하여 상기 인적성 답변영상으로부터 해당 인적성 답변영상의 진위성정보를 도출하는 진위성도출부;
1 이상의 상기 인적성 답변영상의 진위성정보 및 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보에 기초하여 해당 사용자에 대한 인적성 검사결과를 도출하는 인적성결과도출부;
1 이상의 면접 질문컨텐츠를 상기 사용자단말기에 제공하고, 각각의 상기 면접 질문컨텐츠에 대한 사용자의 면접 답변영상을 상기 사용자단말기로부터 수신하는 온라인면접제공부; 및
상기 인적성 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제1얼굴이미지와 상기 면접 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제2얼굴이미지에 기초하여, 상기 인적성 답변영상에서의 사용자와 상기 면접 답변영상에서의 사용자의 동일성을 판단하는 동일성판단부;를 포함하는, 컴퓨팅시스템.
A computing system for performing an online applicant recruitment process, comprising:
Personality providing unit for providing one or more personality question content to the user terminal, and receiving answer contents including the user's personality answer image for each of the personality question content from the user terminal;
Authenticity derivation unit for deriving authenticity information of the personality answer image from the personality answer image by the machine-learned model;
a personality result deriving unit for deriving a personality test result for the user based on the authenticity information of the one or more personality answer images and the user's answer information for the personality question content;
an online interview providing unit for providing one or more interview question contents to the user terminal and receiving an interview answer image of the user for each of the interview question contents from the user terminal; and
Based on at least one first face image including the user's face extracted from the personality answer image and at least one second face image including the user's face extracted from the interview answer image, the user in the personality answer image and the Computing system, including; identity determination unit for determining the identity of the user in the interview answer image.
1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅시스템에서 수행되는 온라인 지원자 채용과정을 수행하는 방법으로서,
1 이상의 면접 질문컨텐츠를 사용자단말기에 제공하고, 각각의 상기 면접 질문컨텐츠에 대한 사용자의 면접 답변영상을 상기 사용자단말기로부터 수신하는 온라인면접제공단계;
1 이상의 인적성 질문컨텐츠를 상기 사용자단말기에 제공하고, 각각의 상기 인적성 질문컨텐츠에 대한 사용자의 인적성 답변영상을 포함하는 답변컨텐츠를 상기 사용자단말기로부터 수신하는 인적성제공단계;
기계학습된 모델에 의하여 상기 인적성 답변영상으로부터 해당 인적성 답변영상의 진위성정보를 도출하는 진위성도출단계;
1 이상의 상기 인적성 답변영상의 진위성정보 및 상기 인적성 질문컨텐츠에 대한 사용자의 답변정보에 기초하여 해당 사용자에 대한 인적성 검사결과를 도출하는 인적성결과도출단계; 및
상기 인적성 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제1얼굴이미지와 상기 면접 답변영상으로부터 추출한 사용자의 얼굴을 포함하는 1 이상의 제2얼굴이미지에 기초하여, 상기 인적성 답변영상에서의 사용자와 상기 면접 답변영상에서의 사용자의 동일성을 판단하는 동일성판단단계;를 포함하는, 온라인 지원자 채용과정을 수행하는 방법.
A method of performing an online applicant recruitment process performed in a computing system having one or more processors and one or more memories, the method comprising:
An online interview providing step of providing one or more interview question content to a user terminal, and receiving an interview answer image of the user for each of the interview question content from the user terminal;
A personality providing step of providing one or more personality question contents to the user terminal, and receiving answer contents including an image of the user's personality answer for each of the personality question contents from the user terminal;
Authenticity derivation step of deriving authenticity information of the personality answer image from the personality answer image by the machine-learning model;
a personality result deriving step of deriving a personality test result for the user based on the authenticity information of one or more of the personality answer images and the user's answer information for the personality question content; and
Based on at least one first face image including the user's face extracted from the personality answer image and at least one second face image including the user's face extracted from the interview answer image, the user in the personality answer image and the A method of performing an online applicant recruitment process, including; an identity determination step of determining the identity of the user in the interview answer image.
청구항 1 혹은 청구항 8에 따르는 온라인 지원자 채용과정을 수행하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.
A computer-readable recording medium recording a program for performing the method of performing the online applicant recruitment process according to claim 1 or 8.
KR1020200038497A 2020-03-30 2020-03-30 Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model KR102310135B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200038497A KR102310135B1 (en) 2020-03-30 2020-03-30 Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200038497A KR102310135B1 (en) 2020-03-30 2020-03-30 Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model

Publications (1)

Publication Number Publication Date
KR102310135B1 true KR102310135B1 (en) 2021-10-08

Family

ID=78115962

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200038497A KR102310135B1 (en) 2020-03-30 2020-03-30 Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model

Country Status (1)

Country Link
KR (1) KR102310135B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101712456B1 (en) * 2015-05-22 2017-03-07 주식회사 마이다스아이티 Structured interview system and structured interview method using the same
KR20170040065A (en) * 2015-10-02 2017-04-12 김정아 System for coaching and correcting personalized online interview utilizing big data
KR20190140805A (en) * 2018-05-29 2019-12-20 주식회사 제네시스랩 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
KR20200023675A (en) * 2018-08-17 2020-03-06 (주)잡플러스 Job matching system based on artificial intelligence

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101712456B1 (en) * 2015-05-22 2017-03-07 주식회사 마이다스아이티 Structured interview system and structured interview method using the same
KR20170040065A (en) * 2015-10-02 2017-04-12 김정아 System for coaching and correcting personalized online interview utilizing big data
KR20190140805A (en) * 2018-05-29 2019-12-20 주식회사 제네시스랩 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
KR20200023675A (en) * 2018-08-17 2020-03-06 (주)잡플러스 Job matching system based on artificial intelligence

Similar Documents

Publication Publication Date Title
Escalante et al. Modeling, recognizing, and explaining apparent personality from videos
US11494477B2 (en) Computerized systems and methods for determining authenticity using micro expressions
EP3616619A1 (en) Method of preparing recommendations for taking decisions on the basis of a computerized assessment of the capabilities of users
US11257041B2 (en) Detecting disability and ensuring fairness in automated scoring of video interviews
US10607188B2 (en) Systems and methods for assessing structured interview responses
CN106663383B (en) Method and system for analyzing a subject
JP2017522676A (en) Talent data-driven identification system and method
JP2019508776A (en) System and method for data driven identification of talents
US11881010B2 (en) Machine learning for video analysis and feedback
JP7333404B2 (en) Methods, Systems, and Computer-Readable Media for Managing Interview Video Automated Rating Models
US20210334761A1 (en) Video-Bot based System and Method for Continually improving the Quality of Candidate Screening Process, Candidate Hiring Process and Internal Organizational Promotion Process, using Artificial Intelligence, Machine Learning Technology and Statistical Inference based Automated Evaluation of responses that employs a scalable Cloud Architecture
KR102397112B1 (en) Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model
KR102236720B1 (en) Interview Preparation Service Providing Method, System and Computer-readable Medium Using Machine Learning
Cannata et al. Toward an integrative approach to nonverbal personality detection: Connecting psychological and artificial intelligence research
US20220084151A1 (en) System and method for determining rank
KR102310135B1 (en) Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model
KR102261673B1 (en) Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof
KR102407212B1 (en) Methods, Systems and Computer-Readable Medium for Automated Evaluation of Interview Videos using Machine Learning Model
Dissanayake et al. AI-based Behavioural Analyser for Interviews/Viva
KR20210012500A (en) Interview Automatic Evaluation Model Learning Method, System and Computer-readable Medium
Mushtaq et al. Vision and Audio-based Methods for First Impression Recognition Using Machine Learning Algorithms: A Review
Panjwani et al. Candidate Prioritization Using Automated Behavioural Interview with Deep Learning
Arachchi et al. Fuzzy Logic based Learning Style Selection Integrated Smart Learning Management System
Kaur et al. Nuanced Emotion State Identification: Insights from a CNN-RF Framework
KR20230163657A (en) Method and apparatus for evaluating AI-based startup item

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant