KR102397112B1 - Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model - Google Patents

Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model Download PDF

Info

Publication number
KR102397112B1
KR102397112B1 KR1020210113282A KR20210113282A KR102397112B1 KR 102397112 B1 KR102397112 B1 KR 102397112B1 KR 1020210113282 A KR1020210113282 A KR 1020210113282A KR 20210113282 A KR20210113282 A KR 20210113282A KR 102397112 B1 KR102397112 B1 KR 102397112B1
Authority
KR
South Korea
Prior art keywords
evaluation
image
interview
model
evaluation result
Prior art date
Application number
KR1020210113282A
Other languages
Korean (ko)
Other versions
KR20210107601A (en
Inventor
이영복
유대훈
Original Assignee
주식회사 제네시스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제네시스랩 filed Critical 주식회사 제네시스랩
Priority to KR1020210113282A priority Critical patent/KR102397112B1/en
Publication of KR20210107601A publication Critical patent/KR20210107601A/en
Application granted granted Critical
Publication of KR102397112B1 publication Critical patent/KR102397112B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06316Sequencing of tasks or work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • G06Q10/06375Prediction of business process outcome or impact based on a proposed change

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Educational Administration (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 온라인면접을 수행하고, 면접영상에 대하여 자동평가결과를 제공하는 서버시스템에서, 기업의 실제 평가, 채용, 고과 등에 실제로 부합하는 자동평가결과를 제공하도록 면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, system, and computer-readable medium for managing an automatic interview image evaluation model, and more particularly, in a server system that performs an online interview and provides an automatic evaluation result for an interview image, the company's It relates to a method, system, and computer-readable medium for managing an automatic evaluation model of an interview video to provide an automatic evaluation result that actually matches the actual evaluation, recruitment, evaluation, and the like.

Description

면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체 {Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model}Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model

본 발명은 면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 온라인면접을 수행하고, 면접영상에 대하여 자동평가결과를 제공하는 서버시스템에서, 기업의 실제 평가, 채용, 고과 등에 실제로 부합하는 자동평가결과를 제공하도록 면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, system, and computer-readable medium for managing an automatic interview image evaluation model, and more particularly, in a server system that performs an online interview and provides an automatic evaluation result for an interview image, the company's It relates to a method, system, and computer-readable medium for managing an automatic evaluation model of an interview video to provide an automatic evaluation result that actually matches the actual evaluation, recruitment, evaluation, and the like.

면접은 일반적으로 면접을 통해 평가를 받는 면접자 및 면접자에 대한 평가를 수행하는 면접관으로 구성되며, 면접관의 질문과 면접자의 답변으로 진행되며 전체 질의응답에 대한 종합평가로 이루어진다.The interview generally consists of an interviewer who is evaluated through an interview and an interviewer who evaluates the interviewer.

면접은 질문 및 응답을 통해 면접자의 전문지식, 전문기술 혹은 정보활용능력 등의 하드 스킬(hard skill) 뿐만 아니라 면접자의 태도, 의사소통 능력 등의 소프트 스킬(soft skill) 을 파악하는 것을 목적으로 한다.The purpose of the interview is to understand the interviewer's hard skills such as expertise, professional skills, or information literacy ability, as well as soft skills such as the interviewer's attitude and communication ability through question and answer. .

한편, 한편 소프트스킬의 경우 객관적인 평가 결과를 제공하기는 어려운 실정이고, 특히 소프트 스킬의 경우에는 다양한 면접관으로서의 경험이 있는 평가자만이 바른 평가를 내릴 수 있다. 특히, 면접영상에 따른 온라인으로 면접을 수행하는 경우에, 소프트스킬에 대한 정확한 평가를 하기 어렵다는 문제가 있다.On the other hand, in the case of soft skills, it is difficult to provide an objective evaluation result. In particular, in the case of soft skills, only an evaluator with experience as various interviewers can make a correct evaluation. In particular, there is a problem in that it is difficult to accurately evaluate soft skills in the case of conducting an online interview according to the interview video.

또한, 소프트 스킬은 면접관의 주관적 경험과 직관에 따라 다르게 판단되는 영역으로서, 면접관에 따라 평가 기준 및 평가 방법 등이 달라질 수 있다. 이와 같이 면접관의 주관에 따라 달라지는 평가 방법에 의해 면접자의 소프트 스킬이 객관적으로 평가되기 어려운 문제가 있다.In addition, the soft skill is an area that is judged differently according to the interviewer's subjective experience and intuition, and the evaluation criteria and evaluation method may vary depending on the interviewer. As such, there is a problem in that it is difficult to objectively evaluate the interviewer's soft skills by the evaluation method that varies depending on the subjectivity of the interviewer.

한편, 기업이 온라인면접을 통하여 수많은 지원자들의 면접영상을 수집하는 경우에 이에 대해 모두 일일이 확인하기가 어렵다는 문제가 있다. 또한, 이에 대해 평가모델을 통하여 지원자들의 면접영상에 대해 자동평가결과를 도출하여 이를 제공하는 경우에 평가모델의 결과가 실제 지원자의 평가에 부합하지 않거나. 혹은 지원 회사의 인재상에는 부합하지 않거나, 혹은 실제 채용 후의 실적, 고과 등에는 부합하지 않는 경우가 발생할 수 있다는 문제점이 있다.On the other hand, when a company collects interview videos of numerous applicants through online interviews, there is a problem in that it is difficult to check all of them individually. In addition, in the case of providing automatic evaluation results for applicants' interview images through the evaluation model, the result of the evaluation model does not match the actual applicant's evaluation. Alternatively, there is a problem that it may not meet the talent image of the applicant company, or it may not meet the actual performance and performance after hiring.

본 발명은 온라인면접을 수행하고, 면접영상에 대하여 자동평가결과를 제공하는 서버시스템에서, 기업의 실제 평가, 채용, 고과 등에 실제로 부합하는 자동평가결과를 제공하도록 면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체를 제공하는 것을 그 목적으로 한다.The present invention is a method of managing an automatic evaluation model of an interview image to provide an automatic evaluation result that actually matches the actual evaluation, recruitment, and evaluation of a company in a server system that performs an online interview and provides an automatic evaluation result for an interview image , a system and a computer-readable medium for its purpose.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 1 이상의 프로세서 및 1 이상의 메모리를 갖는 서버 시스템에서 수행되고, 피평가자의 면접영상에 대하여 자동적인 평가결과를 제공하는 평가모델을 관리하는 방법으로서, 피평가자가 온라인면접시에 수행한 면접영상에 대한 평가자들의 영상평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 영상평가결과학습단계; 및 해당 피평가자의 지원기업에서의 실제 채용면접에서의 채용평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 상기 평가모델을 학습하는 채용평가결과학습단계;를 포함하고, 상기 평가모델은 기계학습된 1 이상의 세부평가모델을 포함하는, 평가모델을 관리하는 방법을 제공한다.In order to solve the above problems, an embodiment of the present invention manages an evaluation model that is performed in a server system having one or more processors and one or more memories, and provides automatic evaluation results for an interview image of a person to be evaluated A method comprising: an image evaluation result learning step of learning an evaluation model that provides an automatic evaluation result for an interview image of the server system according to the image evaluation results of the evaluators for the interview image performed by the evaluator during the online interview; and a recruitment evaluation result learning step of learning the evaluation model that provides an automatic evaluation result for the interview image of the server system according to the result of the employment evaluation in the actual employment interview in the company applying for the subject to be evaluated. The evaluation model provides a method of managing an evaluation model, including one or more detailed evaluation models that have been machine-learned.

본 발명의 일 실시예에서는, 상기 평가모델을 관리하는 방법은, 해당 피평가자의 지원기업에서의 실제 채용 후 업무능력에 대한 고과평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 고과평가결과학습단계;를 더 포함할 수 있다.In one embodiment of the present invention, the method for managing the evaluation model provides an automatic evaluation result for the interview image of the server system according to the high evaluation result of the job ability after the actual hiring of the subject to be evaluated in the supporting company It may further include a high-performance evaluation result learning step of learning the evaluation model.

본 발명의 일 실시예에서는, 상기 평가모델을 관리하는 방법은, 수신된 면접영상에 대해 면접영상에서 지원하고자 하는 기업측에 대하여 상기 평가모델에 기초하여 도출된 자동평가결과를 제공하는 평가결과제공단계를 더 포함하고, 상기 평가모델은 피평가자가 온라인 면접을 지원하고자 하는 기업별로 각각 상기 서버 시스템에 구비될 수 있다.In an embodiment of the present invention, the method for managing the evaluation model provides an evaluation result that provides an automatic evaluation result derived based on the evaluation model for a company that wants to support the received interview image from the interview image The method further includes the step of, wherein the evaluation model may be provided in the server system for each company for which the evaluated person wishes to support the online interview.

본 발명의 일 실시예에서는, 상기 평가모델은, 면접영상에 대하여 공통적인 특징정보를 도출하는 공통평가모델; 상기 공통적인 특징정보에 기초하여, 상기 영상평가결과와 관련된 평가결과를 도출하는 영상평가결과예측모델; 및 상기 공통적인 특징정보에 기초하여, 상기 채용평가결과와 관련된 평가결과를 도출하는 채용평가결과예측모델;를 포함하고, 상기 평가자들의 종합평가결과에 의하여 상기 공통평가모델 및 상기 영상평가결과예측모델이 학습되고, 상기 평가자들의 채용평가결과에 의하여 상기 공통평가모델 및 상기 채용평가결과예측모델이 학습될 수 있다.In one embodiment of the present invention, the evaluation model, a common evaluation model for deriving common characteristic information for the interview image; an image evaluation result prediction model for deriving an evaluation result related to the image evaluation result based on the common characteristic information; and a recruitment evaluation result prediction model for deriving an evaluation result related to the employment evaluation result based on the common characteristic information, wherein the common evaluation model and the image evaluation result prediction model according to the comprehensive evaluation results of the evaluators This is learned, and the common evaluation model and the employment evaluation result prediction model can be learned according to the employment evaluation results of the evaluators.

본 발명의 일 실시예에서는, 상기 평가모델은, 면접영상에 대하여 공통적인 특징정보를 도출하는 공통평가모델; 상기 공통적인 특징정보에 기초하여, 상기 영상평가결과와 관련된 평가결과를 도출하는 영상평가결과예측모델; 상기 공통적인 특징정보에 기초하여, 상기 채용평가결과와 관련된 평가결과를 도출하는 채용평가결과예측모델; 및 상기 공통적인 특징정보에 기초하여, 상기 고과평가결과와 관련된 평가결과를 도출하는 고과평가결과예측모델을 포함하고, 상기 평가자들의 종합평가결과에 의하여 상기 공통평가모델 및 상기 영상평가결과예측모델이 학습되고, 상기 평가자들의 채용평가결과에 의하여 상기 공통평가모델 및 상기 채용평가결과예측모델이 학습되고, 상기 평가자들의 고과평가결과에 의하여 상기 공통평가모델 및 상기 고과평가결과예측모델이 학습될 수 있다.In one embodiment of the present invention, the evaluation model, a common evaluation model for deriving common characteristic information for the interview image; an image evaluation result prediction model for deriving an evaluation result related to the image evaluation result based on the common characteristic information; an employment evaluation result prediction model for deriving an evaluation result related to the employment evaluation result based on the common characteristic information; and a high evaluation result prediction model for deriving evaluation results related to the high evaluation result based on the common characteristic information, wherein the common evaluation model and the image evaluation result prediction model are determined by the comprehensive evaluation results of the evaluators. is learned, the common evaluation model and the employment evaluation result prediction model are learned according to the employment evaluation results of the evaluators, and the common evaluation model and the high evaluation result prediction model are learned according to the high evaluation results of the evaluators. .

본 발명의 일 실시예에서는, 상기 평가모델은, 면접영상에 대하여 공통적인 특징정보를 도출하는 공통평가모델;을 포함하고, 상기 공통평가모델은, 상기 면접영상의 복수의 프레임의 이미지정보로부터 복수의 영상특징정보를 도출하는 공간 특징정보를 추출하는 제1딥뉴럴네트워크; 상기 면접영상의 복수의 음성정보로부터 복수의 음성특징정보를 도출하는 공간 특징정보를 추출하는 제1딥뉴럴네트워크; 상기 복수의 영상특징정보를 수신하여 제1특징정보를 도출하는 제1순환신경망 모듈; 및 상기 복수의 음성특징정보를 수신하여 제2특징정보를 도출하는제2순환신경망모듈;을 포함할 수 있따.In an embodiment of the present invention, the evaluation model includes a common evaluation model for deriving common feature information for the interview image, and the common evaluation model includes a plurality of images from a plurality of frames of the interview image. a first deep neural network for extracting spatial feature information for deriving image feature information of ; a first deep neural network for extracting spatial feature information for deriving a plurality of voice feature information from a plurality of voice information of the interview image; a first cyclic neural network module for receiving the plurality of image feature information and deriving first feature information; and a second recurrent neural network module that receives the plurality of voice feature information and derives second feature information.

본 발명의 일 실시예에서는, 상기 평가모델을 관리하는 방법은, 수신된 면접영상에 대해 면접영상에서 지원하고자 하는 기업측에 대하여 상기 평가모델에 기초하여 도출된 자동평가결과를 제공하는 평가결과제공단계를 더 포함하고, 상기 자동평가결과는, 상기 영상평가결과와 관련된 평가예측결과, 및 상기 채용평가결과와 관련된 평가예측결과를 포함할 수 있다.In an embodiment of the present invention, the method for managing the evaluation model provides an evaluation result that provides an automatic evaluation result derived based on the evaluation model for a company that wants to support the received interview image from the interview image The method may further include a step, wherein the automatic evaluation result may include an evaluation prediction result related to the image evaluation result, and an evaluation prediction result related to the employment evaluation result.

본 발명의 일 실시예에서는, 상기 평가모델을 관리하는 방법은, 수신된 면접영상에 대해 면접영상에서 지원하고자 하는 기업측에 대하여 상기 평가모델에 기초하여 도출된 자동평가결과를 제공하는 평가결과제공단계를 더 포함하고,In an embodiment of the present invention, the method for managing the evaluation model provides an evaluation result that provides an automatic evaluation result derived based on the evaluation model for a company that wants to support the received interview image from the interview image further comprising the steps of

상기 자동평가결과는, 상기 영상평가결과에 의하여 학습된 1 이상의 세부평가모델 및 상기 채용평가결과에 의하여 학습된 1 이상의 세부평가모델의 평가값에 기초한 면접영상에 대한 종합적인 평가결과를 포함할 수 있다.The automatic evaluation result may include a comprehensive evaluation result for the interview image based on the evaluation values of one or more detailed evaluation models learned by the image evaluation result and one or more detailed evaluation models learned by the employment evaluation result. there is.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 1 이상의 프로세서 및 1 이상의 메모리를 갖는 서버 시스템에서 수행되고, 피평가자의 면접영상에 대하여 자동적인 평가결과를 제공하는 평가모델을 관리하는 방법으로서, 피평가자가 온라인면접시에 수행한 면접영상에 대한 평가자들의 영상평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 영상평가결과학습단계; 및 해당 피평가자의 지원기업에서의 실제 채용 후 업무능력에 대한 고과평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 고과평가결과학습단계;를 포함하고, 상기 평가모델은 기계학습된 1 이상의 세부평가모델을 포함하는, 평가모델을 관리하는 방법을 제공한다.In order to solve the above problems, an embodiment of the present invention manages an evaluation model that is performed in a server system having one or more processors and one or more memories, and provides automatic evaluation results for an interview image of a person to be evaluated A method comprising: an image evaluation result learning step of learning an evaluation model that provides an automatic evaluation result for an interview image of the server system according to the image evaluation results of the evaluators for the interview image performed by the evaluator during the online interview; and a high evaluation result learning step of learning an evaluation model that provides an automatic evaluation result for the interview image of the server system according to the high evaluation result of the job ability after the actual hiring of the subject to be evaluated in the supporting company; The evaluation model provides a method for managing an evaluation model, including one or more machine-learned detailed evaluation models.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 피평가자의 면접영상에 대하여 자동적인 평가결과를 제공하는 평가모델을 관리하는 서버 시스템으로서, 피평가자가 온라인면접시에 수행한 면접영상에 대한 평가자들의 영상평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 영상평가결과학습부; 및 해당 피평가자의 지원기업에서의 실제 채용면접에서의 채용평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 상기 평가모델을 학습하는 채용평가결과학습부;를 포함하고, 상기 평가모델은 기계학습된 1 이상의 세부평가모델을 포함하는, 평가모델을 관리하는 서버 시스템을 제공한다.In order to solve the above problems, an embodiment of the present invention is a server system for managing an evaluation model that provides an automatic evaluation result for an interview image of a person to be evaluated. an image evaluation result learning unit for learning an evaluation model that provides an automatic evaluation result for the interview image of the server system according to the image evaluation result of the evaluators; and a recruitment evaluation result learning unit that learns the evaluation model that provides an automatic evaluation result for the interview image of the server system according to the result of the employment evaluation in the actual employment interview in the company applying for the subject to be evaluated; The evaluation model provides a server system for managing the evaluation model, including one or more machine-learned detailed evaluation models.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는, 전술한 평가모델을 관리하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체을 제공한다.In order to solve the above problems, an embodiment of the present invention provides a computer-readable recording medium in which a program for performing the method for managing the above-described evaluation model is recorded.

도 1은 본 발명의 일 실시예에 따른 면접영상 자동평가모델을 관리하는 방법의 전체적인 시스템 형태를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 서버 시스템의 내부 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 평가모델을 학습하는 단계들을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 면접영상저장부의 동작에 따른 피평가자단말기에서의 화면을 개략적으로 도시한다.
도 5은 본 발명의 일 실시예에 따른 면접영상평가부의 동작을 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 평가모델을 구성하는 내부 모델들을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 평가모델의 내부 구조를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 평가모델의 학습단계들을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 공통평가모델의 내부구성을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 부분평가모델의 내부구성을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 평가결과제공부의 동작에 의한 사용자단말기에서의 표시화면의 일 예를 도시한다.
도 12는 본 발명의 일 실시예에 따른 평가결과제공부의 동작에 의한 사용자단말기에서의 표시화면의 일 예를 도시한다.
도 13은 본 발명의 일 실시예에 따른 평가결과제공부의 동작에 의한 사용자단말기에서의 표시화면의 일 예를 도시한다.
1 schematically shows the overall system form of a method for managing an automatic interview image evaluation model according to an embodiment of the present invention.
2 schematically shows an internal configuration of a server system according to an embodiment of the present invention.
3 schematically shows steps for learning an evaluation model according to an embodiment of the present invention.
4 schematically shows a screen in the terminal to be evaluated according to the operation of the interview image storage unit according to an embodiment of the present invention.
5 schematically shows the operation of the interview image evaluation unit according to an embodiment of the present invention.
6 schematically shows internal models constituting an evaluation model according to an embodiment of the present invention.
7 schematically shows an internal structure of an evaluation model according to an embodiment of the present invention.
8 schematically shows learning steps of an evaluation model according to an embodiment of the present invention.
9 schematically shows the internal configuration of a common evaluation model according to an embodiment of the present invention.
10 schematically shows the internal configuration of a partial evaluation model according to an embodiment of the present invention.
11 illustrates an example of a display screen in a user terminal by an operation of an evaluation result providing unit according to an embodiment of the present invention.
12 illustrates an example of a display screen in a user terminal by an operation of an evaluation result providing unit according to an embodiment of the present invention.
13 illustrates an example of a display screen in a user terminal by an operation of an evaluation result providing unit according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or to reproduce one or more processors. Accordingly, as an example, '~' indicates components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network;LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The "user terminal" referred to below may be implemented as a computer or portable terminal that can access a server or other terminal through a network. Here, the computer includes, for example, a laptop, a desktop, a laptop, etc. equipped with a web browser (WEB Browser), and the portable terminal is, for example, a wireless communication device that guarantees portability and mobility. , PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code) Division Multiple Access)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro) terminals, etc. may include all types of handheld-based wireless communication devices. In addition, "network" refers to a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN), or a mobile radio communication network or satellite. It may be implemented in any kind of wireless network such as a communication network.

도 1은 본 발명의 일 실시예에 따른 온라인 면접이 수행되거나 혹은 면접영상 자동평가모델을 관리하는 방법에 따른 서버시스템(1000)의 전체적인 형태를 개략적으로 도시한다. 1 schematically shows the overall form of a server system 1000 according to a method for performing an online interview or managing an automatic interview image evaluation model according to an embodiment of the present invention.

도 1에 도시된 서버시스템(1000)에서는 자동화된 방식으로 피평가자단말기로부터 면접영상을 수신하고, 이에 대해 기계학습된 평가모델을 통하여 소프트 스킬 등에 대한 자동평가결과를 접속된 회원, 지원기관(회사), 평가자 단말기 등에 제공할 수 있다. 본 발명의 바람직한 실시예에서는 상기 서버시스템(1000)은 실제의 온라인 면접이 수행되는 데 이용되고, 피평가자단말기는 해당 기업에 지원하고자 하는 사용자의 단말기에 해당하고, 평가자단말기는 상기 피평가자단말기에 의하여 제공되는 면접영상에 대한 평가결과, 혹은 해당 면접영상의 지원자에 대한 평가결과를 제공하는 단말기에 해당할 수 있다.In the server system 1000 shown in FIG. 1, an interview image is received from the terminal to be evaluated in an automated manner, and the automatic evaluation result for soft skills, etc. is transmitted through the machine-learned evaluation model to the connected member, support organization (company) , it can be provided to the evaluator terminal, etc. In a preferred embodiment of the present invention, the server system 1000 is used to conduct an actual online interview, the terminal to be evaluated corresponds to a terminal of a user who wants to apply for the company, and the terminal to be evaluated is provided by the terminal to be evaluated. It may correspond to a terminal that provides an evaluation result for an interview image being used, or an evaluation result for an applicant of the interview image.

즉, 도 1에 도시된 서버시스템(1000)은 지원자의 특정 기관에 대한 실제 온라인 면접을 수행하는 시스템으로 이용될 수도 있다. 이 경우, 피평가자단말기로부터 수신한 면접영상 등의 면접 결과는 기관의 단말기에 송신될 수 있다.That is, the server system 1000 shown in FIG. 1 may be used as a system for performing an actual online interview with a specific institution of the applicant. In this case, the interview results such as the interview image received from the terminal of the person to be evaluated may be transmitted to the terminal of the institution.

또한, 도 1에 도시된 서버시스템(1000)은 평가자단말기에서 접속하여 평가정보를 입력하는 형태로 이용될 수 있다. 이 경우, 서버시스템(1000)의 평가모델학습부(1600)는 평가자단말기 등에서 입력된 평가정보에 기초하여 자동평가모델을 학습 및 개선시킬 수 있다.In addition, the server system 1000 shown in FIG. 1 may be used in the form of accessing the evaluator terminal to input evaluation information. In this case, the evaluation model learning unit 1600 of the server system 1000 may learn and improve the automatic evaluation model based on the evaluation information input from the evaluator terminal or the like.

이와 같이, 도 1에 도시된 서버시스템(1000)은 피평가자단말기로부터 면접영상을 수신하고, 이에 대한 자동평가정보를 기관단말기, 평가자단말기 및 피평가자단말기 중 1 이상에 대해 송신을 할 수 있다. 동시에 상기 서버시스템(1000)은 평가자단말기 등으로부터 수신한 평가결과를 통하여 서버시스템(1000)의 평가모델을 학습 혹은 개선시킬 수 있는 복합적인 기능을 수행할 수 있다. In this way, the server system 1000 shown in FIG. 1 may receive the interview image from the terminal to be evaluated, and transmit automatic evaluation information about it to one or more of the institution terminal, the terminal of the assessee, and the terminal of the assessee. At the same time, the server system 1000 may perform a complex function of learning or improving the evaluation model of the server system 1000 through the evaluation result received from the evaluator terminal.

이하에서는, 상기 서버시스템(1000)이 실제 온라인면접에 이용이 되고, 이후 다양한 학습데이터에 의하여 자동평가모델이 개선 및 관리되는 방법을 중심으로, 본 발명의 서버시스템(1000)에 대해서 설명하도록 한다.Hereinafter, the server system 1000 of the present invention will be described with a focus on the method in which the server system 1000 is used for an actual online interview, and then the automatic evaluation model is improved and managed by various learning data. .

도 1의 피평가자단말기, 평가자단말기는 전술한 사용자 단말에 해당할 수 있고, 서버시스템(1000)은 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치에 해당한다.The terminal to be evaluated and the terminal to be evaluated in FIG. 1 may correspond to the user terminals described above, and the server system 1000 corresponds to a computing device including one or more processors and one or more memories.

평가자단말기는 온라인면접에서의 채용측, 즉 기업측 담당자가 이용하는 단말기, 혹은 면접영상 혹은 지원자에 대한 평가결과를 서버시스템(1000)으로 송신하는 단말기가 이에 해당할 수 있다.The evaluator terminal may correspond to a terminal used by a hiring side in an online interview, that is, a company-side person in charge, or a terminal that transmits an interview image or an evaluation result of an applicant to the server system 1000 .

피평가자단말기 혹은 평가자단말기는 상기 서버시스템(1000)에 웹브라우져 프로그램을 통하여 접속하거나 혹은 전용 애플리케이션을 통하여 서버시스템(1000)에 접속할 수 있다.The terminal to be evaluated or the terminal to be evaluated may access the server system 1000 through a web browser program or may access the server system 1000 through a dedicated application.

피평가자단말기 혹은 평가자단말기는 사용자 각각의 계정으로 상기 서버시스템(1000)에 로그인하여 상기 서버시스템(1000)의 서비스를 이용할 수 있다.The terminal to be evaluated or the terminal to be evaluated may log in to the server system 1000 with each user's account and use the service of the server system 1000 .

피평가자단말기 혹은 평가자단말기는 각각 상이한 형태의 계정, 예를 들어 지원자(피평가자) 타입의 계정, 평가자 타입의 계정, 및 기관 타입(채용을 하고자 하는 기업 등)의 계정으로 상기 서버시스템(1000)에 로그인할 수 있다.The evaluator terminal or the evaluator terminal logs in to the server system 1000 with different types of accounts, for example, an applicant (evaluator) type account, an evaluator type account, and an institution type (company to be hired, etc.) can do.

도 2는 본 발명의 일 실시예에 따른 서버시스템(1000)의 내부 구성을 개략적으로 도시한다.2 schematically shows an internal configuration of a server system 1000 according to an embodiment of the present invention.

본 발명의 서버시스템(1000)은 실제 기업과 온라인 면접을 수행하는 시스템으로 이용될 수도 있다. 구체적으로, 지원자가 피평가자단말기를 통하여 면접영상을 서버시스템(1000)에 전송하고, 서버시스템(1000)은 수신한 면접영상 및/또는 자동화된 평가정보 등을 기관의 단말기(평가자단말기)에 제공할 수도 있다. The server system 1000 of the present invention may be used as a system for conducting an online interview with an actual company. Specifically, the applicant transmits the interview image to the server system 1000 through the terminal to be evaluated, and the server system 1000 provides the received interview image and/or automated evaluation information to the terminal (evaluator terminal) of the institution. may be

동시에, 본 발명의 서버시스템(1000)은 자동적으로 평가정보를 생성하는 평가모델을 보다 개선시키는 동작을 수행할 수 있다.At the same time, the server system 1000 of the present invention may perform an operation of further improving the evaluation model for automatically generating evaluation information.

한편, 본 발명의 서버시스템(1000)은 물리적으로 단일의 서버가 아닌 복수의 서버를 포함하는 형태로 구현될 수 있다. 예를들어, 평가모델학습부(1600)가 별도의 물리적 서버로 구성될 수도 있다. 또한, DB에 포함된 평가모델이 별도의 서버로 구현될 수도 있다.Meanwhile, the server system 1000 of the present invention may be implemented in a form including a plurality of servers rather than a single server physically. For example, the evaluation model learning unit 1600 may be configured as a separate physical server. In addition, the evaluation model included in the DB may be implemented as a separate server.

질문세트설정부(1100)는 면접영상을 수신하기 위해 피평가자단말기에서 재생되는 질문컨텐츠에 대한 질문세트를 구성한다. The question set setting unit 1100 configures a question set for question content reproduced in the terminal to be evaluated in order to receive the interview image.

바람직하게는, 피평가자가 지원하고자 하는 기관에 대한 정보를 입력하고, 상기 질문세트설정부(1100)는 해당 기관에서 설정한 질문정보에 따라 질문세트를 결정할 수 있따. Preferably, the examinee inputs information on an institution to which the examinee wants to apply, and the question set setting unit 1100 may determine a question set according to the question information set by the relevant institution.

상기 서버시스템(1000)에는 각각의 온라인면접이 수행되는 기업별로 기업이 온라인면접에서 진행하고자 하는 질문컨텐츠가 저장되어 있고, 이와 같은 질문컨텐츠는 텍스트, 영상, 음성 중 1 이상으로 구현될 수 있다.In the server system 1000, question content that a company wants to conduct in an online interview is stored for each company in which each online interview is performed, and such question content may be implemented as one or more of text, video, and audio.

즉, 서버시스템(1000)이 실제 온라인면접을 수행하는 경우에는 질문세트설정부(1100)은 지원자가 지원하고자 하는 기업에 대한 질문리스트에 기초하여 질문세트가 생성된다.That is, when the server system 1000 performs an actual online interview, the question set setting unit 1100 generates a question set based on a list of questions about a company to which the applicant wants to apply.

이후, 면접영상저장부(1200)는 질문세트의 질문을 순차적으로 혹은 무작위로 추출하여 이를 피평가자단말기에 전송하고, 피평가자단말기에서 사용자는 해당 질문을 파악한 후에, 이에 대한 응답영상을 서버시스템(1000)으로 전송한다.Thereafter, the interview image storage unit 1200 extracts the questions of the question set sequentially or randomly and transmits them to the terminal to be evaluated, and after the user identifies the question in the terminal to be evaluated, the response image is sent to the server system (1000) send to

면접영상저장부(1200)는 1 이상의 질문정보 혹은 질문컨텐츠를 피평가자단말기에 송신하고, 상기 피평가자단말기로부터 상기 질문정보에 응답을 수행한 면접영상을 수신하여 저장한다.The interview image storage unit 1200 transmits one or more pieces of question information or question content to a terminal to be evaluated, and receives and stores an interview image in which a response to the question information is performed from the terminal to be evaluated.

상기 질문정보는 질문텍스트, 질문음성, 및 질문영상 중 1 이상의 형태로 구현될 수 있다.The question information may be implemented in the form of one or more of a question text, a question voice, and a question image.

구체적으로, 피평가자단말기에서는 질문정보에 따른 질문이 표시 혹은 재생이 되는 인터페이스가 제공하고, 사용자단말기에 구비된 카메라 및 마이크에 의하여 촬영된 면접영상을 피평가자단말기로부터 서버시스템(1000)으로 송신되어, 해당 면접영상에 대한 식별정보와 함께 DB에 저장한다.Specifically, in the terminal to be evaluated, an interface in which a question according to the question information is displayed or reproduced is provided, and the interview image captured by the camera and microphone provided in the user terminal is transmitted from the terminal to the server to the server system 1000, and the corresponding It is stored in DB together with identification information about the interview image.

평가정보수신부(1300)는 온라인면접을 수행함에 있어서 관련된 평가결과, 혹은 평가모델을 학습시키기 위한 영상면접 혹은 해당 지원자에 대한 평가결과를 수신한다. 이와 같은 평가정보수신부(1300)는 도 1에 도시된 평가자단말기로부터 평가결과를 수신하거나 혹은 서버시스템(1000)의 관리자에 의하여 평가결과를 수신할 수 있다.The evaluation information receiving unit 1300 receives an evaluation result related to the online interview, a video interview for learning an evaluation model, or an evaluation result of the applicant. The evaluation information receiving unit 1300 may receive the evaluation result from the evaluator terminal shown in FIG. 1 or may receive the evaluation result from the manager of the server system 1000 .

면접영상평가부(1400)는 기계학습을 이용한 평가모델을 통하여 상기 면접영상에 대한 자동평가정보를 생성한다. 바람직하게는, 상기 평가모델은 기계학습 기반의 1 이상의 세부평가모델을 포함하고, 더욱 바람직하게는 딥러닝 기반의 1 이상의 세부평가모델을 포함할 수 있다.The interview image evaluation unit 1400 generates automatic evaluation information for the interview image through an evaluation model using machine learning. Preferably, the evaluation model may include one or more detailed evaluation models based on machine learning, and more preferably, one or more detailed evaluation models based on deep learning.

즉, 서버시스템(1000)은 상기 면접영상을 수신한 후에, 평가모델을 이용하여 자동적으로 평가를 수행하고, 이를 통하여 자동평가정보를 생성한다. 자동평가정보는 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈마주침, 친절함, 습관의 사용여부, 및 유쾌함 중 1 이상을 포함하는 면접과 관련된 영상평가결과; 해당 지원자가 실제 기업에서의 채용 심사를 받는 경우에 판단되는 지원동기, 도전정신, 전문성, 협력성, 회사인재상부합정보 중 1 이상을 포함하는 채용평가결과; 및 해당 지원자가 지원기업에 실제로 채용되고, 이후 고과평가를 받을 때 판단되는 근무성실도, 관리역량, 업무역량, 종합고과등급 중 1 이상을 포함하는 고과평가결과 중 1 이상을 포함할 수 있다. 더욱 바람직하게는, 상기 자동평가결과는 상기 영상평가결과, 상기 채용평가결과, 및 상기 고과평가결과 중 2 이상을 고려하여 산출되는 종합평가결과를 포함할 수 있다.That is, after receiving the interview image, the server system 1000 automatically evaluates using the evaluation model, and generates automatic evaluation information through this. The automatic evaluation information includes an interview-related video evaluation result including at least one of favorable sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, kindness, use of habits, and pleasantness; Recruitment evaluation results including at least one of application motive, challenging spirit, professionalism, cooperation, and company talent matching information, which are judged when the applicant undergoes an actual company hiring review; and one or more of the high evaluation results including one or more of the work integrity, management competency, work competency, and comprehensive evaluation grade that are judged when the applicant is actually hired by the supporting company and then undergoes a high evaluation. More preferably, the automatic evaluation result may include a comprehensive evaluation result calculated in consideration of two or more of the image evaluation result, the employment evaluation result, and the high evaluation result.

상기 영상평가결과는 개방성, 성실성, 외향성, 친화성, 및 신경성 중 1 이상을 포함하는 성격특징; 시선처리, 머리움직임, 음성높낮이, 음성높낮이, 음성크기, 및 감정 중 1 이상의 태도특징에 대한 정량적 정보 중 1 이상을 포함할 수도 있다.The image evaluation result includes personality characteristics including at least one of openness, conscientiousness, extraversion, affinity, and neuroticism; It may include one or more of quantitative information on at least one attitude characteristic of gaze processing, head movement, voice pitch, voice pitch, voice volume, and emotion.

바람직하게는, 상기 평가모델은 1 이상의 딥러닝 기반의 학습된 인공신경망 모듈을 포함한다. 상기 평가모델은 학습된 인공신경망 모듈뿐만 아니라 기설정된 규칙에 기반한 세부평가모델을 더 포함할 수도 있다. 즉, 본 발명의 일 실시예에서는, 상기 평가모델은 학습된 인공신경망 모듈 및 규칙에 기반한 세부평가모델을 복합적으로 이용하는 형태에 해당할 수 있다.Preferably, the evaluation model includes one or more deep learning-based trained artificial neural network modules. The evaluation model may further include a detailed evaluation model based on a preset rule as well as the learned artificial neural network module. That is, in an embodiment of the present invention, the evaluation model may correspond to a form in which a detailed evaluation model based on a learned artificial neural network module and a rule is used in combination.

상기 평가결과제공부(1500)는 상기 자동평가정보에 기초하여 사용자단말기에 자동평가결과를 제공한다. 구체적으로, 상기 평가결과제공부(1500)는 자동평가정보 혹은 상기 자동평가정보가 가공된 형태의 데이터(자동평가정보가 반영된 인터페이스 구현과 관련된 데이터)를 사용자단말기(예를들어 기업의 인사팀의 단말)에 전송하고, 사용자단말기의 웹브라우져 및 전용애플리케이션에서는 사용자의 선택에 따라 다양한 평가정보가 디스플레이된다.The evaluation result providing unit 1500 provides an automatic evaluation result to the user terminal based on the automatic evaluation information. Specifically, the evaluation result providing unit 1500 transmits the automatic evaluation information or the processed data of the automatic evaluation information (data related to the implementation of the interface in which the automatic evaluation information is reflected) to the user terminal (for example, the terminal of the personnel team of the company) ), and various evaluation information is displayed according to the user's selection in the web browser and dedicated application of the user terminal.

상기 서버시스템(1000)의 기본적인 동작은 피평가자단말기로부터 수신한 면접영상에 대한 자동적 평가정보를 도출하여, 온라인면접을 수행함에 있어서 평가자측의 영상확인에 대한 부담을 덜어주는 것이다. The basic operation of the server system 1000 is to derive automatic evaluation information for the interview image received from the terminal of the evaluator, thereby reducing the burden on the evaluator's image confirmation in performing the online interview.

한편, 본 발명의 일 실시예에서는 서버시스템(1000)은 평가모델을 학습시키는 데에 이용될 수도 있다. 이와 같은 기능은 평가모델학습부(1600)가 수행한다. 즉, 평가모델학습부(1600)는 피평가자의 면접영상에 대하여 자동적인 평가결과를 제공하는 평가모델을 학습시키는 방법을 수행한다.Meanwhile, in an embodiment of the present invention, the server system 1000 may be used to train an evaluation model. Such a function is performed by the evaluation model learning unit 1600 . That is, the evaluation model learning unit 1600 performs a method of learning an evaluation model that provides an automatic evaluation result with respect to the interview image of the subject.

상기 평가모델학습부(1600)는 피평가자가 온라인면접시에 수행한 면접영상에 대한 평가자들의 영상평가결과에 의하여, 상기 서버시스템(1000)의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 영상평가결과학습부(1610); 해당 피평가자의 지원기업에서의 실제 채용면접에서의 채용평가결과에 의하여, 상기 서버시스템(1000)의 면접영상에 대한 자동평가결과를 제공하는 상기 평가모델을 학습하는 채용평가결과학습부(1620); 및 해당 피평가자의 지원기업에서의 실제 채용 후 업무능력에 대한 고과평가결과에 의하여, 상기 서버시스템(1000)의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 고과평가결과학습부(1630) 중 1 이상을 포함한다.The evaluation model learning unit 1600 learns an evaluation model that provides an automatic evaluation result for the interview image of the server system 1000 according to the image evaluation results of the evaluators for the interview image performed by the evaluator during the online interview. an image evaluation result learning unit 1610; a recruitment evaluation result learning unit 1620 for learning the evaluation model that provides an automatic evaluation result for the interview image of the server system 1000 according to the result of the employment evaluation in the actual employment interview at the company applying for the subject to be evaluated; and a high evaluation result learning unit 1630 that learns an evaluation model that provides an automatic evaluation result for the interview image of the server system 1000 according to the high evaluation result of the job ability after the actual hiring in the supporting company of the subject to be evaluated ), including one or more of

바람직하게는, 상기 평가모델학습부(1600)는 영상평가결과학습부(1610)를 기본적으로 포함하고, 상기 채용평가결과학습부(1620) 및 고과평가결과학습부(1630) 중 1 이상을 포함한다.Preferably, the evaluation model learning unit 1600 basically includes an image evaluation result learning unit 1610, and includes at least one of the employment evaluation result learning unit 1620 and the high evaluation result learning unit 1630. do.

평가모델학습부(1600)는 상기 평가자의 평가정보에 기초하여 상기 기계학습을 이용한 평가모델을 학습시킨다. 본 발명의 일 실시예에서는 서버시스템(1000)은 면접영상을 평가자단말기에 송신하고, 이와 같은 영상에 대한 평가를 평가자단말기로부터 수신할 수 있다. 이와 같은 평가자단말기로부터 수신한 평가결과는 온라인면접에서 이용되어, 해당 면접영상의 지원자를 채용함에 있어서 평가요소로 이용되면서, 동시에 서버시스템(1000)의 자동평가결과를 산출하는 평가모델을 학습하는 데 이용될 수 있다.The evaluation model learning unit 1600 learns the evaluation model using the machine learning based on the evaluation information of the evaluator. In an embodiment of the present invention, the server system 1000 may transmit the interview image to the evaluator terminal, and receive the evaluation of the image from the evaluator terminal. The evaluation result received from the evaluator terminal is used in the online interview and used as an evaluation factor in recruiting applicants for the interview video, while at the same time learning the evaluation model that calculates the automatic evaluation result of the server system 1000. can be used

이와 같은 평가모델학습부(1600)의 동작으로, 온라인면접이 진행되면서, 동시에 서버시스템(1000)은 평가모델의 성능을 자동적으로 지속적으로 개선할 수 있는 효과를 발휘할 수 있다.With the operation of the evaluation model learning unit 1600 as described above, while the online interview is in progress, the server system 1000 can exhibit the effect of automatically and continuously improving the performance of the evaluation model.

한편, 상기 서버시스템(1000)의 DB(1600)에는 피평가자단말기로부터 수신한 면접영상, 해당 면접영상에 대한 면접영상평가부(1400)에서 수행한 자동평가정보, 상기 평가정보수신부(1300)에서 수신한 평가정보(영상에 대한 평가정보, 해당 지원자에 대한 채용결과에 대한 정보, 해당 지원자의 실제 입사 후 고과정보), 피평가자 혹은 평가자의 사용자정보, 면접영상에서 대답을 해야 하는 질문에 대한 질문정보, 및 상기 면접영상평가부(1400)가 면접영상을 평가하는 데 이용이 되고, 상기 평가모델학습부(1600)에 의하여 추가적인 학습이 수행되는 평가모델이 저장되어 있을 수 있다. On the other hand, in the DB 1600 of the server system 1000, the interview image received from the terminal to be evaluated, the automatic evaluation information performed by the interview image evaluation unit 1400 for the interview image, and the evaluation information receiving unit 1300 are received one evaluation information (evaluation information about the video, information about the hiring result of the applicant, information about the actual performance after joining the applicant), user information of the person being evaluated or the evaluator, question information about the question to be answered in the interview video, And the interview image evaluation unit 1400 is used to evaluate the interview image, the evaluation model learning unit 1600 additional learning is performed by the evaluation model may be stored.

도 2에 도시된 서버시스템(1000)은 도시된 구성요소 외의 다른 요소들을 더 포함할 수 있으나, 편의상 본 발명의 실시예들에 따른 온라인 면접 수행, 및 평가모델에 대한 학습과 관련된 구성요소들만을 표시하였다. The server system 1000 shown in FIG. 2 may further include elements other than the elements shown, but for convenience, only the elements related to online interview performance and learning about the evaluation model according to embodiments of the present invention are included. indicated.

도 3은 본 발명의 일 실시예에 따른 평가모델을 학습하는 단계들을 개략적으로 도시한다.3 schematically shows steps for learning an evaluation model according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 피평가자의 면접영상에 대하여 자동적인 평가결과를 제공하는 평가모델을 관리하는 방법은 1 이상의 프로세서 및 1 이상의 메모리를 갖는 서버시스템(1000)에서 수행된다.The method for managing an evaluation model that provides an automatic evaluation result for an interview image of a person to be evaluated according to an embodiment of the present invention is performed in the server system 1000 having one or more processors and one or more memories.

단계 S10에서는 피평가자단말기에 질문컨텐츠를 제공하고, 피평가자단말기로부터 면접영상을 수신한다. In step S10, the question content is provided to the terminal to be evaluated, and an interview image is received from the terminal to be evaluated.

단계 S11에서는, 평가자단말기 등으로부터 상기 면접영상에 대한 영상평가결과를 수신한다. 바람직하게는, 지원자가 지원하고자 하는 기업의 인사팀 관계자 혹은 해당 기업과 관련된 채용담당자들이 상기 면접영상에 대해 수행한 평가가 상기 영상평가결과에 해당할 수 있다. 혹은 이와 같은 영상평가결과는 상기 서버시스템(1000)의 서비스를 제공하는 측에서 제공될 수도 있지만, 해당 기업에서 원하는 인재상에 부합하는 인재를 채용하고, 이에 따른 평가모델을 학습하기 위해서는 해당 기업의 채용기준 등을 알고 있는 해당 기업의 관계자가 진행하는 것이 바람직하다.In step S11, an image evaluation result for the interview image is received from an evaluator terminal or the like. Preferably, an evaluation performed on the interview image by a person in charge of a human resources team of a company to which the applicant wishes to apply or by hiring managers related to the company may correspond to the image evaluation result. Alternatively, such an image evaluation result may be provided by the side that provides the service of the server system 1000, but in order to hire a person who meets the desired talent image in the company and learn the evaluation model accordingly, the company's recruitment It is desirable for the person concerned with the relevant company who knows the standards, etc., to proceed.

단계 S11에서는 피평가자가 온라인면접시에 수행한 면접영상에 대한 평가자들의 영상평가결과에 의하여, 상기 서버시스템(1000)의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 영상평가결과학습단계가 수행된다. 이를 통하여, 해당 기업의 온라인면접을 수행하는 평가자 혹은 해당 기업의 채용판단기준이 평가모델에 반영될 수 있다.In step S11, an image evaluation result learning step of learning an evaluation model that provides an automatic evaluation result for the interview image of the server system 1000 based on the image evaluation results of the evaluators for the interview image performed by the evaluator during the online interview is performed Through this, the evaluator who conducts the online interview of the company or the criteria for judging the company's employment can be reflected in the evaluation model.

한편, 단계 S20에서는 상기 영상평가결과 등을 고려하여, 실제 온라인면접이 이루어지고, 온라인면접 이후에 실제 오프라인 등의 실제 면접이 이루어질 수 있다. 실제 면접을 통하여, 해당 기업은 해당 면접영상의 지원자에 대한 평가를 수행하고, 단계 S13은 기업의 시스템, 기업의 채용관련 담당자의 단말기로부터 해당 면접영상의 지원자의 채용평가결과를 수신할 수 있다. 혹은 상기 기업의 담당자로부터 전달받은 채용평가결과를 서버시스템(1000)의 서비스 관리자가 입력하는 방식으로 단계 S13이 수행될 수 있다.Meanwhile, in step S20, an actual online interview may be conducted in consideration of the video evaluation result, etc., and an actual offline interview may be performed after the online interview. Through the actual interview, the corresponding company evaluates the applicant of the interview image, and in step S13, the recruitment evaluation result of the applicant of the interview image may be received from the system of the enterprise and the terminal of the person in charge of recruitment of the enterprise. Alternatively, step S13 may be performed in such a way that the service manager of the server system 1000 inputs the employment evaluation result received from the person in charge of the company.

바람직하게는, 상기 채용평가결과는 해당 지원자에 대한 평가가 실질적으로 완료된 상태에서의 기업에서 평가한 결과에 해당한다. 상기 채용평가결과는 상기 면접영상에 대한 평가를 일부 포함할 수도 있지만, 실질적으로는 해당 기업이 최종적으로 해당 지원자에 대한 채용여부를 결정함에 있어서 판단한 1 이상의 항목에 대한 지표에 해당할 수 있다.Preferably, the employment evaluation result corresponds to a result evaluated by the company in a state in which evaluation of the applicant is substantially completed. The hiring evaluation result may include part of the evaluation of the interview video, but in reality, it may correspond to an index for one or more items determined by the company in determining whether to hire the applicant in the end.

즉, 채용평가결과는 면접영상에 대한 평가를 부분적으로 포함할 수도 있고, 혹은 포함하지 않을 수도 있는, 실제 기업에서 해당 지원자의 채용여부를 결정하는 평가결과에 해당한다. That is, the recruitment evaluation result corresponds to the evaluation result that determines whether or not the applicant is hired by the actual company, which may or may not include the evaluation of the interview video partially.

단계 S14에서는 해당 피평가자의 지원기업에서의 실제 채용면접에서의 채용평가결과에 의하여, 상기 서버시스템(1000)의 면접영상에 대한 자동평가결과를 제공하는 상기 평가모델을 학습하는 채용평가결과학습단계가 수행된다.In step S14, there is a recruitment evaluation result learning step of learning the evaluation model that provides the automatic evaluation result for the interview image of the server system 1000 according to the result of the employment evaluation in the actual employment interview in the applicant company of the subject to be evaluated. is carried out

이와 같은 학습단계에 의하여, 온라인면접을 수행하는 평가자의 판단 뿐만 아니라, 실제 기업의 채용을 진행하는 인사팀 담당자의 판단 및 실제 오프라인에서의 해당 지원자의 역량에 대한 판단 등이 상기 평가모델에 반영하게 된다. 이와 같은 과정을 통하여, 상기 평가모델은 면접영상과 실제 면접결과와의 상관성이 학습되고, 이에 따라 면접영상으로부터 실제 면접결과에 대한 예측이 가능하게 될 수 있으며, 동시에 영상평가결과의 예측도 보다 정교해질 수 있다.Through this learning step, not only the judgment of the evaluator who conducts the online interview, but also the judgment of the person in charge of the HR team who conducts the actual hiring of the company and the judgment of the applicant's competency in the actual offline are reflected in the evaluation model. . Through this process, the evaluation model learns the correlation between the interview image and the actual interview result, and accordingly, it is possible to predict the actual interview result from the interview image, and at the same time, the prediction of the image evaluation result is more sophisticated. can be done

이후, 단계 S20에서는 해당 지원자가 채용이 되고나서, 예를들어 1, 2년의 시간이 지난 후에, 해당 채용기업에서는 해당 지원자의 고과를 산출할 수 있다. 이후, 단계 S15는 해당평가자에 대한 고과평가결과를 수신한다. 마찬가지로, 단계 S15는 기업의 시스템, 기업의 고과평가관련 담당자의 단말기로부터 해당 면접영상의 지원자의 채용평가결과를 수신할 수 있다. 혹은 상기 기업의 담당자로부터 전달받은 채용평가결과를 서버시스템(1000)의 서비스 관리자가 입력하는 방식으로 단계 S15이 수행될 수 있다.Thereafter, in step S20, after the applicant is hired, for example, after one or two years have elapsed, the hiring company may calculate the high performance of the applicant. Thereafter, in step S15, a high evaluation result for the corresponding evaluator is received. Similarly, in step S15, the recruitment evaluation result of the applicant of the interview image may be received from the system of the company and the terminal of the person in charge of the high performance evaluation of the company. Alternatively, step S15 may be performed in such a way that the service manager of the server system 1000 inputs the employment evaluation result received from the person in charge of the company.

단계 S16에서는, 해당 피평가자의 지원기업에서의 실제 채용 후 업무능력에 대한 고과평가결과에 의하여, 상기 서버시스템(1000)의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 고과평가결과학습단계가 수행된다.In step S16, high evaluation result learning for learning the evaluation model that provides the automatic evaluation result for the interview image of the server system 1000 according to the high evaluation result of the job ability after the actual employment in the supporting company of the subject to be evaluated Steps are performed.

이와 같은 학습단계에 의하여, 온라인면접을 수행하는 평가자의 판단, 실제 기업의 채용을 진행하는 인사팀 담당자의 판단 및 실제 오프라인에서의 해당 지원자의 역량에 대한 판단 뿐만 아니라 해당 면접영상의 지원자의 실제 채용 후의 역량에 대한 실제적 판단이 상기 평가모델에 반영하게 된다. 이와 같은 과정을 통하여, 상기 평가모델은 면접영상과 실제 업무시의 업무역량과의 상관성이 학습되고, 이에 따라 면접영상으로부터 실제 업무시의 업무역량에 대한 예측이 가능하게 될 수 있으며, 동시에 영상평가결과의 예측도 보다 정교해질 수 있다.According to this learning step, not only the judgment of the evaluator who conducts the online interview, the judgment of the person in charge of the HR team who conducts the actual hiring of the company, and the judgment of the applicant's competency offline, but also the judgment of the applicant after the actual hiring of the interview video. The actual judgment on competency is reflected in the evaluation model. Through this process, the evaluation model learns the correlation between the interview image and the work competency during actual work, and accordingly, it is possible to predict the work capacity during the actual work from the interview image, and at the same time, the image evaluation Prediction of outcomes can also be more sophisticated.

이후, 단계 S17에서는 위와 같은 과정으로 학습된 평가모델에 의하여 이후 면접영상에 대한 자동평가결과를 산출하여, 이를 기업측으로 제공한다. 위의 단계 S11 내지 S16을 통하여, 평가모델은 실제 기업이 원하는 인재를 도출하는 판단을 보다 정확하게 할 수 있다.Thereafter, in step S17, an automatic evaluation result for the subsequent interview image is calculated by the evaluation model learned through the above process, and the result is provided to the company. Through the above steps S11 to S16, the evaluation model can make a more accurate determination of deriving the talent that the actual company wants.

특히 단계 S13을 통하여, 평가모델은 면접영상만으로 실제 지원자의 오프라인 면접 등을 통한 최종 채용 평가결과를 높은 정확도로 도출할 수 있고, 또한 단계 S15를 통하여, 평가모델은 면접영상만으로 실제 지원자가 해당 기업에서 근무할 때의 업무역량, 아웃풋 등을 높은 정확도로 도출할 수 있다. 또한, 단계 S13 및 S15를 통하여 상기 단계 S12에 따른 영상평가결과를 도출하는 평가모델의 정확도를 실제에 맞추어 높일 수 있는 효과를 발휘할 수 있다.In particular, through step S13, the evaluation model can derive with high accuracy the final recruitment evaluation result through an offline interview of an actual applicant only with the interview video, and also through step S15, the evaluation model is an interview video It is possible to derive work competency and output with high accuracy when working in In addition, through steps S13 and S15, it is possible to exhibit the effect of increasing the accuracy of the evaluation model for deriving the image evaluation result according to the step S12 according to the actual operation.

도 4은 본 발명의 일 실시예에 따른 면접영상저장부(1200)의 수행에 따른 사용자단말기에서의 표시화면을 개략적으로 도시한다.4 schematically shows a display screen in the user terminal according to the execution of the interview image storage unit 1200 according to an embodiment of the present invention.

본 발명의 일 실시예에서는, 사용자의 입력에 따라 상기 면접영상저장부(1200)는 사용자가 지원하고자 하는 기업에 대한 질문세트에 포함된 질문을 피평가자단말기에 전송하고, 피평가자단말기에서는 해당 질문에 대한 컨텐츠가 재생되고, 도 4의 (A), (B)의 과정이 수행된 이후에, 촬영된 면접영상을 서버시스템(1000)에 전송하고, 이후 서버시스템(1000)은 수신한 면접영상을 저장한다.In one embodiment of the present invention, according to the user's input, the interview image storage unit 1200 transmits a question included in a question set for a company to which the user wants to apply to the terminal to be evaluated, and the terminal to be evaluated responds to the question. After the content is played and the process of (A) and (B) of FIG. 4 is performed, the captured interview image is transmitted to the server system 1000, and then the server system 1000 stores the received interview image. do.

도 4의 (A)에서는 현재 촬영 영상에서 질문이 표시되면서, 카운트다운을 하는 디스플레이요소가 표시된다. 구체적으로 도 4의 (A)의 '7'은 7초 후에 영상촬영이 진행됨을 사용자에게 알리는 표시이다.In FIG. 4A , a display element for counting down is displayed while a question is displayed in the currently captured image. Specifically, '7' in FIG. 4(A) is a display indicating to the user that image shooting is in progress after 7 seconds.

도 4의 (B)에서는 도 4의 (A) 화면이 끝나고 영상촬영이 진행되는 화면을 도시한다. 도 4의 (B)에서는 사용자는 이전 화면에서의 질문에 대한 대답을 수행하고, 피평가자단말기에서는 이에 대한 영상을 촬영하여 서버시스템(1000)으로 전송한다.4(B) shows a screen in which image capturing is performed after the screen (A) of FIG. 4 is finished. In FIG. 4B , the user answers the question on the previous screen, and the terminal to be evaluated takes an image and transmits it to the server system 1000 .

도 5는 본 발명의 일 실시예에 따른 면접영상평가부(1400)의 동작을 개략적으로 도시한다.5 schematically shows the operation of the interview image evaluation unit 1400 according to an embodiment of the present invention.

면접영상평가부(1400)는 학습된 평가모델을 이용하여 해당 면접영상에 대한 분석을 수행한다. The interview image evaluation unit 1400 analyzes the interview image using the learned evaluation model.

상기 평가모델은 면접영상에 대한 평가를 수행하는 다양한 세부평가모델을 포함할 수 있다. 상기 세부평가모델은 딥러닝 기반의 학습된 평가모델에 기초하여 평가를 수행할 수 있는 세부평가모델에 해당하거나 혹은 학습이 아닌 기설정된 루틴 혹은 알고리즘에 따라 특징정보(예를 들어 시선의 위치)를 도출하고, 도출된 특징정보에 대한 평가를 수행하는 세부평가모델에 해당될 수 있다.The evaluation model may include various detailed evaluation models for evaluating the interview image. The detailed evaluation model corresponds to a detailed evaluation model that can perform evaluation based on the deep learning-based learned evaluation model, or features information (eg, the position of the gaze) according to a preset routine or algorithm rather than learning. It may correspond to a detailed evaluation model that derives and evaluates the derived characteristic information.

본 발명의 일 실시예에서는 상기 면접영상평가부(1400)는 기본적으로 영상 정보 및 음성 정보를 포함하는 면접영상을 입력 받고 딥러닝과 같은 기계학습기술을 통한 학습된 평가모델을 통하여 자동평가정보를 도출한다. In an embodiment of the present invention, the interview image evaluation unit 1400 basically receives an interview image including image information and audio information and automatically evaluates information through an evaluation model learned through machine learning technology such as deep learning. derive

또한, 이에 추가적으로, 상기 면접영상평가부(1400)는 기계학습이 아닌 기설정된 규칙에 따라 영상을 분석하고, 특정 평가값들을 도출할 수도 있다.Also, in addition to this, the interview image evaluation unit 1400 may analyze the image according to a preset rule rather than machine learning and derive specific evaluation values.

상기 세부평가모델은 동영상인 면접영상으로부터 음성 및 영상 정보를 추출하여 이를 각각 세부평가모델에 입력하여 결과값을 도출하거나 혹은 음성 및 영상 정보를 종합하여 세부평가모델에 입력하여 결과값을 도출할 수도 있다.The detailed evaluation model extracts audio and video information from the interview video, which is a moving picture, and inputs it to the detailed evaluation model to derive the result value, or synthesizes the audio and image information and inputs it into the detailed evaluation model to derive the result value. there is.

바람직하게는, 본 발명의 일 실시예에 따른 세부평가모델은 입모양을 통한 말하는 상태 여부를 추론하고, 이를 고려하여 면접영상의 피평가자를 평가하는 모듈을 포함할 수도 있다. 구체적으로 특정 세부평가모델은 면접영상에 포함된 얼굴 중에 입모양 부분을 별도로 검출하고 RNN, LSTM, GRU와 같은 시간적 개념이 포함된 인공 신경망 기술을 이용하여 말을 하고 있는 상태인지 아닌지를 구분하는 모듈을 포함하고, 이러한 정보를 기초하여 영상 정보와 음성 정보에 대해 어느 정도로 가중치로 평가에 영향을 줄 것인지를 자동으로 조절할 수 있도록 구성할 수도 있고, 이와 같은 가중치에 대해서도 학습하도록 모델을 구성할 수 있다.Preferably, the detailed evaluation model according to an embodiment of the present invention may include a module for inferring whether to speak through the shape of the mouth and evaluating the subject of the interview image in consideration of this. Specifically, the specific detailed evaluation model separately detects the mouth-shaped part of the face included in the interview image and uses artificial neural network technology that includes temporal concepts such as RNN, LSTM, and GRU to distinguish whether or not a person is speaking. and, based on this information, can be configured to automatically adjust how much weight will affect the evaluation of image information and audio information, and the model can be configured to learn about such weights. .

즉, 이와 같은 구성에서 면접영상에서 입모양을 통해 피평가자 혹은 화자가 말하는 상태가 아닌 경우 자동으로 영상 정보를 좀 더 중요하게 처리(일반 상태보다 상대적으로 높은 가중치를 부여)하고 음성 정보를 덜 중요하게 처리(일반 상태보다 상대적으로 낮은 가중치를 부여)할 수 있다.That is, in this configuration, if the subject or the speaker is not speaking through the mouth shape in the interview image in this configuration, the image information is automatically treated as more important (a relatively high weight is given than in the normal state) and the voice information is given less importance. It can be processed (weighed relatively lower than the normal state).

바람직하게는, 상기 평가모델은 면접영상의 복수의 프레임에서의 사용자의 시선의 복수의 위치정보를 추출하는 모듈을 포함할 수 있고, 이를 통하여 상기 평가결과제공부(1500)(1400)에 의하여 피평가자단말기에서 시선의 위치현황 및 시선의 이동현황에 대한 정보를 제공할 수 있다.Preferably, the evaluation model may include a module for extracting a plurality of positional information of the user's gaze from a plurality of frames of the interview image, and through this, the evaluation result providing units 1500 and 1400 provide The terminal may provide information on the positional status of the gaze and the movement status of the gaze.

바람직하게는, 상기 세부평가모델은 면접영상의 복수의 프레임에서의 사용자의 머리 움직임을 추출하는 모듈을 포함할 수 있고, 이를 통하여 상기 평가결과제공부(1500)에 의하여 피평가자단말기에서 머리 움직임에 대한 정보를 제공할 수 있다.Preferably, the detailed evaluation model may include a module for extracting the user's head movement from a plurality of frames of the interview image, and through this, the evaluation result providing unit 1500 provides information about the head movement in the terminal to be evaluated. information can be provided.

바람직하게는, 상기 세부평가모델은 복수의 프레임에서의 음성높낮이, 음성크기 등의 음성의 소리적 특성값을 추출하는 모듈을 포함할 수 있고, 이를 통하여 평가결과제공부(1500)에 의하여 피평가자단말기에서 음성에 대한 정보를 제공할 수 있다.Preferably, the detailed evaluation model may include a module for extracting sound characteristic values of voices, such as voice pitch and voice volume, in a plurality of frames, and through this, the evaluation result providing unit 1500 provides the evaluation result terminal can provide information about the voice.

바람직하게는, 상기 세부평가모델은 면접영상의 구간별로 감정요소들의 세기를 추출하는 모듈을 포함할 수 있고, 이를 통하여 평가결과제공부(1500)(1400)에 의하여 피평가자단말기에서 감정에 대한 정보를 제공할 수 있다. 이 경우, 상기 딥러닝으로 학습된 인공신경망에 의한 세부평가모델이 이용될 수 있다.Preferably, the detailed evaluation model may include a module for extracting the intensity of emotional elements for each section of the interview image, and through this, information on emotions is provided in the terminal of the person to be evaluated by the evaluation result providing units 1500 and 1400. can provide In this case, the detailed evaluation model by the artificial neural network learned by the deep learning may be used.

이와 같이 상기 평가모델은 1 이상의 세부평가모델을 포함할 수 있고, 상기 세부평가모델의 일부는 규칙에 기반한 세부평가모델이 될 수도 있지만, 바람직하게는 상기 평가모델은 1 이상의 기계학습된 세부평가모델 혹은 을 포함하고, 본 발명의 일 실시예에서는 평가모델을 학습한다는 것은 상기 세부평가모델을 학습시키는 것을 의미한다.As such, the evaluation model may include one or more detailed evaluation models, and a part of the detailed evaluation model may be a detailed evaluation model based on rules, but preferably, the evaluation model is one or more machine-learned detailed evaluation models. or , and in an embodiment of the present invention, learning the evaluation model means learning the detailed evaluation model.

도 6은 본 발명의 일 실시예에 따른 서버시스템(1000)에 구축된 평가모델들을 개략적으로 도시한다.6 schematically shows evaluation models built in the server system 1000 according to an embodiment of the present invention.

전술한 바와 같이 상기 평가모델을 관리하는 방법을 수행하는 서버시스템(1000)은 수신된 면접영상에 대해 면접영상에서 지원하고자 하는 기업측에 대하여 상기 평가모델에 기초하여 도출된 자동평가결과를 제공하는 평가결과제공부(1500)를 포함한다.As described above, the server system 1000 for performing the method of managing the evaluation model provides an automatic evaluation result derived based on the evaluation model to the company that wants to support the received interview image in the interview image. and an evaluation result providing unit 1500 .

바람직하게는, 상기 평가모델은 피평가자가 온라인 면접을 지원하고자 하는 기업별로 각각 상기 서버시스템(1000)에 구비된다.Preferably, the evaluation model is provided in the server system 1000 for each company for which the evaluated person wishes to support the online interview.

이와 같은 방식을 통하여, 각각의 기업이 원하는 인재의 기준이 각각 평가모델로 서버시스템(1000)에서 구축되고, 각각의 기업의 평가결과에 따라 평가모델이 학습된다. 예를들어, A, B 기업이 서버시스템(1000)을 이용한다고 가정시, A기업 및 B기업 각각의 평가모델이 서버시스템(1000)에 구축이 되고, A기업의 평가모델을 학습하는 경우에는 A기업에 지원한 지원자들의 면접영상에 대한 A기업의 관계자들이 도출한 영상평가결과, 채용평가결과, 고과평가결과가 반영되어 A기업의 평가모델을 학습시킴으로써, A기업의 인사팀에서의 평가결과와 거의 유사한 평가결과를 낼 수 있도록 A기업의 평가모델을 학습시킨다.In this way, the standards of talent desired by each company are built in the server system 1000 as an evaluation model, respectively, and the evaluation model is learned according to the evaluation results of each company. For example, assuming that companies A and B use the server system 1000, each evaluation model of company A and company B is built in the server system 1000, and when the evaluation model of company A is learned, By learning the evaluation model of Company A by reflecting the video evaluation results, recruitment evaluation results, and high performance evaluation results drawn by the officials of Company A on the interview video of applicants who applied to Company A, the evaluation results from the personnel team of Company A and Company A's evaluation model is trained so that almost similar evaluation results can be obtained.

이와 같은 방식으로 면접영상만으로 해당기업의 인사팀이 추측하지 못하는 실제 기업에서의 업무역량에 대한 예측을 상기 평가모델이 수행할 수 있다.In this way, the evaluation model can perform the prediction of the job competency in the actual company that the HR team of the corresponding company cannot guess only with the interview image.

도 7은 본 발명의 일 실시예에 따른 평가모델의 내부 구조를 개략적으로 도시한다.7 schematically shows an internal structure of an evaluation model according to an embodiment of the present invention.

*상기 평가모델은, 복수의 세부평가모델 혹은 평가모듈을 포함할 수 있다. 도 8에 도시된 세부평가모델(공통모델, 제1평가모델 등)은 기계학습 기반의 평가모듈에 해당한다.* The evaluation model may include a plurality of detailed evaluation models or evaluation modules. The detailed evaluation model (common model, first evaluation model, etc.) shown in FIG. 8 corresponds to an evaluation module based on machine learning.

본 발명의 실시예들에 따른 평가모델은 도 7에 도시된 세부평가모델 뿐만 아니라 규칙기반으로 평가를 수행하는 세부평가모델들을 더 포함할 수 있지만, 이하에서는 학습과 관계된 세부평가모델을 기준으로 설명을 하도록 한다. 바람직하게는, 도 7에 도시된 평가모델은 특정 기업에 대한 평가모델에 해당한다.The evaluation model according to the embodiments of the present invention may further include detailed evaluation models for performing rule-based evaluation as well as the detailed evaluation model shown in FIG. 7 , but hereinafter will be described based on the detailed evaluation model related to learning to do Preferably, the evaluation model shown in FIG. 7 corresponds to the evaluation model for a specific company.

상기 평가모델은 면접영상에 대하여 공통적인 특징정보를 도출하는 공통평가모델; 상기 공통적인 특징정보에 기초하여, 세부적인 평가결과를 도출하는 제1평가모델, 제2평가모델 등을 포함한다.The evaluation model includes: a common evaluation model for deriving common characteristic information for the interview image; A first evaluation model, a second evaluation model, and the like for deriving detailed evaluation results based on the common characteristic information are included.

바람직하게는, 상기 제1평가모델, 제2평가모델 등은 상기 공통적인 특징정보에 기초하여, 상기 영상평가결과와 관련된 평가결과를 도출하는 영상평가결과예측모델, 상기 공통적인 특징정보에 기초하여, 상기 채용평가결과와 관련된 평가결과를 도출하는 채용평가결과예측모델, 및 상기 공통적인 특징정보에 기초하여, 상기 고과평가결과와 관련된 평가결과를 도출하는 고과평가결과예측모델을 포함한다.Preferably, the first evaluation model, the second evaluation model, etc. are an image evaluation result prediction model that derives an evaluation result related to the image evaluation result based on the common characteristic information, and the common characteristic information. , an employment evaluation result prediction model for deriving an evaluation result related to the employment evaluation result, and a high performance evaluation result prediction model for deriving an evaluation result related to the high performance evaluation result based on the common characteristic information.

즉, 공통평가모델에서 면접영상으로부터 도출된 특징정보에 따라 영상평가결과예측모델, 채용평가결과예측모델, 고과평가결과예측모델이 평가결과를 도출할 수 있다.That is, the image evaluation result prediction model, the employment evaluation result prediction model, and the high performance evaluation result prediction model can derive the evaluation result according to the characteristic information derived from the interview image in the common evaluation model.

이와 같은 방식으로, 영상평가결과, 채용평가결과, 및 고과평가결과로 공통평가모델을 공통적으로 학습시킬 수 있다. 즉, 영상평가결과, 채용평가결과, 및 고과평가결과를 도출하는 모델을 독립시키는 형태로 구축하는 경우에는, 각각의 평가결과의 상관성 혹은 공통평가모델의 강인한 학습이 이루어지지 못하는 반면, 도 7에 도시된 바와 같이 공통평가모델은 각각의 평가결과의 상관성 혹은 공통평가모델의 강인한 학습이 이루어질 수 있다.In this way, it is possible to learn the common evaluation model from the image evaluation result, the employment evaluation result, and the high performance evaluation result in common. That is, when the model for deriving the image evaluation result, the recruitment evaluation result, and the high evaluation result is constructed in a form that is independent, the correlation between the respective evaluation results or strong learning of the common evaluation model cannot be achieved, whereas in FIG. As shown, in the common evaluation model, the correlation between each evaluation result or strong learning of the common evaluation model can be made.

예를들어, 도 7과 같은 평가모델에서는 면접영상으로부터 해당 지원자의 실제 채용에 대한 평가 및 실제 업무시의 역량에 대한 평가를 정교하게 예측할 수 있다. 또한, 학습에 있어서도, 표면적인 영상에 대한 평가와 관련된 학습 뿐만 영상 내부에 숨겨져있는 실제 채용때의 결과 및 실제 업무시에서의 결과에 대해서도 학습이 될 수 있다.For example, in the evaluation model shown in FIG. 7 , it is possible to accurately predict the evaluation of the applicant's actual employment and the evaluation of the competency during actual work from the interview image. In addition, in learning, not only learning related to the evaluation of the superficial image, but also the result of actual employment hidden inside the image and the result of actual work can be learned.

도 8은 본 발명의 일 실시예에 따른 평가모델의 학습단계들을 개략적으로 도시한다.8 schematically shows the learning steps of an evaluation model according to an embodiment of the present invention.

도 8의 (A)는 영상평가결과학습부(1610)에 의하여 해당 면접영상 및 영상평가결과에 기반하여, 세부평가모델 중 공통모델 및 영상평가결과예측모델이 학습되는 것을 도시하고, 도 8의 (B)는 채용평가결과학습부(1620)에 의하여 해당 면접영상 및 채용평가결과에 기반하여, 세부평가모델 중 공통모델 및 채용평가결과예측모델이 학습되는 것을 도시하고, 도 8의 (C)는 고과평가결과학습부(1630)에 의하여 해당 면접영상 및 고과평가결과에 기반하여, 세부평가모델 중 공통모델 및 고과평가결과예측모델이 학습되는 것을 도시한다(A) of FIG. 8 shows that the common model and the image evaluation result prediction model among the detailed evaluation models are learned based on the interview image and the image evaluation result by the image evaluation result learning unit 1610, (B) shows that the common model and the employment evaluation result prediction model among the detailed evaluation models are learned based on the interview image and the employment evaluation result by the employment evaluation result learning unit 1620, (C) of FIG. shows that the common model and the high evaluation result prediction model among the detailed evaluation models are learned based on the interview image and the high evaluation result by the high evaluation result learning unit 1630

이와 같은 세부평가모델의 구성 및 학습방법에 의하여, 어느 평가결과를 통해서도 공통모델을 학습시킬 수 있고, 이를 통하여 특정 카테고리의 평가결과를 통해서 다른 카테고리의 평가결과를 도출하는 평가모델을 학습시킬 수 있다. 예를들어, 해당 면접영상의 지원자가 실제 입사후 고과평가를 받고, 이에 따른 고과평가결과 및 해당 지원자의 지원시의 면접영상에 기초하여 평가모델을 도 8의 (C)와 같이 학습하는 경우에, 공통모델이 학습되고, 이에 따라 영상평가결과의 예측, 채용평가결과의 예측에 있어서도 모델의 정확성이 개선될 수 있다.According to the composition and learning method of the detailed evaluation model, the common model can be learned through any evaluation result, and through this, the evaluation model that derives the evaluation result of another category through the evaluation result of a specific category can be learned. . For example, in the case where the applicant of the interview video receives a high evaluation after actually joining the company, and learns the evaluation model as shown in FIG. , the common model is learned, and accordingly, the accuracy of the model can be improved in the prediction of the image evaluation result and the prediction of the recruitment evaluation result.

도 8에 도시된 공통모델, 영상평가결과예측모델, 채용평가결과예측모델, 및 고과평가결과예측모델은 각각 분리된 형태의 인공신경망 모델에 해당하거나 혹은 하나의 인공신경망 모델의 서브 네트워크에 해당할 수 있다. 즉, 본 발명에서의 평가모델, 세부평가모델, 공통모델, 영상평가결과예측모델, 채용평가결과예측모델, 및 고과평가결과예측모델 등의 용어는 각각의 분리된 인공신경망 모델을 의미할 뿐만 아니라, 인공신경망 모델 내부의 서브 네트워크를 의미하는 최광의로 해석되어야 할 것이다.The common model, image evaluation result prediction model, recruitment evaluation result prediction model, and high performance evaluation result prediction model shown in FIG. 8 each correspond to a separate artificial neural network model or a sub-network of one artificial neural network model. can That is, in the present invention, terms such as evaluation model, detailed evaluation model, common model, image evaluation result prediction model, employment evaluation result prediction model, and high performance evaluation result prediction model not only mean separate artificial neural network models, but also , should be interpreted in the broadest sense, meaning a subnetwork inside an artificial neural network model.

도 8에 도시된 공통모델, 영상평가결과예측모델, 채용평가결과예측모델, 및 고과평가결과예측모델이 하나의 인공신경망 모델의 서브 네트워크들 각각에 해당한다면, 도 8에 도시된 공통특징은 상기 인공신경망 모델 내부에서의 중간결과값에 해당할 수 있다.If the common model, image evaluation result prediction model, recruitment evaluation result prediction model, and high performance evaluation result prediction model shown in FIG. 8 correspond to each of the sub-networks of one artificial neural network model, the common feature shown in FIG. 8 is the It may correspond to an intermediate result value inside the artificial neural network model.

또한, 도 8에 도시된 공통모델, 영상평가결과예측모델, 채용평가결과예측모델, 및 고과평가결과예측모델이 하나의 인공신경망 모델의 서브 네트워크들 각각에 해당하는 경우, 실질적으로는 공통모델, 영상평가결과예측모델, 채용평가결과예측모델, 및 고과평가결과예측모델는 하나의 인공신경망 모델에 해당하고, 상기 하나의 인공신경망 모델은 1 이상의 파라미터로 구성된 결과값을 도출할 수 있고, 상기 결과값은 예측된 영상평가결과, 예측된 채용평가결과, 예측된 고과평가결과를 모두 포함하는 형태일 수 있다. 이 경우, 도 8의 (A)에서와 같은 학습은 학습데이터로 영상평가결과를 입력하고, (B)에서와 같은 학습은 학습데이터로 채용평가결과를 입력하고, (C)에서와 같은 학습은 학습데이터로 고과평가결과를 입력한다. 이 경우, 인공신경망 모델에서 관련된 서브네트워크들을 중심으로 학습이 수행될 수 있다. In addition, when the common model, the image evaluation result prediction model, the employment evaluation result prediction model, and the high performance evaluation result prediction model shown in FIG. 8 correspond to each of the sub-networks of one artificial neural network model, substantially a common model, The image evaluation result prediction model, the employment evaluation result prediction model, and the high performance evaluation result prediction model correspond to one artificial neural network model, and the one artificial neural network model can derive a result value composed of one or more parameters, and the result value may be in a form including all of the predicted image evaluation result, the predicted employment evaluation result, and the predicted high evaluation result. In this case, learning as in (A) of FIG. 8 is inputting the image evaluation result as learning data, learning as in (B) is inputting the hiring evaluation result as learning data, and learning as in (C) is Enter the high evaluation result as the learning data. In this case, learning may be performed focusing on related subnetworks in the artificial neural network model.

도 9는 본 발명의 일 실시예에 따른 공통평가모델의 내부구성을 개략적으로 도시한다.9 schematically shows the internal configuration of a common evaluation model according to an embodiment of the present invention.

도 9에 도시된 실시예에 따른 상기 공통평가모델은, 상기 공통평가모델은, 상기 면접영상의 복수의 프레임의 이미지정보로부터 복수의 영상특징정보를 도출하는 공간 특징정보를 추출하는 제1딥뉴럴네트워크; 상기 면접영상의 복수의 음성정보로부터 복수의 음성특징정보를 도출하는 공간 특징정보를 추출하는 제1딥뉴럴네트워크; 상기 복수의 영상특징정보를 수신하여 제1특징정보를 도출하는 제1순환신경망 모듈; 및 상기 복수의 음성특징정보를 수신하여 제2특징정보를 도출하는제2순환신경망모듈;을 포함한다.The common evaluation model according to the embodiment shown in FIG. 9, the common evaluation model is a first deep neural for extracting spatial feature information for deriving a plurality of image feature information from image information of a plurality of frames of the interview image network; a first deep neural network for extracting spatial feature information for deriving a plurality of voice feature information from a plurality of voice information of the interview image; a first cyclic neural network module for receiving the plurality of image feature information and deriving first feature information; and a second recurrent neural network module that receives the plurality of voice feature information and derives second feature information.

상기 제1딥뉴럴네트워크 및 제2딥뉴럴네트워크는 CNN모듈 등이 이에 해당할 수 있고, 도 9에 도시된 일 실시예에서는 제1딥뉴럴네트워크는 제1CNN모듈에 해당하고, 제2딥뉴럴네트워크는 제2CNN모듈에 해당할 수 있다.The first deep neural network and the second deep neural network may correspond to a CNN module and the like. In the embodiment shown in FIG. 9, the first deep neural network corresponds to the first CNN module, and the second deep neural network may correspond to the second CNN module.

상기 제1순환신경망모듈 및 제2순환신경망모듈은 LSTM모듈 등이 이에 해당할 수 있고, 도 9에 도시된 일 실시예에서는 제1순환신경망모듈은 제1LSTM모듈에 해당하고, 제2순환신경망모듈은 제2LSTM모듈에 해당할 수 있다.The first recurrent neural network module and the second recurrent neural network module may correspond to an LSTM module and the like, and in the embodiment shown in FIG. may correspond to the second LSTM module.

이하에서는 도 9에 도시된 실시예에 기초하여, 본 발명의 일 실시예에 따른 뉴럴네트워크의 동작에 대하여 설명하도록 한다.Hereinafter, an operation of a neural network according to an embodiment of the present invention will be described based on the embodiment shown in FIG. 9 .

상기 복수의 프레임은 기설정된 시간간격으로 영상의 이미지를 분할하여 생성될 수 있다. 또한, 제1CNN모듈에 의하여 도출된 복수의 영상특징정보는 제1LSTM모듈로 시계열순으로 입력됨이 바람직하다.The plurality of frames may be generated by dividing an image of an image at preset time intervals. In addition, the plurality of image feature information derived by the first CNN module is preferably input to the first LSTM module in chronological order.

한편, 기설정된 시간구간에 대한 음성에 대한 특징정보(피치, 세기 등), 혹은 음성자체의 데이터는 제2CNN모듈으로 입력되고, 제2CNN모듈로부터 도출된 음성특징정보는 제2LSTM모듈로 시계열순으로 입력됨이 바람직하다.On the other hand, the characteristic information (pitch, intensity, etc.) of the voice for a preset time section, or the data of the voice itself, is input to the second CNN module, and the voice feature information derived from the second CNN module is sent to the second LSTM module in chronological order. input is preferred.

한편, 한편, 공통모델의 아웃풋인 특징정보(벡터열)는 상기 제1특징정보 및 제2특징정보에 기초하여 도출된다. 가장 간단한 방법으로는 상기 제1특징정보 및 제2특징정보를 단순 결합하여, 도출될 수 있고, 혹은 가중치 등을 적용하여 도출될 수도 있다.On the other hand, feature information (a vector sequence) that is an output of the common model is derived based on the first feature information and the second feature information. The simplest method may be derived by simply combining the first characteristic information and the second characteristic information, or may be derived by applying a weight or the like.

도 10은 본 발명의 일 실시예에 따른 부분평가모델의 내부구성을 개략적으로 도시한다.10 schematically shows the internal configuration of a partial evaluation model according to an embodiment of the present invention.

도 10에 도시된 부분평가모델은 도 8에 도시된 영상평가결과예측모델, 채용평가결과예측모델, 혹은 고과평가결과예측모델에 해당할 수 있다.The partial evaluation model shown in FIG. 10 may correspond to the image evaluation result prediction model, the employment evaluation result prediction model, or the high evaluation result prediction model shown in FIG. 8 .

각각의 부분평가모델은 공통모델로부터 도출된 특징정보에 대해 복수의 Fully-connected Layer에 의하여 학습된 가중치를 부여하여 중간결과(representative vector)를 도출하는 과정을 수행하여 각각의 평가카테고리에 대한 결과값을 도출한다.Each partial evaluation model performs a process of deriving a representative vector by assigning weights learned by a plurality of fully-connected layers to the characteristic information derived from the common model, and performing the process of deriving the result values for each evaluation category to derive

예를들어, 영상평가결과예측모델은 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈마주침, 친절함, 습관의 사용여부, 및 유쾌함 중 1 이상을 포함하는 면접과 관련된 영상평가결과에 대한 예측과 관련된 데이터를 도출할 수 있고, 상기 채용평가결과예측모델은 해당 지원자가 실제 기업에서의 채용 심사를 받는 경우에 판단되는 지원동기, 도전정신, 전문성, 협력성, 회사인재상부합정보 중 1 이상을 포함하는 채용평가결과에 대한 예측과 관련된 데이터를 도출할 수 있고, 고과평가결과예측모델은 해당 지원자가 지원기업에 실제로 채용되고, 이후 고과평가를 받을 때 판단되는 근무성실도, 관리역량, 업무역량, 종합고과등급 중 1 이상을 포함하는 고과평가결과와 관련된 데이터를 도출할 수 있다.For example, the image evaluation result prediction model is based on the image evaluation results related to the interview, including one or more of favorable sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, kindness, use of habits, and pleasantness. Data related to the prediction can be derived, and the recruitment evaluation result prediction model is at least one of application motivation, challenging spirit, professionalism, cooperation, and company talent matching information that is judged when the applicant undergoes an actual hiring review at a company. Data related to the prediction of recruitment evaluation results including It is possible to derive data related to the high performance evaluation results including at least one of competency and comprehensive high school grades.

바람직하게는, 본 발명의 일 실시예에서는, 주어진 면접영상에 대하여, 상기 공통모델로부터 도출된 상기 특징정보로부터 종합평가결과를 도출하거나 혹은 상기 영상평가결과예측모델, 상기 채용평가결과예측모델, 및 상기 고과평가결과예측모델 중 1 이상으로부터 종합평가결과를 도출할 수 있는 세부평가모델을 더 포함할 수 있다.Preferably, in one embodiment of the present invention, for a given interview image, a comprehensive evaluation result is derived from the feature information derived from the common model, or the image evaluation result prediction model, the employment evaluation result prediction model, and A detailed evaluation model capable of deriving a comprehensive evaluation result from at least one of the high evaluation result prediction models may be further included.

도 11은 본 발명의 일 실시예에 따른 평가결과제공부(1500)의 동작에 의한 사용자단말기에서의 표시화면의 일 예를 도시한다.11 shows an example of a display screen in the user terminal by the operation of the evaluation result providing unit 1500 according to an embodiment of the present invention.

상기 평가결과제공부(1500)는 해당 지원자의 지원기업측에 대하여 단말기에서의 입력에 따라서 다양한 평가화면을 제공할 수 있다. 도 11은 해당 면접영상에 대한 평가결과를 제공하는 화면(도 11의 L3의 영상평가결과를 사용자가 입력한 경우)을 도시한다.The evaluation result providing unit 1500 may provide various evaluation screens according to input from the terminal to the supporting company of the applicant. 11 shows a screen (when the user inputs the image evaluation result of L3 of FIG. 11) for providing the evaluation result for the interview image.

상기 평가결과제공단계에 의하여 제공되는 사용자단말기에서의 디스플레이요소는, 상기 면접영상을 재생할 수 있는 영상레이어(L1); 상기 면접영상에 대한 식별정보, 날짜, 설명정보 등이 표시될 수 있는 영상정보레이어(L2); 2 이상의 평가결과 카테고리를 선택할 수 있는 카테고리레이어(L3); 상기 2 이상의 평가결과 카테고리 중 선택된 평가결과 카테고리에 대한 자동평가결과가 디스플레이되는 자동평가결과레이어(L4)를 포함한다.The display element in the user terminal provided by the evaluation result providing step includes: an image layer (L1) capable of reproducing the interview image; an image information layer (L2) on which identification information, date, and explanatory information for the interview image can be displayed; a category layer (L3) capable of selecting two or more evaluation result categories; and an automatic evaluation result layer L4 in which an automatic evaluation result for a selected evaluation result category among the two or more evaluation result categories is displayed.

즉, 상기 평가결과제공단계에 의하여 제공되는 사용자단말기에서의 화면은, 면접영상 자체의 평가요소를 중심으로 디스플레이하는 제1화면(도 11), 해당 면접영상의 지원자가 실제 채용시의 결과예측을 중심으로 디스플레이하는 제2화면(도 12), 및 해당 면접영상의 지원자가 실제 업무를 수행시 결과(혹은 고과)예측을 중심으로 디스플레이하는 제3화면(도 13)을 포함한다.That is, the screen on the user terminal provided by the evaluation result providing step is the first screen (FIG. 11) that displays the evaluation elements of the interview image itself as the center, and the result prediction when the applicant of the interview image is actually hired It includes a second screen (FIG. 12) that is displayed as , and a third screen (FIG. 13) that displays mainly the result (or high performance) prediction when the applicant of the interview image performs an actual job.

상기 영상레이어(L1)에서는 사용자의 입력에 따라서 면접영상이 플레이될 수 있다. In the image layer L1, an interview image may be played according to a user's input.

상기 카테고리레이어(L3)에서는 사용자의 입력에 따라서 평가결과 카테고리가 변경되면서, 제공화면이 전환된다. 카테고리레이어(L3)의 '영상평가'는 해당 면접영상 자체에 대한 평가를 제공하는 화면에 해당한다. 바람직하게는, 상기 공통모델 및 영상평가결과예측모델의 동작에 따른 채용추천, 호감도, 집중도, 신뢰감 등의 소셜스킬에 대한 평가결과를 도시하는 화면이 '영상평가'에 해당한다.In the category layer (L3), as the evaluation result category is changed according to the user's input, the provided screen is switched. 'Video evaluation' of the category layer (L3) corresponds to a screen that provides an evaluation of the interview video itself. Preferably, a screen showing evaluation results for social skills such as recruitment recommendation, favorable sensitivity, concentration, and trust according to the operation of the common model and the image evaluation result prediction model corresponds to the 'image evaluation'.

'영상평가'가 선택된 도 11에서는 자동평가결과레이어(L4)에는 상기 영상평가결과와 관련된 평가예측결과가 디스플레이된다(L4.2 및 L4.3). 바람직하게는, 상기 자동평가결과레이어는 상기 영상평가결과에 의하여 학습된 1 이상의 세부평가모델 및 상기 채용평가결과에 의하여 학습된 1 이상의 세부평가모델의 평가값에 기초한 면접영상에 대한 종합적인 평가결과를 나태는 종합평가레이어(L4.1)을 포함할 수 있다.In FIG. 11 in which 'image evaluation' is selected, evaluation prediction results related to the image evaluation results are displayed in the automatic evaluation result layer L4 (L4.2 and L4.3). Preferably, the automatic evaluation result layer is a comprehensive evaluation result for the interview image based on the evaluation values of one or more detailed evaluation models learned by the image evaluation result and one or more detailed evaluation models learned by the employment evaluation result It can include the comprehensive evaluation layer (L4.1) that neglects the

이와 같은 정보의 제공에 의하여, 채용하고자 하는 기업측에서는 온라인면접을 진행시, 면접영상을 일일이 확인하지 않더라도, 해당 면접영상에서의 소셜스킬에 대한 평가를 직관적으로 제공받을 수 있다.By providing such information, when conducting an online interview, the company that wants to hire can intuitively receive an evaluation of the social skills in the interview video, even if they do not check the interview video individually.

바람직하게는, 도 11에 도시된 L4.3은 해당 면접영상 자체에 대한 평가요소에 해당한다.Preferably, L4.3 shown in FIG. 11 corresponds to an evaluation factor for the interview image itself.

도 12는 본 발명의 일 실시예에 따른 평가결과제공부(1500)의 동작에 의한 사용자단말기에서의 표시화면의 일 예를 도시한다. 12 shows an example of a display screen in the user terminal by the operation of the evaluation result providing unit 1500 according to an embodiment of the present invention.

도 12는 해당 면접영상으로부터 상기 평가모델이 예측한 해당 지원자의 채용평가시의 결과값, 예를들어 지원동기, 도전정신, 전문성, 협력성, 회사인재상부합정도 중 1 이상에 대한 자동평가결과를 L4.5에서 도시하는 화면이다. 이와 같이 본 발명의 평가모델은 면접영상으로부터 실제 지원자가 오프라인 면접 등을 진행해서 최종적으로 채용평가결과를 받을 때의 예측결과를 제공함으로써, 온라인면접으로는 확인하기 어려운 실제 해당 기업으로의 채용평사시에서의 평가예측을 제공하고, 이에 따라 채용하고자 하는 기업은 온라인면접을 효율적으로 수행할 수 있다.12 is an automatic evaluation result for at least one of application motivation, challenging spirit, professionalism, cooperation, and company talent match. This is the screen shown in L4.5. As described above, the evaluation model of the present invention provides a prediction result when an actual applicant undergoes an offline interview and finally receives a recruitment evaluation result from the interview video, so that it is difficult to confirm the actual job evaluation at the company in the online interview. provides evaluation predictions, and accordingly, companies that want to hire can conduct online interviews efficiently.

바람직하게는, 도 12에 도시된 L4.4은 해당 면접영상으로부터 추론한 실제 채용결과에 대한 예측요소에 해당한다.Preferably, L4.4 shown in FIG. 12 corresponds to a predictive factor for the actual hiring result inferred from the corresponding interview image.

도 13은 본 발명의 일 실시예에 따른 평가결과제공부(1500)의 동작에 의한 사용자단말기에서의 표시화면의 일 예를 도시한다.13 illustrates an example of a display screen in the user terminal by the operation of the evaluation result providing unit 1500 according to an embodiment of the present invention.

도 13는 해당 면접영상으로부터 상기 평가모델이 예측한 해당 지원자의 실제 채용이 되고 업무평가를 받을 때의 결과값, 예를들어 근무성실도, 관리역량, 업무역량, 종합고과 중 1 이상에 대한 자동평가결과를 L4.6에서 도시하는 화면이다. 이와 같이 본 발명의 평가모델은 면접영상으로부터 실제 지원자가 채용이 되었다고 가정시, 고과평가등 업무역량에 대한 평가를 받을 때의 예측결과를 제공함으로써, 온라인면접으로는 확인하기 어려운 해당 기업에서의 실제 업무시에서의 평가예측을 제공하고, 이에 따라 채용하고자 하는 기업은 온라인면접을 효율적으로 수행할 수 있다.13 is an automatic evaluation of at least one of the job integrity, management competency, work competency, and comprehensive evaluation, for example, the result of job evaluation after actual hiring of the applicant predicted by the evaluation model from the interview image. This is a screen showing the result in L4.6. As described above, the evaluation model of the present invention provides predictive results when receiving an evaluation of work competency, such as a high-level evaluation, assuming that an actual applicant has been hired from the interview video, so that the actual It provides evaluation predictions at work, and accordingly, companies that want to hire can conduct online interviews efficiently.

바람직하게는, 도 13에 도시된 L4.5는 해당 면접영상으로부터 추론한 실제 업무평가에 대한 예측요소에 해당한다.Preferably, L4.5 shown in FIG. 13 corresponds to a predictive factor for the actual job evaluation inferred from the interview image.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령 어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module to be executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and includes any information delivery media.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be interpreted as being included in the scope of the present invention. do.

Claims (5)

1 이상의 프로세서 및 1 이상의 메모리를 갖는 서버 시스템에서 수행되고, 피평가자의 면접영상에 대하여 자동적인 평가결과를 제공하는 평가모델을 관리하는 방법으로서,
피평가자가 온라인면접시에 수행한 면접영상에 대한 평가자들의 영상평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 영상평가결과학습단계; 및
해당 피평가자의 면접영상 및 상기 해당 피평가자의 지원기업에서의 실제 채용 후 업무능력에 대한 고과평가결과에 기반하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 고과평가결과학습단계;를 포함하고,
상기 평가모델은 1 이상의 인공신경망 모델을 포함하고,
상기 평가모델은 입력된 임의의 피평가자의 면접영상에 대하여 피평가자가 지원기업의 고과평가결과를 받을 때의 예측결과를 제공할 수 있고,
상기 평가모델은 지원기업별로 상기 서버 시스템에 구비되고, 상기 고과평가결과학습단계에서는 해당 지원기업의 평가모델이 해당 지원기업의 고과평가결과 및 해당 피평가자의 면접영상에 의하여 학습되는, 평가모델을 관리하는 방법.
A method of managing an evaluation model that is performed in a server system having one or more processors and one or more memories, and provides automatic evaluation results for an interview image of an appraiser,
an image evaluation result learning step of learning an evaluation model that provides an automatic evaluation result for the interview image of the server system according to the image evaluation results of the evaluators for the interview image performed by the evaluator during the online interview; and
High evaluation result of learning an evaluation model that provides automatic evaluation results for the interview image of the server system based on the interview image of the evaluated person and the high evaluation result of the job ability after the actual hiring of the evaluated person at the supporting company learning stage; including,
The evaluation model includes one or more artificial neural network models,
The evaluation model may provide a prediction result when the evaluated person receives the high evaluation result of the supporting company with respect to the input interview image of the arbitrary evaluated person,
The evaluation model is provided in the server system for each supporting company, and in the high evaluation result learning step, the evaluation model of the supporting company is learned based on the high evaluation result of the supporting company and the interview image of the subject to be evaluated. How to.
청구항 1에 있어서,
상기 평가모델은,
면접영상에 대하여 공통적인 특징정보를 도출하는 공통평가모델;
상기 공통적인 특징정보에 기초하여, 상기 영상평가결과와 관련된 평가결과를 도출하는 영상평가결과예측모델;
상기 공통적인 특징정보에 기초하여, 고과평가결과와 관련된 평가결과를 도출하는 고과평가결과예측모델을 포함하고,
상기 평가자들의 종합평가결과에 의하여 상기 공통평가모델 및 상기 영상평가결과예측모델이 학습되고,
상기 평가자들의 고과평가결과에 의하여 상기 공통평가모델 및 상기 고과평가결과예측모델이 학습되는, 평가모델을 관리하는 방법.
The method according to claim 1,
The evaluation model is
a common evaluation model deriving common characteristic information for interview images;
an image evaluation result prediction model for deriving an evaluation result related to the image evaluation result based on the common characteristic information;
and a high evaluation result prediction model for deriving evaluation results related to high evaluation results based on the common characteristic information,
The common evaluation model and the image evaluation result prediction model are learned by the comprehensive evaluation results of the evaluators,
A method for managing an evaluation model, wherein the common evaluation model and the high evaluation result predictive model are learned by the high evaluation results of the evaluators.
청구항 1에 있어서,
상기 평가모델은,
면접영상에 대하여 공통적인 특징정보를 도출하는 공통평가모델;을 포함하고,
상기 공통평가모델은,
상기 면접영상의 복수의 프레임의 이미지정보로부터 복수의 영상특징정보를 도출하는 공간 특징정보를 추출하는 제1딥뉴럴네트워크;
상기 면접영상의 복수의 음성정보로부터 복수의 음성특징정보를 도출하는 공간 특징정보를 추출하는 제1딥뉴럴네트워크;
상기 복수의 영상특징정보를 수신하여 제1특징정보를 도출하는 제1순환신경망 모듈; 및
상기 복수의 음성특징정보를 수신하여 제2특징정보를 도출하는 제2순환신경망모듈;을 포함하는, 평가모델을 관리하는 방법.
The method according to claim 1,
The evaluation model is
Including; a common evaluation model for deriving common characteristic information for the interview image;
The common evaluation model is
a first deep neural network for extracting spatial feature information for deriving a plurality of image feature information from image information of a plurality of frames of the interview image;
a first deep neural network for extracting spatial feature information for deriving a plurality of voice feature information from a plurality of voice information of the interview image;
a first cyclic neural network module for receiving the plurality of image feature information and deriving first feature information; and
A method of managing an evaluation model, including a; a second recurrent neural network module for receiving the plurality of speech characteristic information and deriving second characteristic information.
피평가자의 면접영상에 대하여 자동적인 평가결과를 제공하는 평가모델을 관리하는 서버 시스템으로서,
피평가자가 온라인면접시에 수행한 면접영상에 대한 평가자들의 영상평가결과에 의하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 영상평가결과학습부; 및
해당 피평가자의 면접영상 및 상기 해당 피평가자의 지원기업에서의 실제 채용 후 업무능력에 대한 고과평가결과에 기반하여, 상기 서버 시스템의 면접영상에 대한 자동평가결과를 제공하는 평가모델을 학습하는 고과평가결과학습부;를 포함하고,
상기 평가모델은 1 이상의 인공신경망 모델을 포함하고,
상기 평가모델은 입력된 임의의 피평가자의 면접영상에 대하여 피평가자가 지원기업의 고과평가결과를 받을 때의 예측결과를 제공할 수 있고,
상기 평가모델은 지원기업별로 상기 서버 시스템에 구비되고, 상기 고과평가결과학습단계에서는 해당 지원기업의 평가모델이 해당 지원기업의 고과평가결과 및 해당 피평가자의 면접영상에 의하여 학습되는, 서버 시스템.
A server system that manages an evaluation model that provides automatic evaluation results for an interview image of a person being evaluated,
an image evaluation result learning unit for learning an evaluation model that provides an automatic evaluation result for the interview image of the server system according to the image evaluation results of the evaluators for the interview image performed by the person to be evaluated during the online interview; and
High evaluation result of learning an evaluation model that provides automatic evaluation results for the interview image of the server system based on the interview image of the evaluated person and the high evaluation result of the job ability after the actual hiring of the evaluated person at the supporting company learning unit; including;
The evaluation model includes one or more artificial neural network models,
The evaluation model may provide a prediction result when the evaluated person receives the high evaluation result of the supporting company with respect to the input interview image of the arbitrary evaluated person,
The evaluation model is provided in the server system for each supporting company, and in the high evaluation result learning step, the evaluation model of the corresponding supporting company is learned based on the high evaluation result of the supporting company and the interview image of the subject to be evaluated.
청구항 1에 따르는 평가모델을 관리하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.
A computer-readable recording medium in which a program for performing the method for managing the evaluation model according to claim 1 is recorded.
KR1020210113282A 2019-07-25 2021-08-26 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model KR102397112B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210113282A KR102397112B1 (en) 2019-07-25 2021-08-26 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190090351A KR102297948B1 (en) 2019-07-25 2019-07-25 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model
KR1020210113282A KR102397112B1 (en) 2019-07-25 2021-08-26 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190090351A Division KR102297948B1 (en) 2019-01-07 2019-07-25 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model

Publications (2)

Publication Number Publication Date
KR20210107601A KR20210107601A (en) 2021-09-01
KR102397112B1 true KR102397112B1 (en) 2022-05-12

Family

ID=74571981

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190090351A KR102297948B1 (en) 2019-01-07 2019-07-25 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model
KR1020210113282A KR102397112B1 (en) 2019-07-25 2021-08-26 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190090351A KR102297948B1 (en) 2019-01-07 2019-07-25 Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model

Country Status (1)

Country Link
KR (2) KR102297948B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449661B1 (en) * 2022-06-27 2022-10-04 주식회사 레몬베이스 Method, apparatus and system of providing recruiting service based on artificial intelligence
KR102584078B1 (en) * 2022-12-15 2023-10-04 에이블제이 주식회사 Apparatus and method for providing interview's feedback

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101198445B1 (en) 2011-08-26 2012-11-06 (주) 나인원 An Apparatus for analyzing image of interview and a method thereof
JP2017219989A (en) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 Online interview evaluation device, method and program
KR101984283B1 (en) * 2017-11-22 2019-05-30 주식회사 제네시스랩 Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160032433A (en) * 2014-09-16 2016-03-24 이남영 Recruit method and system using on-line
KR20170071144A (en) * 2015-12-15 2017-06-23 조나솜 Simulated employment interview system for test as applicants who are preparing for kindergarten teachers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101198445B1 (en) 2011-08-26 2012-11-06 (주) 나인원 An Apparatus for analyzing image of interview and a method thereof
JP2017219989A (en) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 Online interview evaluation device, method and program
KR101984283B1 (en) * 2017-11-22 2019-05-30 주식회사 제네시스랩 Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof

Also Published As

Publication number Publication date
KR102297948B1 (en) 2021-09-03
KR20210107601A (en) 2021-09-01
KR20210012505A (en) 2021-02-03

Similar Documents

Publication Publication Date Title
US20210279668A1 (en) Method of preparing recommendations for taking decisions on the basis of a computerized assessment of the capabilities of users
KR102381572B1 (en) Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning
JP7333404B2 (en) Methods, Systems, and Computer-Readable Media for Managing Interview Video Automated Rating Models
KR102297947B1 (en) Online Interview Providing Method, System and Computer-readable Medium
US20180268341A1 (en) Methods, systems and networks for automated assessment, development, and management of the selling intelligence and sales performance of individuals competing in a field
US20170213190A1 (en) Method and system for analysing subjects
KR102397112B1 (en) Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model
US20150046357A1 (en) Systems and methods for evaluating job candidates
US20090228323A1 (en) Method and system for managing on-line recruiting
JP2017522676A (en) Talent data-driven identification system and method
US11741376B2 (en) Prediction of business outcomes by analyzing voice samples of users
Howland et al. Developing a virtual assessment center.
US20230334428A1 (en) System and methodologies for candidate analysis utilizing psychometric data and benchmarking
KR102236720B1 (en) Interview Preparation Service Providing Method, System and Computer-readable Medium Using Machine Learning
US20140236850A1 (en) On-Demand, Web-Based Interactive Video Interviewing
KR102242484B1 (en) Method for Providing College Early Admission Preparing Service and System Thereof
Russo et al. Learning and knowledge transfer by humans and digital platforms: which tools best support the decision-making process?
Duffett et al. The influence of student-imparted marketing skills and knowledge instruction on small businesses’ satisfaction: A service learning programme in South Africa
KR102261673B1 (en) Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof
KR102258636B1 (en) Interview Automatic Evaluation Model Learning Method, System and Computer-readable Medium
KR102310135B1 (en) Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model
CN111553555A (en) Training method, training device, computer equipment and storage medium
Nelson Potential for progress: Implicit bias training’s journey to making change
Prasetya et al. Microtask crowdsourcing marketplace for social network
US20220004903A1 (en) Systems and methods of determining eligibility of student athletes

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant