KR20210075946A - Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning - Google Patents

Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning Download PDF

Info

Publication number
KR20210075946A
KR20210075946A KR1020210077440A KR20210077440A KR20210075946A KR 20210075946 A KR20210075946 A KR 20210075946A KR 1020210077440 A KR1020210077440 A KR 1020210077440A KR 20210077440 A KR20210077440 A KR 20210077440A KR 20210075946 A KR20210075946 A KR 20210075946A
Authority
KR
South Korea
Prior art keywords
information
question
verbal
evaluator
evaluation
Prior art date
Application number
KR1020210077440A
Other languages
Korean (ko)
Other versions
KR102377419B1 (en
Inventor
유대훈
김세훈
유지형
Original Assignee
주식회사 제네시스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제네시스랩 filed Critical 주식회사 제네시스랩
Priority to KR1020210077440A priority Critical patent/KR102377419B1/en
Publication of KR20210075946A publication Critical patent/KR20210075946A/en
Application granted granted Critical
Publication of KR102377419B1 publication Critical patent/KR102377419B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

The present invention relates to a non-verbal evaluation method, system, and computer-readable medium based on machine learning, and more particularly, to a non-verbal evaluation method, system, and computer-readable medium based on machine learning. The method includes generating question data including non-verbal information from information about an appraisee and an appraiser, and analyzing and evaluating non-verbal information of answers to the question data through artificial intelligence. The method includes an appraise information inputting step, a question driving step, a question implementation step, and an answer analysis step.

Description

기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체 {Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning}Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

본 발명은 기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 피평가자 및 평가자에 대한 정보로부터 비언어적정보를 포함하는 질문데이터를 생성하고, 상기 질문데이터에 대한 대답의 비언어적정보를 인공지능을 통해 분석하여 평가하는 기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a non-verbal evaluation method, system, and computer-readable medium based on machine learning, and more particularly, to generate question data including non-verbal information from information about an evaluator and an evaluator, and to answer the question data It relates to a non-verbal evaluation method, system, and computer-readable medium based on machine learning that analyzes and evaluates non-verbal information through artificial intelligence.

면접은 일반적으로 면접을 통해 평가를 받는 면접자 및 면접자에 대한 평가를 수행하는 면접관으로 구성되며, 면접관의 질문과 면접자의 답변으로 진행되며 전체 질의응답에 대한 종합평가로 이루어진다.The interview generally consists of an interviewer who is evaluated through an interview and an interviewer who evaluates the interviewer. It consists of the interviewer's questions and the interviewer's answers, and a comprehensive evaluation of all questions and answers.

면접은 질문 및 응답을 통해 면접자의 전문지식, 전문기술 혹은 정보활용능력 등의 하드 스킬(hard skill) 뿐만 아니라 면접자의 태도, 의사소통 능력 등의 소프트 스킬(soft skill) 을 파악하는 것을 목적으로 한다.The purpose of the interview is to identify the interviewer's hard skills such as professional knowledge, professional skills, or information literacy ability, as well as soft skills such as the interviewer's attitude and communication ability through question and answer. .

전통적으로 자기소개서, 이력서, 경력 증명서 등의 과거 데이터 및 전공에 관한 질문 등을 통해 하드 스킬을 파악해 왔고, 이는 해당 분야의 전문가가 질의응답을 함으로써 어렵지 않게 판단할 수 있다. Traditionally, hard skills have been identified through past data such as self-introductions, resumes, and career certificates, as well as questions about majors, and this can be easily determined by asking and answering questions from experts in the field.

반면, 소프트 스킬은 면접관의 주관적 경험과 직관에 따라 다르게 판단되는 영역으로서, 면접관에 따라 평가 기준 및 평가 방법 등이 달라질 수 있다. 이와 같이 면접관의 주관에 따라 달라지는 평가 방법에 의해 면접자의 소프트 스킬이 객관적으로 평가되기 어려운 문제가 있다.On the other hand, soft skills are an area that is judged differently depending on the subjective experience and intuition of the interviewer, and the evaluation criteria and evaluation method may vary depending on the interviewer. As such, there is a problem in that it is difficult to objectively evaluate an interviewer's soft skills by an evaluation method that varies depending on the subjectivity of the interviewer.

따라서 면접자의 소프트 스킬을 객관적으로 평가하기 위해서는 면접관의 주관적인 평가 보다는 인공지능과 같은 지능화 된 행동 분석기 등을 통해 객관적이고 비편향적인 평가를 수행할 필요가 있다.Therefore, in order to objectively evaluate the soft skills of the interviewer, it is necessary to conduct an objective and unbiased evaluation through an intelligent behavior analyzer such as artificial intelligence rather than the subjective evaluation of the interviewer.

또한, 면접자의 소프트 스킬을 평가하는 과정에서 주어지는 질문의 경우 질문의 내용, 즉 무엇을 질문하는지도 중요하지만, 어떻게 질문하는지 역시 중요하다. 면접관이 면접자에게 질문을 하는 과정에서 실제 전달되는 질문의 컨텐츠 외에도 질문을 전달하는 방법, 태도, 분위기 등을 포괄하여 전달되는 메타 메시지가 면접자와의 의사소통 과정에서 큰 영향을 주게 된다. 따라서 객관적 평가를 위해서는 언어적, 비언어적 요소를 적절히 조합한 질문을 하고, 이에 대한 면접자의 대답에서의 비언어적 요소를 평가할 필요가 있다.Also, in the case of questions given in the process of evaluating the soft skills of the interviewer, the content of the question, that is, what is being asked, is important, but also how the question is asked. In addition to the content of the question actually delivered when the interviewer asks a question to the interviewer, the meta-message delivered including the method of delivering the question, attitude, and atmosphere has a great influence on the communication process with the interviewer. Therefore, for objective evaluation, it is necessary to ask a question that properly combines verbal and non-verbal elements, and to evaluate the non-verbal elements in the interviewer's answer.

본 발명은 피평가자 및 평가자에 대한 정보로부터 비언어적정보를 포함하는 질문데이터를 생성하고, 상기 질문데이터에 대한 대답의 비언어적정보를 인공지능을 통해 분석하여 평가하는 기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체를 제공하는 것을 그 목적으로 한다.The present invention is a non-verbal evaluation method, system and computer based on machine learning that generates question data including non-verbal information from information about an evaluator and an evaluator, and analyzes and evaluates non-verbal information of an answer to the question data through artificial intelligence. - Its purpose is to provide a readable medium.

상기와 같은 과제를 해결하기 위하여 본 발명은, 기계학습에 기초한 비언어적 평가 방법으로서, 비언어적정보를 포함하는 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 피평가자에게 질문을 전달하는 질문구현단계; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고, 상기 질문데이터는, 상기 대답분석단계에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 기계학습에 기초한 비언어적 평가 방법을 제공한다.In order to solve the above problems, the present invention provides a non-verbal evaluation method based on machine learning, comprising: a question realization step of delivering a question to an examinee by at least one of auditory and visual methods based on question data including non-verbal information; and an answer analysis step of analyzing and evaluating non-verbal information included in the answer of the subject to the question data through an artificial neural network; Including, wherein the question data, including evaluation criteria information for evaluation of non-verbal information in the answer analysis step, provides a non-verbal evaluation method based on machine learning.

본 발명에서는, 상기 비언어적 평가 방법은, 초기의 상기 질문데이터를 생성하기 위한 상기 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계; 및 상기 질문데이터를 생성하는 질문도출단계; 를 더 포함할 수 있다.In the present invention, the non-verbal evaluation method includes: a subject information input step of receiving at least one of the subject information and the evaluator information for generating the initial question data; and a question derivation step of generating the question data; may further include.

본 발명에서는, 상기 피평가자정보입력단계는, 상기 질문데이터를 생성하기 위한 피평가자의 정보 및 평가상황의 정보를 입력하는 피평가자상태입력단계; 및 입력 받은 상기 피평가자의 정보 및 상기 평가상황에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성하는 초기정보생성단계; 를 포함할 수 있다.In the present invention, the step of inputting the subject information includes: inputting the subject's information and information on the evaluation status for generating the question data; and an initial information generation step of generating initial information for generating the question data based on the received information on the subject to be evaluated and the evaluation status; may include.

본 발명에서는, 상기 피평가자정보입력단계는, 상기 질문데이터를 생성하기 위한 평가자의 정보를 입력하는 평가자정보입력단계; 를 더 포함하고, 상기 초기정보생성단계는, 입력 받은 상기 피평가자의 정보, 상기 평가상황 및 상기 평가자의 정보에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성할 수 있다.In the present invention, the evaluator information input step includes: evaluator information input step of inputting evaluator information for generating the question data; The method may further include, in the initial information generating step, initial information for generating the question data based on the received information of the subject to be evaluated, the evaluation status, and the information of the evaluator.

본 발명에서는, 상기 질문도출단계는 상기 초기정보에 기초하여 질문데이터를 생성하고, 상기 질문구현단계는 질문도출단계에서 생성된 상기 질문데이터에 기초하여 질문을 전달할 수 있다.In the present invention, the question deriving step may generate question data based on the initial information, and the question realization step may transmit a question based on the question data generated in the question deriving step.

본 발명에서는, 상기 비언어적 평가 방법은 상기 질문도출단계, 질문구현단계 및 대답분석단계가 반복적으로 수행될 수 있고, 상기 대답분석단계는 평가 결과에 기초하여 분석정보를 생성하고, 상기 질문도출단계는 상기 초기정보 및 상기 분석정보 중 1 이상에 기초하여 질문데이터를 생성할 수 있다.In the present invention, in the non-verbal evaluation method, the question derivation step, the question realization step, and the answer analysis step can be repeatedly performed, and the answer analysis step generates analysis information based on the evaluation result, and the question derivation step includes: Question data may be generated based on at least one of the initial information and the analysis information.

본 발명에서는, 상기 평가기준정보는, 상기 초기정보 혹은 상기 분석정보에 기초하여 갱신될 수 있다.In the present invention, the evaluation reference information may be updated based on the initial information or the analysis information.

본 발명에서는, 상기 대답분석단계는 상기 질문데이터에 대한 대답의 비언어적정보를 2 이상의 카테고리로 분류하여 수치화 하고, 상기 평가기준정보는 상기 2 이상의 카테고리 별로 수치화 된 분석점수에 대한 평가기준을 포함할 수 있다.In the present invention, the answer analysis step quantifies the non-verbal information of the answer to the question data by classifying it into two or more categories, and the evaluation criterion information may include evaluation criteria for the numerical analysis score for each of the two or more categories. have.

본 발명에서는, 상기 질문데이터의 비언어적정보는 질문의 문장, 질문을 전달하는 음성 및 질문을 전달하는 평가자의 표정 중 1 이상에 대한 정보를 포함하고, 상기 질문구현단계는 상기 질문데이터의 비언어적정보에 기초하여 피평가자에게 전달할 청각데이터 및 시각데이터 중 1 이상을 생성할 수 있다.In the present invention, the non-verbal information of the question data includes information on one or more of the sentence of the question, the voice conveying the question, and the expression of the evaluator conveying the question, and the question realization step is based on the non-verbal information of the question data. Based on this, one or more of auditory data and visual data to be transmitted to the subject may be generated.

본 발명에서는, 상기 질문데이터는, 하나의 질문에 대한 데이터를 포함하거나, 혹은 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함할 수 있다.In the present invention, the question data may include data for one question or data for a question set including two or more questions.

상기와 같은 과제를 해결하기 위하여 본 발명은, 기계학습에 기초한 비언어적 평가 시스템으로서, 비언어적정보를 포함하는 초기의 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력부; 상기 질문데이터를 생성하는 질문도출부; 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현부; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석부; 를 포함하고, 상기 질문데이터는, 상기 대답분석부에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 기계학습에 기초한 비언어적 평가 시스템을 제공한다.In order to solve the above problems, the present invention is a non-verbal evaluation system based on machine learning, and an evaluator information input unit that receives one or more of the evaluator's information and the evaluator's information for generating initial question data including non-verbal information ; a question derivation unit for generating the question data; a question realization unit which transmits a question to the subject to be evaluated in at least one of auditory and visual methods based on the question data; and an answer analysis unit that analyzes and evaluates non-verbal information included in an answer of the subject to the question data through an artificial neural network; Including, wherein the question data provides a non-verbal evaluation system based on machine learning, including evaluation reference information for evaluation of non-verbal information in the answer analysis unit.

상기와 같은 과제를 해결하기 위하여 본 발명은, 기계학습에 기초한 비언어적 평가를 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 비언어적정보를 포함하는 초기의 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계; 상기 질문데이터를 생성하는 질문도출단계; 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현단계; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고, 상기 질문데이터는, 상기 대답분석단계에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 컴퓨터-판독가능 매체를 제공한다.In order to solve the above problems, the present invention provides a computer-readable medium for non-verbal evaluation based on machine learning, wherein the computer-readable medium stores instructions for causing a computing device to perform the following steps, , The steps may include: an evaluator information input step of receiving at least one of the evaluator's information and the evaluator's information for generating initial question data including non-verbal information; a question derivation step of generating the question data; a question realization step of delivering a question to the subject to be evaluated by at least one of auditory and visual methods based on the question data; and an answer analysis step of analyzing and evaluating non-verbal information included in the answer of the subject to the question data through an artificial neural network; and, wherein the question data includes evaluation criteria information for evaluation of non-verbal information in the answer analysis step, a computer-readable medium is provided.

본 발명의 일 실시예에 따르면 비언어적 평가 방법을 위한 질문을 생성함에 있어서 상기 질문의 언어적정보 뿐만 아니라 비언어적정보를 포함하는 질문데이터를 생성하여 피평가자에게 상기 비언어적정보에 기초하여 질문을 전달함으로써 객관적인 평가를 수행할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, when generating a question for a non-verbal evaluation method, objective evaluation is performed by generating question data including non-verbal information as well as verbal information of the question and delivering a question to the subject to be evaluated based on the non-verbal information. can have the effect of performing

본 발명의 일 실시예에 따르면 비언어적 평가 방법을 위한 질문을 생성함에 있어서 전달되는 질문에 대한 평가기준정보를 포함하는 질문데이터를 생성함으로써 질문 각각에 대해 적합한 평가기준을 제시하고, 상기 평가기준에 의한 평가를 수행함으로써 정확한 평가를 수행할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, when generating a question for a non-verbal evaluation method, a suitable evaluation criterion for each question is presented by generating question data including evaluation criterion information for a transmitted question, and the evaluation criteria according to the evaluation criterion are generated. By performing the evaluation, it is possible to exert the effect of performing an accurate evaluation.

본 발명의 일 실시예에 따르면 피평가자의 대답의 언어적정보 외에 비언어적정보를 인공지능을 통해 분석함으로써 객관적이고 비편향적인 평가를 수행할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by analyzing non-verbal information in addition to the verbal information of the answeree's answer through artificial intelligence, it is possible to exert the effect of performing an objective and unbiased evaluation.

도 1은 본 발명의 일 실시예에 따른 비언어적 평가 방법을 수행하는 시스템의 구성을 개략적으로 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말기의 내부구성요소를 개략적으로 도시하는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 피평가자정보입력부의 동작의 세부 단계를 개략적으로 도시하는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 질문구현부에 의해 구현된 질문이 출력되는 방법을 개략적으로 도시하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 대답분석부의 동작을 개략적으로 도시하는 도면이다.
도 8은 본 발명의 일 실시예에 따른 질문데이터가 활용되는 과정을 개략적으로 도시하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.
도 10은 본 발명의 일 실시예에 따른 대답분석부의 피처맵 생성과정을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.
도 12는 본 발명의 일 실시예에 따른 질문데이터의 비언어적정보의 일 예를 개략적으로 도시하는 그래프이다.
도 13은 본 발명의 일 실시예에 따른 질문데이터의 세트를 개략적으로 도시하는 도면이다.
1 is a diagram schematically illustrating the configuration of a system for performing a non-verbal evaluation method according to an embodiment of the present invention.
2 is a block diagram schematically illustrating internal components of a user terminal according to an embodiment of the present invention.
3 is a flowchart schematically illustrating detailed steps of the operation of the subject information input unit according to an embodiment of the present invention.
4 is a diagram schematically illustrating an operation of a question elicitation unit according to an embodiment of the present invention.
5 is a diagram schematically illustrating an operation of a question realization unit according to an embodiment of the present invention.
6 is a diagram schematically illustrating a method of outputting a question implemented by a question realization unit according to an embodiment of the present invention.
7 is a diagram schematically illustrating an operation of an answer analysis unit according to an embodiment of the present invention.
8 is a diagram schematically illustrating a process in which question data is utilized according to an embodiment of the present invention.
9 is a diagram schematically illustrating an operation of a question extracting unit according to an embodiment of the present invention.
10 schematically illustrates a feature map generation process of an answer analysis unit according to an embodiment of the present invention.
11 is a diagram schematically illustrating an operation of a question realization unit according to an embodiment of the present invention.
12 is a graph schematically illustrating an example of non-verbal information of question data according to an embodiment of the present invention.
13 is a diagram schematically illustrating a set of question data according to an embodiment of the present invention.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Hereinafter, various embodiments and/or aspects are disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be recognized by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of the various methods in principles of various aspects may be employed, and the descriptions set forth are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Further, various aspects and features will be presented by a system that may include a number of devices, components and/or modules, and the like. It is also noted that various systems may include additional devices, components, and/or modules, etc. and/or may not include all of the devices, components, modules, etc. discussed with respect to the drawings. must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. may not be construed as an advantage or advantage in any aspect or design described above over other aspects or designs. . The terms '~part', 'component', 'module', 'system', 'interface', etc. used below generally mean a computer-related entity, for example, hardware, hardware A combination of and software may mean software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. should be understood as not

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those of ordinary skill in the art to which the present invention belongs. have the same meaning as Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in an embodiment of the present invention, an ideal or excessively formal meaning is not interpreted as

도 1은 본 발명의 일 실시예에 따른 비언어적 평가 방법을 수행하는 시스템의 구성을 개략적으로 도시하는 도면이다.1 is a diagram schematically illustrating the configuration of a system for performing a non-verbal evaluation method according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시예에 따른 비언어적 평가 방법은 평가를 받는 피평가자(1000)가 사용자단말기(2000) 등을 통해 평가를 위한 질문을 받고, 상기 질문에 대한 대답을 하게 되면 상기 사용자단말기(2000)는 상기 피평가자(1000)의 대답을 입력 받아 상기 피평가자(1000)의 대답을 분석하여 평가할 수 있도록 한다.Referring to FIG. 1 , in the non-verbal evaluation method according to an embodiment of the present invention, when an evaluated subject 1000 receives a question for evaluation through a user terminal 2000, etc., and answers the question, the user The terminal 2000 receives the answer of the person to be evaluated 1000 and analyzes and evaluates the answer of the person 1000 to be evaluated.

이 때, 상기 사용자 단말기(2000)는 스마트홈 콘트롤 디바이스, 월패드, 스마트 폰(smart phone), 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다), 이동 전화기, 화상 전화기, 전자책 리더(e-book reader), 데스크 탑(desktop) PC, 랩탑(laptop) PC, 넷북(netbook) PC, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다), 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다), 엠피3 플레이어(mp3 player), 이동 의료 디바이스, 카메라, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다), 전자 의류, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 혹은 스마트 워치(smart watch) 등이 될 수 있다.At this time, the user terminal 2000 includes a smart home control device, a wall pad, a smart phone, a tablet personal computer (PC, hereinafter referred to as 'PC'), a mobile phone, Video phone, e-book reader, desktop PC, laptop PC, netbook PC, personal digital assistant (PDA, hereinafter referred to as 'PDA') ), a portable multimedia player (PMP, hereinafter referred to as 'PMP'), an mp3 player, a mobile medical device, a camera, a wearable device (for example, a head-mounted device) (head-mounted device: HMD, for example, will be referred to as 'HMD'), electronic clothing, electronic bracelet, electronic necklace, electronic accessory, electronic tattoo, smart watch, etc. .

상기 사용자단말기(2000)는 네트워크를 통해 연결된 서버(3000) 등을 통해 상기 피평가자(1000)에 대한 질문을 전송 받고, 상기 피평가자(1000)의 대답을 전송하여 상기 서버(3000)에서 상기 피평가자(1000)의 대답에 대한 분석을 통해 상기 피평가자(1000)에 대한 평가가 이루어지도록 할 수 있다.The user terminal 2000 receives a question about the subject 1000 through a server 3000 connected through a network, etc., and transmits an answer of the subject 1000 to the server 3000 to the subject 1000 ) can be evaluated for the subject 1000 through analysis of the answer.

혹은 상기 사용자단말기(2000)는 사용자단말기(2000) 내부에서 상기 피평가자(1000)에 대한 질문을 생성하고, 상기 피평가자(1000)의 대답을 분석하여 상기 피평가자(1000)에 대한 평가가 이루어지도록 할 수 있다.Alternatively, the user terminal 2000 may generate a question about the subject 1000 inside the user terminal 2000 and analyze the answer of the subject 1000 so that the evaluation of the subject 1000 is made. have.

도 2는 본 발명의 일 실시예에 따른 사용자단말기의 내부구성요소를 개략적으로 도시하는 블록도이다.2 is a block diagram schematically illustrating internal components of a user terminal according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자단말기(2000)는 프로세서(100), 버스(200), 네트워크 인터페이스(300) 및 메모리(400)를 포함할 수 있다. 메모리는 운영체제(410), 서비스제공루틴(420), 질문컨텐츠(430) 및 평가정보(440)를 포함할 수 있다. 프로세서(100)는 피평가자정보입력부(110), 질문도출부(120), 질문구현부(130), 및 대답분석부(140)를 포함할 수 있다. 다른 실시예들에서 사용자단말기(2000)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.The user terminal 2000 according to an embodiment of the present invention may include a processor 100 , a bus 200 , a network interface 300 , and a memory 400 . The memory may include an operating system 410 , a service provision routine 420 , question content 430 , and evaluation information 440 . The processor 100 may include a subject information input unit 110 , a question derivation unit 120 , a question realization unit 130 , and an answer analysis unit 140 . In other embodiments, the user terminal 2000 may include more components than those of FIG. 2 .

메모리(400)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리에는 운영체제(410), 서비스제공루틴(420), 질문컨텐츠(430) 및 평가정보(440)를 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스부(300)를 통해 메모리에 로딩될 수도 있다.The memory 400 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. In addition, program codes for the operating system 410 , the service providing routine 420 , the question content 430 , and the evaluation information 440 may be stored in the memory. These software components may be loaded from a computer-readable recording medium separate from the memory using a drive mechanism (not shown). The separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, the software components may be loaded into the memory through the network interface unit 300 instead of a computer-readable recording medium.

버스(200)는 사용자단말기(2000)를 제어하는 컴퓨팅 장치의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus 200 may enable communication and data transmission between components of a computing device that controls the user terminal 2000 . The bus may be configured using a high-speed serial bus, parallel bus, storage area network (SAN), and/or other suitable communication technology.

네트워크 인터페이스부(300)는 사용자단말기(2000)를 제어하는 컴퓨팅 장치를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성 요소일 수 있다. 네트워크 인터페이스(300)는 사용자단말기(2000)를 제어하는 컴퓨팅 장치를 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다. 이와 같은 네트워크 인터페이스부(300)를 통하여 사용자단말기(2000)를 제어하는 컴퓨팅 장치가 사용자단말기(2000)에 무선적 혹은 유선적으로 접속될 수 있다.The network interface unit 300 may be a computer hardware component for connecting a computing device controlling the user terminal 2000 to a computer network. The network interface 300 may connect a computing device controlling the user terminal 2000 to a computer network through a wireless or wired connection. A computing device that controls the user terminal 2000 through the network interface unit 300 may be wirelessly or wiredly connected to the user terminal 2000 .

프로세서는 기본적인 산술, 로직 및 사용자단말기(2000)를 제어하는 컴퓨팅 장치의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리 또는 네트워크 인터페이스부(300)에 의해, 그리고 버스(200)를 통해 프로세서(100)로 제공될 수 있다. 프로세서(100)는 피평가자정보입력부(110), 질문도출부(120), 질문구현부(130) 및 대답분석부(140)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리와 같은 기록 장치에 저장될 수 있다.The processor may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations of a computing device controlling the user terminal 2000 . The command may be provided to the processor 100 by the memory or network interface unit 300 and via the bus 200 . The processor 100 may be configured to execute program codes for the subject information input unit 110 , the question derivation unit 120 , the question implementation unit 130 , and the answer analysis unit 140 . Such program code may be stored in a recording device such as a memory.

상기 피평가자정보입력부(110), 질문도출부(120), 질문구현부(130) 및 대답분석부(140)는 이하에서 설명하게 될 사용자단말기(2000)의 작동을 수행하기 위해 구성될 수 있다. 상기한 프로세서는 사용자단말기(2000)를 제어하는 방법에 따라 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트가 더 포함되거나, 2개 이상의 컴포넌트가 결합될 수 있다.The subject information input unit 110 , the question derivation unit 120 , the question realization unit 130 , and the answer analysis unit 140 may be configured to perform the operation of the user terminal 2000 , which will be described below. In the processor, some components may be omitted, additional components not shown may be further included, or two or more components may be combined according to a method of controlling the user terminal 2000 .

상기 피평가자정보입력부(110)는 비언어적정보를 포함하는 질문데이터를 생성하기 위한 상기 피평가자(1000)의 정보 및 평가자의 정보 중 1 이상을 입력 받는다. 상기 피평가자정보입력부(110)는 상기 피평가자(1000)의 정보 혹은 평가상황 등에 대한 정보를 입력 받음으로써 평가를 위한 질문데이터를 생성할 수 있다. 예를 들어 상기 피평가자(1000)가 구직을 위한 면접에 임하는 경우 상기 피평가자(1000)의 전공, 관심사, 능력 등 신상에 관한 정보 및 면접장소, 지원한 회사 등 평가상황에 대한 정보 등을 입력 받아 적절한 질문을 생성할 수 있도록 할 수 있다.The subject information input unit 110 receives at least one of the information of the subject 1000 and the information of the evaluator for generating question data including non-verbal information. The subject information input unit 110 may generate question data for evaluation by receiving information on the subject 1000 or information on the evaluation status, and the like. For example, when the person to be evaluated 1000 is interviewed for a job, information about the personal information such as the major, interests, and abilities of the person to be evaluated, the interview location, information on the evaluation status, such as the company to which the applicant has applied, etc. are input and appropriate Allows you to create questions.

상기 질문도출부(120)는 상기 질문데이터를 생성한다. 상기 질문도출부(120)는 상기 피평가자정보입력부(110)에서 입력 받은 정보에 기초하여 상기 정보에 적합한 질문데이터를 생성한다. 이 때, 상기 질문데이터는 피평가자(1000)에게 가할 질문의 컨텐츠, 즉 질문의 언어적정보 및 상기 질문을 전달하는 방법, 즉 질문의 비언어적정보를 포함할 수 있다. 또한, 상기 질문데이터에는 상기 질문에 대한 대답을 평가하기 위한 평가기준정보를 포함할 수 있다.The question extracting unit 120 generates the question data. The question derivation unit 120 generates question data suitable for the information based on the information received from the subject information input unit 110 . In this case, the question data may include the content of the question to be asked to the examinee 1000 , that is, verbal information of the question, and the method of delivering the question, that is, non-verbal information of the question. In addition, the question data may include evaluation reference information for evaluating an answer to the question.

상기 질문구현부(130)는 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 피평가자(1000)에게 질문을 전달한다. 본 발명의 일 실시예에서 상기 질문구현부(130)는 상기 질문데이터의 언어적정보 및 비언어적정보에 기초하여 상기 피평가자(1000)에게 질문을 전달하게 된다. 이를 위해 상기 질문구현부(130)는 디스플레이모듈 혹은 음성출력모듈을 통해 사용자에게 시각적 디스플레이 혹은 음성 등으로 질문을 전달할 수 있다.The question realization unit 130 transmits a question to the subject 1000 through at least one of auditory and visual methods based on the question data. In an embodiment of the present invention, the question realization unit 130 transmits a question to the subject 1000 based on verbal and non-verbal information of the question data. To this end, the question realization unit 130 may transmit a question to the user through a visual display or voice through a display module or an audio output module.

상기 대답분석부(140)는 상기 질문데이터에 대한 상기 피평가자(1000)의 대답에 포함된 비언어적정보를 인공지능을 통해 분석하여 평가한다. 상기 피평가자(1000)는 상기 질문구현부(130)에서 전달 받은 질문에 대해 대답을 하게 된다. 이와 같은 대답은 카메라모듈 및 음성입력모듈 등을 통해 상기 대답분석부(140)로 입력 받게 된다.The answer analysis unit 140 analyzes and evaluates non-verbal information included in the answer of the subject 1000 to the question data through artificial intelligence. The assessee 1000 answers the question received from the question realization unit 130 . Such an answer is input to the answer analysis unit 140 through a camera module and a voice input module.

상기 대답분석부(140)는 상기 카메라모듈 및 상기 음성입력모듈 등을 통해 입력 받은 상기 피평가자(1000)의 영상 및 음성 정보 등을 인공지능을 통해 상기 대답에 포함된 비언어적정보를 분석하여 정량화하고, 이를 상기 질문데이터에 포함된 평가기준정보에 의해 평가함으로써 상기 피평가자(1000)에 대한 분석정보를 생성할 수 있다.The answer analysis unit 140 analyzes and quantifies the non-verbal information included in the answer through artificial intelligence for the image and audio information of the subject 1000 received through the camera module and the voice input module, etc., By evaluating this according to the evaluation criteria information included in the question data, it is possible to generate analysis information on the subject 1000 .

**

이와 같은 프로세서(1000)의 각 구성요소의 동작은 일련의 단계로 구성된 비언어적 평가 방법을 구성할 수 있다. 본 발명의 일 실시예에 따르면 상기 비언어적 평가 방법은 비언어적정보를 포함하는 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계; 상기 질문데이터를 생성하는 질문도출단계; 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현단계; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공지능을 통해 분석하여 평가하는 대답분석단계; 를 포함할 수 있다. 이 때 상기 피평가자정보입력단계는 상기 피평가자정보입력부(110)의 동작에 의해 수행될 수 있고, 상기 질문도출단계는 상기 질문도출부(120)에 의해 수행될 수 있고, 상기 질문구현단계는 상기 질문구현부(130)에 의해 수행될 수 있고, 상기 대답분석단계는 상기 대답분석부(140)에 의해 수행될 수 있다.Such an operation of each component of the processor 1000 may constitute a non-verbal evaluation method composed of a series of steps. According to an embodiment of the present invention, the non-verbal evaluation method includes: an evaluator information input step of receiving at least one of evaluator information and evaluator information for generating question data including non-verbal information; a question derivation step of generating the question data; a question realization step of delivering a question to the subject to be evaluated by at least one of auditory and visual methods based on the question data; and an answer analysis step of analyzing and evaluating non-verbal information included in the answeree's answer to the question data through artificial intelligence; may include. In this case, the subject information input step may be performed by the operation of the subject information input unit 110 , the question deriving step may be performed by the question deriving unit 120 , and the question realization step may be performed by the question It may be performed by the implementation unit 130 , and the answer analysis step may be performed by the answer analysis unit 140 .

도 3은 본 발명의 일 실시예에 따른 피평가자정보입력부의 동작의 세부 단계를 개략적으로 도시하는 순서도이다.3 is a flowchart schematically illustrating detailed steps of the operation of the subject information input unit according to an embodiment of the present invention.

도 3을 참조하면 상기 피평가자정보입력부(110)가 수행하는 피평가자정보입력단계는 피평가자상태입력단계(S100); 평가자정보입력단계(S200); 및 초기정보생성단계(S300)를 포함할 수 있다.Referring to FIG. 3 , the subject information input step performed by the subject information input unit 110 includes the subject state input step (S100); evaluator information input step (S200); and an initial information generation step (S300).

상기 피평가자상태입력단계(S100)에서는 상기 질문데이터를 생성하기 위한 피평가자(1000)의 정보 및 평가상황 중 1 이상의 정보를 입력한다. 본 발명의 일 실시예에서 상기 피평가자(1000)의 정보는 전공분야, 관심사, 능력 등 신상에 관한 정보일 수 있고, 상기 평가상황은 상기 피평가자에 대한 평가가 이루어지는 면접장소, 지원한 회사 및 직무 등의 상황에 관한 정보일 수 있다. 이와 같이 평가가 이루어지는 대상 및 상황에 대한 정보를 입력 받음으로써 정확한 평가를 위한 질문의 내용 및 상기 질문에 대한 비언어적 정보(예를 들어 질문의 어조, 말투, 분위기 등)를 도출하여 평가효율을 높일 수 있다.In the subject state input step ( S100 ), one or more information of the subject 1000 information and the evaluation status for generating the question data is input. In an embodiment of the present invention, the information of the person to be evaluated 1000 may be information on personal information such as major fields, interests, abilities, and the like, and the evaluation status is the interview location where the evaluation of the evaluated person is made, the company applied for, and the job It may be information about the situation of By receiving information on the subject and situation of the evaluation as described above, the content of the question for accurate evaluation and non-verbal information about the question (for example, the tone, tone, atmosphere, etc. of the question) can be derived to increase the evaluation efficiency. have.

상기 평가자정보입력단계(S200)에서는 상기 질문데이터를 생성하기 위한 평가자의 정보를 입력한다. 본 발명의 일 실시예에서 상기 평가자는 상기 평가상황이 취업을 위한 면접인 경우 면접관일 수 있다. 평가자의 정보는 이와 같은 면접관 등의 성향 등의 정보를 포함할 수 있다. 예를 들어, 상기 면접관은 권위적인 사람일 수 있고, 이와 같은 정보가 상기 평가자정보입력단계(S200)에서 입력되어 상기 질문데이터를 생성할 때, 상기 질문데이터의 비언어적정보에 영향을 주거나, 혹은 상기 질문데이터에 포함되는 평가기준정보에 영향을 주어 피평가자(1000)에게 권위적인 분위기의 질문을 전달하고, 피평가자(1000)의 대답이 겸손할 경우 높은 평가를 받을 수 있도록 할 수 있다. 혹은 상기 면접관은 개방적인 사람일 수 있고, 이와 같은 평가자의 정보가 입력되는 경우 피평가자(1000)에게 자유롭고 창의적인 질문을 전달할 수 있고, 상기 피평가자(1000)가 자신감 있게 자신의 의견을 피력하는 경우 높은 평가를 받을 수 있도록 할 수 있다.In the evaluator information input step S200, evaluator information for generating the question data is input. In an embodiment of the present invention, the evaluator may be an interviewer when the evaluation situation is an interview for employment. The information of the evaluator may include information such as the tendency of the interviewer and the like. For example, the interviewer may be an authoritative person, and when such information is input in the evaluator information input step S200 to generate the question data, it affects the non-verbal information of the question data, or the By influencing the evaluation criteria information included in the question data, it is possible to deliver a question in an authoritative atmosphere to the evaluator 1000 , and to receive a high evaluation when the subject 1000 's answer is modest. Alternatively, the interviewer may be an open person, and when such information of the evaluator is input, free and creative questions can be delivered to the evaluator 1000 , and when the evaluator 1000 confidently expresses his/her opinion, a high evaluation can allow you to receive

본 발명의 일 실시예에서 이와 같은 평가자정보입력단계(S200)는 생략될 수 있다.In an embodiment of the present invention, the evaluator information input step S200 may be omitted.

상기 초기정보생성단계(S300)에서는 입력 받은 상기 피평가자의 정보, 상기 평가상황 및 상기 평가자의 정보에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성한다. 상기 초기정보는 상기 S100단계 및 상기 S200단계에서 입력 받은 정보에 기초하여 생성됨으로써, 상기 질문도출부(120)에서 수행되는 질문도출단계에서 질문데이터를 생성하는 기초 자료가 된다. 본 발명의 일 실시예에서 상기 S200단계는 생략될 수 있으므로, 상기 S200단계가 생략되는 경우 상기 초기정보는 입력 받은 상기 피평가자(1000)의 정보 및 상기 평가상황에 기초하여 생성될 수 있다.In the initial information generation step ( S300 ), initial information for generating the question data is generated based on the received information of the subject to be evaluated, the evaluation status, and the information of the evaluator. The initial information is generated based on the information input in the steps S100 and S200, and thus serves as basic data for generating question data in the question derivation step performed by the question derivation unit 120 . In an embodiment of the present invention, since step S200 may be omitted, when step S200 is omitted, the initial information may be generated based on the received information of the subject 1000 and the evaluation status.

도 4는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.4 is a diagram schematically illustrating an operation of a question elicitation unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 질문도출부(120)가 수행하는 질문도출단계는 상기 초기정보에 기초하여 질문데이터를 생성한다. 상기 질문도출단계에서는 어떤 질문을 어떻게 전달할 지에 대한 정보를 포함하는 질문데이터를 생성한다. 이 때 상기 질문데이터는 상기 초기정보에 기초하여 생성되어 상기 피평가자(1000)의 정보 및 평가상황 등에 기초하여 질문데이터가 생성될 수 있다.The question deriving step performed by the question deriving unit 120 according to an embodiment of the present invention generates question data based on the initial information. In the question derivation step, question data including information on how and what kind of question will be transmitted is generated. In this case, the question data may be generated based on the initial information, and the question data may be generated based on the information of the subject 1000 and the evaluation status.

도 5는 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.5 is a diagram schematically illustrating an operation of a question realization unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 질문구현부(130)가 수행하는 상기 질문구현단계는 상기 질문도출단계에서 생성된 상기 질문데이터에 기초하여 피평가자(1000)에게 질문을 전달한다. 이 때, 상기 질문구현부(130)에서 수행되는 질문구현단계는 상기 질문데이터의 비언어적정보에 기초하여 피평가자에게 전달할 청각데이터 및 시각데이터 중 1 이상을 생성할 수 있다. 이와 같은 시각데이터는 디스플레이모듈 등의 장치를 통해 출력되어 상기 피평가자(1000)가 눈으로 인식할 수 있도록 하고, 상기 청각데이터는 음성출력모듈 등의 장치를 통해 출력되어 상기 피평가자(1000)가 귀로 인식할 수 있도록 한다.The question realization step performed by the question realization unit 130 according to an embodiment of the present invention transmits a question to the assessee 1000 based on the question data generated in the question derivation step. In this case, the question realization step performed by the question realization unit 130 may generate one or more of auditory data and visual data to be delivered to the subject based on the non-verbal information of the question data. Such visual data is output through a device such as a display module so that the subject 1000 can recognize it with the eyes, and the auditory data is output through a device such as a voice output module, and the subject 1000 is recognized by the ear. make it possible

이 때. 상기 질문구현부(130)는 상기 디스플레이모듈만을 통해 피평가자(1000)에게 시각적으로 질문을 전달하거나, 상기 음성출력모듈만을 통해 피평가자(1000)에게 청각적으로 질문을 전달할 수 있고, 혹은 상기 디스플레이모듈 및 상기 음성출력모듈을 동시에 사용하여 복합적으로 상기 피평가자(1000)에게 질문을 전달할 수도 있다.At this time. The question realization unit 130 may visually transmit a question to the examinee 1000 through only the display module, or transmit a question audibly to the examinee 1000 through only the voice output module, or the display module and A question may be transmitted to the subject 1000 in a complex manner by using the voice output module at the same time.

도 6은 본 발명의 일 실시예에 따른 질문구현부에 의해 구현된 질문이 출력되는 방법을 개략적으로 도시하는 도면이다.6 is a diagram schematically illustrating a method of outputting a question implemented by a question realization unit according to an embodiment of the present invention.

도 6의 (A)는 본 발명의 일 실시예에 따른 질문구현부(130)에 의해 질문이 텍스트의 형태로 피평가자(1000)에게 전달되는 모습을 도시한다. 본 발명의 일 실시예에서는 도 6의 (A)와 같이 디스플레이모듈을 통해 회사 지원 동기를 묻는 질문 및 상기 질문을 통해 표현할 감정을 동시에 표시할 수 있다. 이에 대해 피평가자(1000)는 상기 질문의 어감 및 표시된 감정을 통해 비언어적정보를 전달 받고, 이에 대한 대답을 함으로써 평가를 받을 수 있다.FIG. 6A illustrates a state in which a question is transmitted to the subject 1000 in the form of text by the question realization unit 130 according to an embodiment of the present invention. In an embodiment of the present invention, as shown in FIG. 6A , a question asking for a motivation for company support and an emotion to be expressed through the question may be simultaneously displayed through the display module. In this regard, the subject 1000 may receive non-verbal information through the tone of the question and the displayed emotion, and may receive an evaluation by giving an answer.

도 6의 (B)는 본 발명의 다른 실시예에 따른 질문구현부(130)에 의해 질문이 음성의 형태로 피평가자(1000)에게 전달되는 모습을 도시한다. 도 6의 (B)와 같은 실시예에서는 상기 도 6의 (A)에서와 같은 문장이 음성출력모듈을 통해 피평가자(1000)에게 전달된다. 상기 음성출력모듈은 스피커장치 등을 포함하여 상기 피평가자(1000)가 질문을 전달받을 수 있도록 한다. 이 때 상기 음성출력모듈을 통해 전달되는 질문은 상기 질문의 억양, 어조, 어감 등을 통해 비언어적정보를 피평가자(1000)에게 전달하고, 상기 피평가자(1000)는 이에 대한 대답을 함으로써 평가를 받을 수 있다.FIG. 6B illustrates a state in which a question is delivered to the subject 1000 in the form of a voice by the question realization unit 130 according to another embodiment of the present invention. In the embodiment shown in FIG. 6B, the sentence as shown in FIG. 6A is transmitted to the subject 1000 through the voice output module. The voice output module includes a speaker device and the like so that the subject 1000 can receive a question. At this time, the question transmitted through the voice output module transmits non-verbal information to the subject 1000 through the intonation, tone, tone, etc. of the question, and the subject 1000 can be evaluated by giving an answer. .

도 6의 (C)는 본 발명의 다른 실시예에 따른 질문구현부(130)에 의해 질문이 영상 및 음성의 형태로 피평가자(1000)에게 전달되는 모습을 도시한다. 상기 영상은 실제 사람의 움직임을 촬영한 영상일 수도 있고, 혹은 컴퓨터로 생성된 사람 모델의 움직임을 영상화 한 데이터일 수도 있다. 상기 질문구현부(130)는 이와 같이 디스플레이모듈을 통해 표시되는 영상의 움직임을 통해 비언어적정보를 전달하고, 동시에 음성출력모듈을 통해 전달되는 질문의 억양, 어조, 어감 등을 통해 비언어적정보를 전달하고, 상기 피평가자(1000)는 이에 대한 대답을 함으로써 평가를 받을 수 있다.FIG. 6C illustrates a state in which a question is transmitted to the subject 1000 in the form of video and audio by the question realization unit 130 according to another embodiment of the present invention. The image may be an image obtained by photographing an actual human movement, or data obtained by imaging the movement of a computer-generated human model. The question implementation unit 130 transmits non-verbal information through the movement of the image displayed through the display module as described above, and at the same time delivers non-verbal information through the intonation, tone, and tone of the question transmitted through the voice output module. , the subject 1000 may receive an evaluation by giving an answer.

도 7은 본 발명의 일 실시예에 따른 대답분석부의 동작을 개략적으로 도시하는 도면이다.7 is a diagram schematically illustrating an operation of an answer analysis unit according to an embodiment of the present invention.

대답분석부(140)는 카메라모듈 및 음성입력모듈 중 1 이상의 모듈을 통해 상기 피평가자(1000)의 대답을 입력 받을 수 있다. 상기 카메라모듈을 통해서는 상기 피평가자(1000)가 대답하는 과정에서의 움직임, 표정, 시선처리 등의 정보를 획득할 수 있고, 상기 음성입력모듈을 통해서는 상기 피평가자(1000)의 대답의 컨텐츠, 억양, 성량 등의 정보를 획득할 수 있다.The answer analysis unit 140 may receive the answer of the subject 1000 through at least one of a camera module and a voice input module. Through the camera module, information such as movement, facial expression, and gaze processing in the process of answering the subject 1000 can be obtained, and through the voice input module, the content and intonation of the respondent 1000 . , and information such as volume can be obtained.

상기 대답분석부(140)는 이와 같이 획득한 정보를 인공지능을 통해 분석한다. 본 발명의 일 실시예에서 상기 대답분석부(140)는 인공신경망 모델을 통해 분석을 수행할 수 있다. 바람직하게는 상기 인공신경망은 영상 및 음성처리에 높은 성능을 보이는 CNN 인공신경망일 수 있다. 상기 인공신경망을 통해 상기 대답분석부(140)에서 수행되는 대답분석단계는 상기 질문데이터에 대한 대답의 비언어적정보를 2 이상의 카테고리로 분류하여 수치화 하여 분석점수를 도출할 수 있다. 예를 들어 상기 카테고리는 자신감, 전문성, 긴장감 및 실행력의 카테고리일 수 있고, 상기 피평가자(1000)의 대답으로부터 각각의 카테고리에 대한 분석점수를 도출할 수 있다.The answer analysis unit 140 analyzes the obtained information through artificial intelligence. In an embodiment of the present invention, the answer analysis unit 140 may perform analysis through an artificial neural network model. Preferably, the artificial neural network may be a CNN artificial neural network showing high performance in image and audio processing. In the answer analysis step performed by the answer analysis unit 140 through the artificial neural network, the non-verbal information of the answer to the question data may be classified into two or more categories and digitized to derive an analysis score. For example, the category may be a category of confidence, professionalism, tension, and execution power, and an analysis score for each category may be derived from the answer of the assessee 1000 .

상기 대답분석부(140)는 입력 받은 상기 피평가자(1000)의 영상으로부터 얼굴을 검출하고, 상기 얼굴영역으로부터 얼굴특징정보를 추출할 수 있고, 얼굴이 아닌 신체부위영역으로부터 움직임특징정보를 추출할 수 있다. 또한, 입력 받은 상기 피평가자(1000)의 음성으로부터 음성특징정보를 추출할 수 있다.The answer analysis unit 140 may detect a face from the input image of the subject 1000, extract facial feature information from the face region, and extract motion feature information from a body part region other than the face. have. Also, voice characteristic information may be extracted from the inputted voice of the subject 1000 .

상기 대답분석부(140)는 추출한 얼굴특징정보, 움직임특징정보 및 음성특징정보로부터 각각 얼굴피처맵, 움직임피처맵 및 음성피처맵으로부터 복합피처맵을 생성하고, 상기 복합피처맵에 대한 분석결과를 도출하여 상기 피평가자(1000)의 대답을 분석하고 평가를 수행할 수 있다.The answer analysis unit 140 generates a complex feature map from each of the facial feature map, the motion feature map, and the voice feature map from the extracted facial feature information, motion feature information, and voice feature information, and analyzes the result of the analysis on the complex feature map. By deriving it, the answer of the subject 1000 may be analyzed and evaluation may be performed.

또한, 상기 대답분석단계는 평가 결과에 기초하여 분석정보를 생성할 수 있다. 상기 분석정보는 상기 평가 결과를 정량화 한 점수 정보를 포함할 수 있고, 이와 같은 점수 정보를 통해 상기 피평가자(1000)를 객관적으로 평가할 수 있다.In addition, the answer analysis step may generate analysis information based on the evaluation result. The analysis information may include score information obtained by quantifying the evaluation result, and the subject 1000 may be objectively evaluated through such score information.

도 8은 본 발명의 일 실시예에 따른 질문데이터가 활용되는 과정을 개략적으로 도시하는 도면이다.8 is a diagram schematically illustrating a process in which question data is utilized according to an embodiment of the present invention.

상기 질문데이터는 피평가자(1000)에게 전달하기 위한 질문을 구현하는데 필요한 정보를 포함하고, 또한 상기 질문에 대한 상기 피평가자(1000)의 대답을 평가하기 위한 평가기준정보를 포함한다.The question data includes information necessary to implement a question to be transmitted to the evaluated person 1000 , and also includes evaluation criteria information for evaluating an answer of the evaluated person 1000 to the question.

따라서 상기 질문도출부(120)에서 생성된 질문데이터는 상기 질문구현부(130)에 입력 되어 상기 피평가자(1000)에 전달되는 질문을 구현하는데 사용됨과 동시에, 상기 대답분석부(140)에 입력 되어 상기 피평가자(1000)의 대답을 평가하는데 사용된다.Therefore, the question data generated by the question derivation unit 120 is input to the question implementation unit 130 and used to implement the question transmitted to the subject 1000, and is inputted to the answer analysis unit 140 at the same time. It is used to evaluate the answer of the subject 1000 .

즉, 상기 대답분석부(140)에서 수행되는 대답분석단계는 상기 질문데이터에 포함된 평가기준정보에 기초하여 상기 피평가자(1000)의 대답을 평가하게 된다. 이와 같이 상기 질문데이터에 평가기준정보가 포함됨에 따라, 질문에 대한 대답을 더욱 정확히 평가할 수 있게 된다.That is, the answer analysis step performed by the answer analysis unit 140 evaluates the answer of the subject 1000 based on the evaluation reference information included in the question data. As described above, as the evaluation criterion information is included in the question data, it is possible to more accurately evaluate the answer to the question.

예를 들어 같은 질문 내용을 묻는 질문이더라도 전달하는 문장, 어조, 표정 등에 의해 평가자가 피평가자(1000)에게 기대하게 되는 대답이 달라질 수 있고, 이와 같은 차이가 상기 평가기준정보에 반영됨에 따라 더욱 자세한 평가가 가능해진다. 또한, 연속된 질문의 흐름에 대한 대답을 분석함으로써 각각의 질문에 대한 개별 평가에 더해 대답의 흐름에 따른 평가를 수행할 수 있는 효과를 발휘할 수 있다.For example, even if it is a question asking the same question content, the answer that the evaluator expects from the subject 1000 may vary depending on the sentence, tone, expression, etc. delivered, and as such a difference is reflected in the evaluation criteria information, a more detailed evaluation becomes possible In addition, by analyzing the answers to the continuous flow of questions, it is possible to exert the effect of performing evaluation according to the flow of answers in addition to the individual evaluation of each question.

본 발명의 일 실시예에서 상기 대답분석부(140)는 도 7에서 설명한 것과 같이 2 이상의 카테고리에 대한 분석점수를 도출할 수 있다. 이 때, 상기 평가기준정보는 상기 2 이상의 카테고리 별로 수치화 된 분석점수에 대한 평가기준을 포함할 수 있다. 예를 들어, 상기 카테고리가 자신감, 전문성, 긴장감 및 실행력의 카테고리인 경우, 상기 대답분석부(140)는 상기 카테고리 각각에 대한 분석점수를 도출하게 된다. 예를 들어 상기 피평가자(1000)의 대답은 자신감이 80점, 전문성이 35점, 긴장감 50점 및 실행력 60점일 수 있다. 이 때, 상기 평가기준정보는 상기 카테고리 각각에 대한 분석점수에 대해 평가를 내리게 된다. 이와 같은 평가는 수치화 된 점수로 표현될 수도 있고, 혹은 기설정된 기준에 대한 pass/fail 점수로 표현될 수도 있다. 일 예로 상기 평가기준정보는 자신감의 분석점수가 80점 이상인 경우의 평가점수는 10점, 분석점수가 60점 이상 80점 미만인 경우의 평가점수는 7점, 분석점수가 40점 이상 60점 미만인 경우의 평가점수는 5점, 분석점수가 40점 미만인 경우의 평가점수는 2점과 같이 수치화 된 점수일 수 있고, 혹은 다른 예로는 자신감의 분석점수가 50점 이상인 경우 pass, 50점 미만인 경우 fail로 평가할 수 있다.In an embodiment of the present invention, the answer analysis unit 140 may derive analysis scores for two or more categories as described with reference to FIG. 7 . In this case, the evaluation criteria information may include evaluation criteria for the numerical analysis score for each of the two or more categories. For example, when the category is a category of confidence, professionalism, tension, and execution power, the answer analysis unit 140 derives an analysis score for each of the categories. For example, the answer of the evaluator 1000 may be 80 points in confidence, 35 points in professionalism, 50 points in tension, and 60 points in execution power. At this time, the evaluation criteria information is evaluated for the analysis score for each of the categories. Such evaluation may be expressed as a numerical score, or it may be expressed as a pass/fail score for a preset criterion. For example, in the evaluation criteria information, when the analysis score of confidence is 80 or more, the evaluation score is 10 points, when the analysis score is 60 or more and less than 80 points, the evaluation score is 7 points, and when the analysis score is 40 or more and less than 60 points evaluation score of 5 points, and when the analysis score is less than 40 points, the evaluation score can be a numerical score such as 2 points, or, as another example, a pass when the analysis score of confidence is 50 or more, and a fail when the analysis score is less than 50 can be evaluated

이와 같은 평가기준은 상기 카테고리에 따라 분석점수가 낮을수록 평가점수가 높게 설정될 수도 있다. 예를 들어 상기 긴장감의 분석점수가 80점 이상인 경우의 평가점수는 2점, 분석점수가 60점 이상 80점 미만인 경우의 평가점수는 5점, 분석점수가 40점 이상 60점 미만인 경우의 평가점수는 8점, 분석점수가 40점 미만인 경우의 평가점수는 10점일 수 있다. 혹은 상기 긴장감의 분석점수가 20점 이상 50점 미만인 경우 pass, 20점 미만이거나 50점 이상인 경우 fail과 같이, 특정 구간에서 더 높은 평가를 받을 수 있도록 할 수도 있다.As for such evaluation criteria, the lower the analysis score, the higher the evaluation score may be set according to the category. For example, when the analysis score of the tension is 80 or more, the evaluation score is 2 points, when the analysis score is 60 or more and less than 80 points, the evaluation score is 5, and when the analysis score is 40 or more but less than 60 points, the evaluation score is 8 points, and if the analysis score is less than 40 points, the evaluation score may be 10 points. Alternatively, it may be possible to receive a higher evaluation in a specific section, such as a pass when the analysis score of the tension is 20 or more and less than 50, and a fail when it is less than 20 or 50 or more.

이와 같이 평가기준정보에 따라 평가를 수행한 평가 결과에 기초하여 생성된 분석정보는 앞서 설명한 것과 같은 카테고리 별 분석점수, 그에 따른 평가점수 및 상기 피평가자(1000)의 대답에 대한 정보 자체를 포함할 수 있다. 이와 같은 분석정보는 그 자체로 상기 피평가자(1000)를 평가하는 정보로 사용될 수 있고, 혹은 이후에 이어질 질문을 도출하는데 사용될 수도 있다.As described above, the analysis information generated based on the evaluation result performed according to the evaluation criteria information may include the analysis score for each category as described above, the evaluation score accordingly, and information about the answer of the subject 1000. have. Such analysis information may be used as information for evaluating the subject 1000 by itself, or may be used to derive questions to be followed later.

도 9는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.9 is a diagram schematically illustrating an operation of a question extracting unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 비언어적 평가 방법은 상기 질문도출단계, 질문구현단계 및 대답분석단계가 반복적으로 수행될 수 있다. 일반적인 면접 등 피평가자(1000)를 평가하는 과정에서는 하나의 질문만이 주어지는 것이 아니라, 일련의 질문의 조합을 통해 다면적으로 피평가자(1000)를 평가할 수 있다. 이를 위해 본 발명의 일 실시예에 따른 비언어적 평가 방법은 2 이상의 질문을 하고 대답을 평가하기 위해 상기 질문도출단계, 질문구현단계 및 대답분석단계를 2회 이상 반복 수행할 수 있다.In the non-verbal evaluation method according to an embodiment of the present invention, the question derivation step, the question realization step, and the answer analysis step may be repeatedly performed. In the process of evaluating the evaluator 1000, such as in a general interview, not only one question is given, but the subject 1000 may be evaluated in multiple ways through a combination of a series of questions. To this end, the non-verbal evaluation method according to an embodiment of the present invention may repeatedly perform the question derivation step, the question realization step, and the answer analysis step twice or more in order to ask two or more questions and evaluate the answers.

이 때 상기 대답분석단계를 통해 도출된 분석정보를 상기 질문도출단계에서 다음 질문을 도출하는데 활용하게 되면, 이전의 질문과 연계하여 복합적인 평가를 수행하는데 도움이 된다.At this time, if the analysis information derived through the answer analysis step is used to derive the next question in the question derivation step, it is helpful to perform a complex evaluation in connection with the previous question.

이와 같이 상기 질문도출단계, 질문구현단계 및 대답분석단계가 반복적으로 수행되는 경우 첫 질문을 도출하기 위해서는 우선 피평가자정보입력단계가 수행된다. 도 3에서 설명한 바와 같이 상기 피평가자정보입력단계에서는 피평가자의 정보, 평가상황 및 평가자의 정보 등을 입력 받고 이에 기초하여 초기정보를 생성한다.In this way, when the question derivation step, the question realization step, and the answer analysis step are repeatedly performed, in order to derive the first question, the subject information input step is first performed. As described with reference to FIG. 3 , in the step of inputting the subject information, initial information is generated based on the input of the subject information, the evaluation status, and the evaluator information.

이 후, 상기 질문도출단계는 상기 초기정보에 기초하여 질문데이터를 생성한다. 이어서 상기 질문구현단계는 상기 질문데이터에 기초하여 피평가자(1000)에게 질문을 전달하고, 상기 대답분석단계는 상기 피평가자(1000)의 질문에 대한 대답을 분석하여 평가한 후 분석정보를 생성한다.Thereafter, the question derivation step generates question data based on the initial information. Then, the question realization step transmits a question to the subject 1000 based on the question data, and the answer analysis step analyzes and evaluates the answer to the question of the evaluator 1000 and then generates analysis information.

이 후 다시 질문도출단계로 돌아가 반복하게 되는데, 이 때 상기 질문도출단계는 상기 분석정보에 기초하여 질문데이터를 생성하게 된다. 따라서 질문도출부(120)에서 수행될 수 있는 상기 질문도출단계에서는 이전의 질문에 대한 상기 피평가자(1000)의 대답의 분석 및 평가 결과에 기초하여 이어질 질문을 생성할 수 있다. 이와 같이 상기 분석정보에 기초하여 질문데이터를 생성하는 경우, 이전의 질문에 대한 대답의 내용에 기초하여 이어질 질문의 내용을 생성할 수도 있고, 혹은 이전의 질문에 대한 대답의 평가 결과에 기초하여 평가할 영역을 정할 수도 있다.Thereafter, the process returns to the question derivation step and repeats. In this case, the question derivation step generates question data based on the analysis information. Accordingly, in the question deriving step that may be performed by the question deriving unit 120 , a subsequent question may be generated based on the analysis and evaluation results of the answer of the evaluator 1000 to the previous question. In this way, when generating question data based on the analysis information, the content of the next question may be generated based on the content of the answer to the previous question, or the content of the next question may be generated based on the evaluation result of the answer to the previous question. You can also define an area.

예를 들어, 이전의 질문에서 상기 피평가자(1000)의 긴장감의 분석점수가 높아 fail을 받게 된 경우, 상기 질문도출부(120)는 상기 긴장감을 다시 평가하기 위한 질문데이터를 생성할 수 있다. 예를 들어 상기 긴장감의 분석점수가 높았기 때문에 새로 생성되는 질문데이터에 포함된 비언어적정보는 상기 긴장감을 완화시켜줄 수 있도록 질문의 내용, 문장, 억양 및 전달 표정 등이 설정될 수 있고, 이와 같은 질문에 대한 대답을 평가할 수 있는 평가기준정보 또한 갱신될 수 있다.For example, when a fail is received because the analysis score of the tension of the examinee 1000 in the previous question is high, the question derivation unit 120 may generate question data for re-evaluating the tension. For example, since the analysis score of the tension was high, the non-verbal information included in the newly created question data may set the content, sentence, intonation, and expression of the question to relieve the tension, and such questions The evaluation criteria information that can evaluate the answer to the question can also be updated.

상기 평가기준정보는 새로 생성된 질문데이터에 대한 대답을 평가하기 위하여 상기 초기정보 및 상기 분석정보 중 1 이상에 기초하여 갱신될 수 있다. 상기 초기정보 및 상기 분석정보는 상기 피평가자에 대한 정보 및 상기 피평가자의 대답에 대한 정보를 포함하고 있어서, 상기 초기정보 혹은 상기 분석정보에 의해 새로 생성되는 질문데이터의 질문에 대한 대답을 평가하기 위한 정보로 사용될 수 있다.The evaluation reference information may be updated based on at least one of the initial information and the analysis information in order to evaluate an answer to the newly generated question data. The initial information and the analysis information include information about the person to be evaluated and information on the answer of the person to be evaluated, so information for evaluating an answer to a question of the question data newly created by the initial information or the analysis information can be used as

예를 들어, 상기 초기정보에는 상기 피평가자의 전공에 대한 정보가 포함되어 있고, 이전의 질문에서 상기 피평가자의 학생 시절의 경험에 대해 묻고 상기 피평가자의 대답의 분석 결과 학생 시절의 경험에 대한 자신감의 평가 결과가 우수한 경우, 상기 질문도출부(120)는 상기 학생 시절의 경험에 대한 다른 질문을 건네도록 질문데이터를 생성하고, 상기 다른 질문에 대한 상기 피평가자의 대답에 대한 자신감을 더욱 상세히 평가할 수 있도록 상기 평가기준정보를 갱신하여 평가를 수행함으로써 상기 피평가자에 대해 심층적이고 다면화된 평가를 수행할 수 있게 된다.For example, the initial information includes information on the subject's major, asks about the subject's student experience in a previous question, and as a result of analyzing the evaluator's answer, evaluation of confidence in the student experience If the result is excellent, the question derivation unit 120 generates question data to ask another question about the experience of the student, and evaluates the confidence of the examinee in answering the other question in more detail. By performing the evaluation by updating the evaluation criteria information, it is possible to perform an in-depth and multifaceted evaluation of the subject.

이와 같이 질문 및 대답을 반복할 때, 피평가자에게 하나의 질문이 주어진 후 상기 하나의 질문에 대한 대답을 분석하여 평가한 후 다시 질문을 생성할 수도 있고, 혹은 일련의 2 이상의 질문이 순차적으로 주어지고, 상기 2 이상의 질문에 대한 대답 각각을 분석하여 평가한 후 다시 질문을 생성할 수도 있다. 따라서, 상기 질문데이터는 하나의 질문에 대한 데이터를 포함하거나, 혹은 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함할 수 있다. 상기 질문데이터가 하나의 질문에 대한 데이터를 포함하는 경우 질문에 대한 대답에 따라 즉시 대답을 평가하고, 평가 결과에 기초하여 다음 질문을 도출할 수 있으나 분석 및 질문의 도출에 소요되는 오버헤드가 많아지게 되고, 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함하는 경우, 2 이상의 질문에 대한 질문을 한번에 도출하고, 상기 2 이상의 질문에 대한 평가 결과를 다시 새로운 2 이상의 질문을 포함하는 질문세트를 도출하는데 사용하기 때문에 도출에 소요되는 리소스를 절약할 수 있다. 다만 이 경우 질문 각각에 대한 대답의 평가결과가 다음 질문에 반영되지 않기 때문에 평가의 정확도에 영향을 미칠 수 있다.When repeating questions and answers in this way, after a single question is given to the evaluator, the answer to the single question may be analyzed and evaluated, and then a question may be generated again, or a series of two or more questions may be sequentially given and , after analyzing and evaluating each of the answers to the two or more questions, the question may be generated again. Accordingly, the question data may include data for one question or data for a question set including two or more questions. When the question data includes data for one question, the answer can be evaluated immediately according to the answer to the question, and the next question can be derived based on the evaluation result, but the overhead required for analysis and question derivation is high. If the data for the question set including two or more questions is included, the questions for the two or more questions are derived at once, and the evaluation result for the two or more questions is again returned to a new question set including two or more questions. Since it is used for derivation, the resource required for derivation can be saved. However, in this case, since the evaluation result of the answer to each question is not reflected in the next question, it may affect the accuracy of the evaluation.

따라서 상기 2 이상의 질문을 포함하는 질문세트의 경우 서로 밀접한 연관성을 갖는 질문들로 구성하여 상기 질문세트에 대한 대답에 대한 평가의 정확도를 높일 수 있도록 함이 바람직하다.Accordingly, in the case of the question set including the two or more questions, it is preferable to configure the questions closely related to each other to increase the accuracy of the evaluation of the answers to the question set.

도 10은 본 발명의 일 실시예에 따른 대답분석부의 피처맵 생성과정을 개략적으로 도시한다.10 schematically illustrates a feature map generation process of an answer analysis unit according to an embodiment of the present invention.

도 10에서는 CNN 인공신경망 모델을 이용하여 피평가자의 대답의 비언어적정보를 평가하기 위하여 얼굴특징정보에 대한 얼굴피처맵을 생성하는 과정을 예시적으로 도시한다. 도 10에 도시된 방법은 대답분석부(140)에 의하여 수행될 수 있다.10 exemplarily shows a process of generating a facial feature map for facial feature information in order to evaluate non-verbal information of an examinee's answer using a CNN artificial neural network model. The method shown in FIG. 10 may be performed by the answer analysis unit 140 .

구체적으로 예를 들어, 64 X 64 크기의 얼굴특징정보를 5 X 5 크기의 32개 필터로 컨볼루션(convolution)하여 60 X 60 크기의 32개 결과물을 출력하고, 이를 3 X 3 max pooling 을 이용하여 30 X 30 크기로 축소시킨다. 30 X 30 크기의 32개 결과물에 다시 5 X 5 크기의 32개 필터로 컨볼루션하고, 다시 3 X 3 max pooling하면 13 X 13 크기의 32개 결과물이 출력된다. 여기에, 5 X 5 크기의 64개 필터를 컨볼루션 하면 9 X 9 크기의 64개 결과물이 나오고 경계(boundary)를 0으로 채워 10 X 10으로 만든 후 3 X 3 max pooling을 적용하여 5 X 5 크기의 64개 결과물을 얻는다.Specifically, for example, the face feature information of size 64 X 64 is convolved with 32 filters of size 5 X 5, and 32 results of size 60 X 60 are output, and this is used by 3 X 3 max pooling. to reduce the size to 30 X 30. Convolution of 32 results of size 30 X 30 with 32 filters of size 5 X 5, and 3 X 3 max pooling again results in 32 results of size 13 X 13. Here, if 64 filters of size 5 X 5 are convolved, 64 results of size 9 X 9 are obtained. After filling the boundary with 0 to make it 10 X 10, 3 X 3 max pooling is applied to 5 X 5 Get 64 results of size.

그 후 512개의 가중치가 있는 FC와 128개의 가중치가 있는 FC를 통해 최종 128개의 벡터로 구성된 얼굴피처맵을 얻는다. 예를 들어, 최종 출력값의 개수는 얻고자 하는 얼굴에 대한 특성정보의 개수와 같을 수 있다.After that, a face feature map consisting of 128 vectors is obtained through FC with 512 weights and FC with 128 weights. For example, the number of final output values may be the same as the number of characteristic information about a face to be obtained.

상기 얼굴피처맵은 상기 최종 128개의 출력값 자체가 될 수 있고, 혹은 구 중간 단계에서 컨볼루션 한 피처맵에 해당할 수 있다. 이와 같은 CNN 기반의 인공신경망 모듈의 구성은 1 이상의 컨볼루션 계층, 풀링 계층, ReLu와 같은 활성화 함수, FC 계층이나 Global Average Pooling 계층 등을 조합하여 형성할 수 있다.The face feature map may be the final 128 output values, or may correspond to a feature map convolved in the sphere intermediate stage. The configuration of such a CNN-based artificial neural network module can be formed by combining one or more convolutional layers, pooling layers, activation functions such as ReLu, FC layers or Global Average Pooling layers.

본 발명의 일 실시예에 따른 대답분석부(140)는 상기와 같은 과정을 거쳐 얼굴피처맵을 생성하고, 상기 피처맵에 기초하여 기설정된 카테고리의 분석점수를 도출함으로써 상기 피평가자(1000)의 대답에 대한 평가를 수행할 수 있다.The answer analysis unit 140 according to an embodiment of the present invention generates a face feature map through the process as described above, and derives an analysis score of a preset category based on the feature map to determine the answer of the assessee 1000 . evaluation can be performed.

도 11은 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.11 is a diagram schematically illustrating an operation of a question realization unit according to an embodiment of the present invention.

도 11을 참조하면 본 발명의 일 실시예에서 상기 질문데이터는 질문의 내용을 담고 있는 언어적정보 및 상기 질문을 전달하는 방법을 담고 있는 비언어적정보를 포함한다. 이와 같은 언어적정보 및 비언어적정보는 상기 질문구현부(130)를 통해 피평가자(1000)가 인식할 수 있는 형태로 구성되어 상기 피평가자(1000)에게 전달된다.Referring to FIG. 11 , in an embodiment of the present invention, the question data includes verbal information containing the content of the question and non-verbal information containing the method of delivering the question. Such verbal and non-verbal information is configured in a form that can be recognized by the subject 1000 through the question realization unit 130 and delivered to the subject 1000 .

도 12는 본 발명의 일 실시예에 따른 질문데이터의 비언어적정보의 일 예를 개략적으로 도시하는 그래프이다.12 is a graph schematically illustrating an example of non-verbal information of question data according to an embodiment of the present invention.

도 12를 참조하면 상기 질문데이터의 비언어적정보는 질문의 문장, 질문을 전달하는 음성 및 질문을 전달하는 평가자의 표정 중 1 이상에 대한 긍정 및 부정 단계 정보를 포함할 수 있다. 이와 같은 단계 정보는 각각 긍정 및 부정의 정도에 따라 분류될 수 있다.Referring to FIG. 12 , the non-verbal information of the question data may include positive and negative level information on at least one of a sentence of a question, a voice conveying the question, and an expression of an evaluator conveying the question. Such step information may be classified according to the degree of positive and negative, respectively.

예를 들어 면접에 있어서 회사의 지원 동기에 대한 질문을 함에 있어서, 상기 문장의 긍정 단계가 높은 경우 상기 질문구현부(130)에서는 “저희 회사를 지원해주셔서 감사합니다. 지원동기에 대해 말씀해 주시겠어요?”와 같은 문장의 형태로 구현하여 피평가자(1000)에게 전달할 수 있고, 상기 문장의 긍정 단계가 낮은 경우 상기 질문구현부(130)에서는 “왜 저희 회사를 지원했죠?”와 같이 사무적인 문장구조를 갖는 형태로 구현하여 피평가자(1000)에게 전달할 수 있다.For example, when asking a question about the company's application motive in an interview, if the affirmative level of the above sentence is high, the question implementation unit 130 says, "Thank you for supporting our company. Can you tell me about your motivation for application?” and it can be implemented in the form of a sentence such as “Why did you apply for our company?” If the affirmative level of the sentence is low, the question implementation unit 130 asks, “Why did you apply for our company? It can be implemented in a form having a clerical sentence structure such as ” and delivered to the evaluated 1000 .

또한, 상기 음성의 긍정 단계가 높은 경우 상기 질문구현부(130)는 부드러운 어조에 차분한 목소리로 질문을 전달하도록 구현할 수 있고, 상기 음성의 긍정 단계가 낮은 경우, 고압적인 목소리에 빠른 속도로 공격적인 질문을 구현하도록 할 수도 있다.In addition, when the affirmation level of the voice is high, the question implementation unit 130 can be implemented to deliver the question in a calm voice with a soft tone, and when the affirmation stage of the voice is low, an aggressive question at a high speed in a high-pressure voice can also be implemented.

또한, 상기 표정의 긍정 단계가 높은 경우 상기 질문구현부(130)를 통해 구현되는 영상의 면접관은 미소를 띈 얼굴로 상기 피평가자(1000)를 쳐다보며 질문을 할 수 있고, 상기 표정의 긍정 단계가 낮은 경우 구현되는 영상의 면접관은 지루하다는 듯이 피평가자(1000)가 아닌 다른 곳을 응시하며 질문을 던지게 될 수도 있다.In addition, when the affirmative stage of the expression is high, the interviewer of the image implemented through the question realization unit 130 may ask a question while looking at the subject 1000 with a smile, and the affirmation stage of the expression is If it is low, the interviewer of the implemented video may ask questions while staring at a place other than the subject 1000 as if bored.

이와 같이 상기 질문데이터의 비언어적정보는 상기 질문구현부(130)에서 상기 피평가자(1000)로 질문이 전달되는 과정에서 같이 전달된다. 이와 같은 상기 질문데이터의 비언어적정보는 도 12에 도시된 것과 같이 문장, 음성 및 표정 등 다양한 파라미터 값의 조합으로 구성될 수 있다.In this way, the non-verbal information of the question data is transmitted together in the process of transferring the question from the question realizing unit 130 to the subject 1000 . As shown in FIG. 12 , the non-verbal information of the question data may be composed of a combination of various parameter values such as sentences, voices, and facial expressions.

도 13은 본 발명의 일 실시예에 따른 질문데이터의 세트를 개략적으로 도시하는 도면이다.13 is a diagram schematically illustrating a set of question data according to an embodiment of the present invention.

도 12의 예에서와 같이 상기 질문데이터의 비언어적정보가 문장, 음성 및 표정의 3개 파라미터 값의 조합으로 구성되는 경우, 동일한 질문 내용에 대하여 상기 파라미터 값에 따라 다양한 질문 전달 방법이 구현될 수 있다. 이와 같은 다양한 질문 전달 방법은 도 13에서와 같이 하나의 질문세트를 구성하여 저장될 수 있고, 상기 질문구현부(130)는 상기 파라미터 값에 따라 상기 질문세트 중 해당되는 질문을 불러 와 상기 피평가자(1000)에게 전달할 수 있다.As in the example of FIG. 12 , when the non-verbal information of the question data consists of a combination of three parameter values of sentence, voice, and expression, various question delivery methods can be implemented for the same question content according to the parameter values. . Such various question delivery methods can be stored by composing one question set as shown in FIG. 13, and the question realization unit 130 calls a corresponding question from among the question sets according to the parameter value and asks the examinee ( 1000) can be forwarded.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed in the user terminal through a file provided by the file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file in response to a request from the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computing devices and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible for those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (5)

1 이상의 프로세서 및 1 이상의 메모리를 포함하는 사용자단말기에 의해 수행되는 기계학습에 기초한 비언어적 평가 방법으로서,
초기의 상기 질문데이터를 생성하기 위한 상기 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계;
상기 질문데이터를 생성하는 질문도출단계;
비언어적정보를 포함하는 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 피평가자에게 질문을 전달하는 질문구현단계; 및
상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고,
상기 피평가자정보입력단계는,
상기 질문데이터를 생성하기 위한 피평가자의 정보 및 평가상황의 정보를 입력하는 피평가자상태입력단계;
상기 질문데이터를 생성하기 위한 평가자의 정보를 입력하는 평가자정보입력단계; 및
입력 받은 상기 피평가자의 정보 상기 평가자의 정보 및 상기 평가상황에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성하는 초기정보생성단계; 를 포함하는, 기계학습에 기초한 비언어적 평가 방법.
As a non-verbal evaluation method based on machine learning performed by a user terminal comprising one or more processors and one or more memories,
an evaluator information input step of receiving at least one of the evaluator's information and the evaluator's information for generating the initial question data;
a question derivation step of generating the question data;
a question realization step of delivering a question to the assessee in one or more of auditory and visual methods based on question data including non-verbal information; and
an answer analysis step of analyzing and evaluating non-verbal information included in the subject's answer to the question data through an artificial neural network; including,
In the step of inputting the subject information,
an assessee status input step of inputting information on the assessee and information on the assessment status for generating the question data;
an evaluator information input step of inputting evaluator information for generating the question data; and
an initial information generation step of generating initial information for generating the question data based on the received information of the evaluator and the information of the evaluator and the evaluation status; Including, a non-verbal evaluation method based on machine learning.
청구항 1에 있어서,
상기 평가기준정보는,
상기 초기정보 및 상기 분석정보 중 1 이상에 기초하여 갱신될 수 있는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 1,
The evaluation criteria information is
A non-verbal evaluation method based on machine learning, which may be updated based on at least one of the initial information and the analysis information.
청구항 1에 있어서,
상기 대답분석단계는 상기 질문데이터에 대한 대답의 비언어적정보를 2 이상의 카테고리로 분류하여 수치화 하고,
상기 평가기준정보는 상기 2 이상의 카테고리 별로 수치화 된 분석점수에 대한 평가기준을 포함하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 1,
The answer analysis step quantifies the non-verbal information of the answer to the question data by classifying it into two or more categories,
The evaluation criterion information includes evaluation criteria for numerical analysis scores for each of the two or more categories, a non-verbal evaluation method based on machine learning.
청구항 1에 있어서,
상기 질문데이터는, 하나의 질문에 대한 데이터를 포함하거나, 혹은 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 1,
The question data includes data on one question, or includes data on a question set including two or more questions, a non-verbal evaluation method based on machine learning.
기계학습에 기초한 비언어적 평가를 위한 컴퓨터-판독가능 매체로서,
상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
초기의 상기 질문데이터를 생성하기 위한 상기 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계;
상기 질문데이터를 생성하는 질문도출단계;
비언어적정보를 포함하는 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 피평가자에게 질문을 전달하는 질문구현단계; 및
상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고,
상기 피평가자정보입력단계는,
상기 질문데이터를 생성하기 위한 피평가자의 정보 및 평가상황의 정보를 입력하는 피평가자상태입력단계;
상기 질문데이터를 생성하기 위한 평가자의 정보를 입력하는 평가자정보입력단계; 및
입력 받은 상기 피평가자의 정보 상기 평가자의 정보 및 상기 평가상황에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성하는 초기정보생성단계; 를 포함하는, 컴퓨터-판독가능 매체.
A computer-readable medium for non-verbal evaluation based on machine learning, comprising:
The computer-readable medium stores instructions for causing a computing device to perform the following steps:
an evaluator information input step of receiving at least one of the evaluator's information and the evaluator's information for generating the initial question data;
a question derivation step of generating the question data;
a question realization step of delivering a question to the assessee in one or more of auditory and visual methods based on question data including non-verbal information; and
an answer analysis step of analyzing and evaluating non-verbal information included in the subject's answer to the question data through an artificial neural network; including,
In the step of inputting the subject information,
an assessee status input step of inputting information on the assessee and information on the assessment status for generating the question data;
an evaluator information input step of inputting evaluator information for generating the question data; and
an initial information generation step of generating initial information for generating the question data based on the received information of the evaluator and the information of the evaluator and the evaluation status; A computer-readable medium comprising:
KR1020210077440A 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning KR102377419B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210077440A KR102377419B1 (en) 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20180060977 2018-05-29
KR1020180089027A KR102268496B1 (en) 2018-05-29 2018-07-31 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
KR1020210077440A KR102377419B1 (en) 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180089027A Division KR102268496B1 (en) 2018-05-29 2018-07-31 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

Publications (2)

Publication Number Publication Date
KR20210075946A true KR20210075946A (en) 2021-06-23
KR102377419B1 KR102377419B1 (en) 2022-03-22

Family

ID=69063014

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020180089027A KR102268496B1 (en) 2018-05-29 2018-07-31 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
KR1020210077440A KR102377419B1 (en) 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning
KR1020210077437A KR102387113B1 (en) 2018-05-29 2021-06-15 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020180089027A KR102268496B1 (en) 2018-05-29 2018-07-31 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210077437A KR102387113B1 (en) 2018-05-29 2021-06-15 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

Country Status (1)

Country Link
KR (3) KR102268496B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261673B1 (en) * 2020-01-21 2021-06-07 주식회사 제네시스랩 Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof
KR102371172B1 (en) * 2020-02-27 2022-03-08 주식회사 제네시스랩 Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method
KR102310135B1 (en) * 2020-03-30 2021-10-08 주식회사 제네시스랩 Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model
KR102407212B1 (en) * 2020-07-10 2022-06-10 주식회사 제네시스랩 Methods, Systems and Computer-Readable Medium for Automated Evaluation of Interview Videos using Machine Learning Model
KR102475524B1 (en) * 2020-07-10 2022-12-08 주식회사 제네시스랩 Methods, Systems and Computer-Readable Medium for Deriving In-Depth Questions for Automated Evaluation of Interview Videos using Machine Learning Model
KR102523808B1 (en) * 2020-12-07 2023-04-21 이상록 Methord and device of performing ai interview for foreigners
KR102591769B1 (en) * 2022-09-14 2023-10-24 주식회사 글로랑 Server and method for generating personality test using query response network based on language model
KR102583312B1 (en) * 2022-12-29 2023-09-26 크디랩 주식회사 Method and system for evaluating of salesman training using analyzation of language and gesture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003114931A (en) * 2001-10-02 2003-04-18 Exit Inc Evaluating device and its method
JP2005141307A (en) * 2003-11-04 2005-06-02 Shl-Japan Ltd Evaluation supporting device and program, recording medium with evaluation supporting program recorded and evaluation method using evaluation supporting device
KR20090010957A (en) * 2006-03-14 2009-01-30 스페리칼 다이나믹스, 인크. System for and method for psychological assessment
JP2016105142A (en) * 2014-12-01 2016-06-09 ヤマハ株式会社 Conversation evaluation device and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017009825A (en) * 2015-06-23 2017-01-12 トヨタ自動車株式会社 Conversation state analyzing device and conversation state analyzing method
JP5885875B1 (en) * 2015-08-28 2016-03-16 株式会社Ubic Data analysis system, data analysis method, program, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003114931A (en) * 2001-10-02 2003-04-18 Exit Inc Evaluating device and its method
JP2005141307A (en) * 2003-11-04 2005-06-02 Shl-Japan Ltd Evaluation supporting device and program, recording medium with evaluation supporting program recorded and evaluation method using evaluation supporting device
KR20090010957A (en) * 2006-03-14 2009-01-30 스페리칼 다이나믹스, 인크. System for and method for psychological assessment
JP2016105142A (en) * 2014-12-01 2016-06-09 ヤマハ株式会社 Conversation evaluation device and program

Also Published As

Publication number Publication date
KR102387113B1 (en) 2022-04-15
KR20210075944A (en) 2021-06-23
KR102268496B1 (en) 2021-06-23
KR20190140805A (en) 2019-12-20
KR102377419B1 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
KR102387113B1 (en) Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
US10950219B2 (en) Systems and methods for providing a virtual assistant
US10249207B2 (en) Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
US11095734B2 (en) Social media/network enabled digital learning environment with atomic refactoring
CN106663383B (en) Method and system for analyzing a subject
US20200065612A1 (en) Interactive artificial intelligence analytical system
JP7365121B2 (en) Method and apparatus for personalizing speech recognition models
JP7316453B2 (en) Object recommendation method and device, computer equipment and medium
US20180268821A1 (en) Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
KR101984283B1 (en) Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof
US20140278506A1 (en) Automatically evaluating and providing feedback on verbal communications from a healthcare provider
US20210125149A1 (en) Adaptability job vacancies matching system and method
US20200051451A1 (en) Short answer grade prediction
US11602287B2 (en) Automatically aiding individuals with developing auditory attention abilities
US20230080660A1 (en) Systems and method for visual-audio processing for real-time feedback
CN117541444B (en) Interactive virtual reality talent expression training method, device, equipment and medium
CN109101956B (en) Method and apparatus for processing image
Siegert et al. Admitting the addressee detection faultiness of voice assistants to improve the activation performance using a continuous learning framework
Cherner et al. AI-powered presentation platforms for improving public speaking skills: Takeaways and suggestions for improvement
KR102344724B1 (en) Electronic apparatus for managing learning of student based on artificial intelligence, and learning management method
Cinieri et al. Eye Tracking and Speech Driven Human-Avatar Emotion-Based Communication
US20230237922A1 (en) Artificial intelligence-driven avatar-based personalized learning techniques
Tanaka et al. End-to-end modeling for selection of utterance constructional units via system internal states
Chiba et al. Cluster-based approach to discriminate the user’s state whether a user is embarrassed or thinking to an answer to a prompt
Dube AI Human Is the Essential Formula for Customer Engagement

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant