KR20190140805A - Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning - Google Patents

Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning Download PDF

Info

Publication number
KR20190140805A
KR20190140805A KR1020180089027A KR20180089027A KR20190140805A KR 20190140805 A KR20190140805 A KR 20190140805A KR 1020180089027 A KR1020180089027 A KR 1020180089027A KR 20180089027 A KR20180089027 A KR 20180089027A KR 20190140805 A KR20190140805 A KR 20190140805A
Authority
KR
South Korea
Prior art keywords
question
information
evaluator
verbal
evaluation
Prior art date
Application number
KR1020180089027A
Other languages
Korean (ko)
Other versions
KR102268496B1 (en
Inventor
이재욱
유대훈
Original Assignee
주식회사 제네시스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제네시스랩 filed Critical 주식회사 제네시스랩
Publication of KR20190140805A publication Critical patent/KR20190140805A/en
Priority to KR1020210077440A priority Critical patent/KR102377419B1/en
Priority to KR1020210077437A priority patent/KR102387113B1/en
Application granted granted Critical
Publication of KR102268496B1 publication Critical patent/KR102268496B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06F17/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

The present invention relates to a non-verbal evaluation method, system, and computer-readable medium based on machine learning and, more specifically, to a non-verbal evaluation method, system, and computer-readable medium based on machine learning for generating question data including non-verbal information from information about an appraisee and an appraiser, and analyzing and evaluating the non-verbal information of answers to the question data through artificial intelligence.

Description

기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체 {Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning}Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

본 발명은 기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 피평가자 및 평가자에 대한 정보로부터 비언어적정보를 포함하는 질문데이터를 생성하고, 상기 질문데이터에 대한 대답의 비언어적정보를 인공지능을 통해 분석하여 평가하는 기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a non-verbal evaluation method, system, and computer-readable medium based on machine learning, and more particularly, to generate question data including non-verbal information from information on an evaluator and an evaluator, and to answer the question data. A non-verbal evaluation method, system, and computer-readable medium based on machine learning for analyzing and evaluating non-verbal information through artificial intelligence.

면접은 일반적으로 면접을 통해 평가를 받는 면접자 및 면접자에 대한 평가를 수행하는 면접관으로 구성되며, 면접관의 질문과 면접자의 답변으로 진행되며 전체 질의응답에 대한 종합평가로 이루어진다.Interviews generally consist of interviewers who are evaluated through interviews and interviewers who evaluate the interviewees. The interviews consist of questions from interviewers and interviewers.

면접은 질문 및 응답을 통해 면접자의 전문지식, 전문기술 혹은 정보활용능력 등의 하드 스킬(hard skill) 뿐만 아니라 면접자의 태도, 의사소통 능력 등의 소프트 스킬(soft skill) 을 파악하는 것을 목적으로 한다.The interview aims to identify the soft skills of the interviewer's attitude and communication skills as well as the hard skills of the interviewer's expertise, expertise or information literacy through questions and answers. .

전통적으로 자기소개서, 이력서, 경력 증명서 등의 과거 데이터 및 전공에 관한 질문 등을 통해 하드 스킬을 파악해 왔고, 이는 해당 분야의 전문가가 질의응답을 함으로써 어렵지 않게 판단할 수 있다. Traditionally, hard data has been identified through historical data such as self-introductions, resumes, career certificates, and questions about majors, which can be judged easily by experts in the relevant fields.

반면, 소프트 스킬은 면접관의 주관적 경험과 직관에 따라 다르게 판단되는 영역으로서, 면접관에 따라 평가 기준 및 평가 방법 등이 달라질 수 있다. 이와 같이 면접관의 주관에 따라 달라지는 평가 방법에 의해 면접자의 소프트 스킬이 객관적으로 평가되기 어려운 문제가 있다.On the other hand, soft skills are areas that are judged differently according to the interviewer's subjective experience and intuition, and evaluation criteria and evaluation methods may vary according to the interviewer. As described above, there is a problem in that the soft skills of the interviewer cannot be objectively evaluated by the evaluation method that depends on the subject of the interviewer.

따라서 면접자의 소프트 스킬을 객관적으로 평가하기 위해서는 면접관의 주관적인 평가 보다는 인공지능과 같은 지능화 된 행동 분석기 등을 통해 객관적이고 비편향적인 평가를 수행할 필요가 있다.Therefore, in order to objectively evaluate the interviewee's soft skills, it is necessary to perform an objective and unbiased evaluation through an intelligent behavior analyzer such as artificial intelligence rather than the subjective evaluation of the interviewer.

또한, 면접자의 소프트 스킬을 평가하는 과정에서 주어지는 질문의 경우 질문의 내용, 즉 무엇을 질문하는지도 중요하지만, 어떻게 질문하는지 역시 중요하다. 면접관이 면접자에게 질문을 하는 과정에서 실제 전달되는 질문의 컨텐츠 외에도 질문을 전달하는 방법, 태도, 분위기 등을 포괄하여 전달되는 메타 메시지가 면접자와의 의사소통 과정에서 큰 영향을 주게 된다. 따라서 객관적 평가를 위해서는 언어적, 비언어적 요소를 적절히 조합한 질문을 하고, 이에 대한 면접자의 대답에서의 비언어적 요소를 평가할 필요가 있다.In addition, in the case of a question given in evaluating an interviewer's soft skills, the content of the question, namely, what is asked is important, but how is it also important. In addition to the content of the questions actually delivered during the interviewer's questions to the interviewer, the meta-message, which includes how the questions are delivered, attitudes, and mood, will have a significant impact on the interviewer. Therefore, in order to evaluate objectively, it is necessary to ask a question combining appropriate linguistic and nonverbal elements, and to evaluate nonverbal elements in the interviewer's answer.

본 발명은 피평가자 및 평가자에 대한 정보로부터 비언어적정보를 포함하는 질문데이터를 생성하고, 상기 질문데이터에 대한 대답의 비언어적정보를 인공지능을 통해 분석하여 평가하는 기계학습에 기초한 비언어적 평가 방법, 시스템 및 컴퓨터-판독가능 매체를 제공하는 것을 그 목적으로 한다.The present invention is a non-verbal evaluation method, system, and computer based on machine learning that generates question data including non-verbal information from information on an evaluator and an evaluator, and analyzes and evaluates non-verbal information of an answer to the question data through artificial intelligence. To provide a readable medium.

상기와 같은 과제를 해결하기 위하여 본 발명은, 기계학습에 기초한 비언어적 평가 방법으로서, 비언어적정보를 포함하는 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 피평가자에게 질문을 전달하는 질문구현단계; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고, 상기 질문데이터는, 상기 대답분석단계에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 기계학습에 기초한 비언어적 평가 방법을 제공한다.In order to solve the above problems, the present invention provides a non-verbal evaluation method based on machine learning, the question implementation step of delivering a question to the subject by at least one method of hearing and vision based on the question data including non-verbal information; And an answer analysis step of analyzing and evaluating non-verbal information included in the answer of the evaluator with respect to the question data through an artificial neural network; And wherein the question data includes evaluation criteria information for evaluating non-verbal information in the answer analysis step.

본 발명에서는, 상기 비언어적 평가 방법은, 초기의 상기 질문데이터를 생성하기 위한 상기 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계; 및 상기 질문데이터를 생성하는 질문도출단계; 를 더 포함할 수 있다.In the present invention, the non-verbal evaluation method, the subject information input step of receiving at least one of the information of the evaluator and the information of the evaluator for generating the initial question data; And a question derivation step of generating the question data. It may further include.

본 발명에서는, 상기 피평가자정보입력단계는, 상기 질문데이터를 생성하기 위한 피평가자의 정보 및 평가상황의 정보를 입력하는 피평가자상태입력단계; 및 입력 받은 상기 피평가자의 정보 및 상기 평가상황에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성하는 초기정보생성단계; 를 포함할 수 있다.In the present invention, the evaluator information input step, the subject status input step of inputting the information of the evaluator and the information of the evaluation situation for generating the question data; And an initial information generating step of generating initial information for generating the question data based on the received information of the evaluator and the evaluation situation. It may include.

본 발명에서는, 상기 피평가자정보입력단계는, 상기 질문데이터를 생성하기 위한 평가자의 정보를 입력하는 평가자정보입력단계; 를 더 포함하고, 상기 초기정보생성단계는, 입력 받은 상기 피평가자의 정보, 상기 평가상황 및 상기 평가자의 정보에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성할 수 있다.In the present invention, the evaluator information input step, the evaluator information input step of inputting information of the evaluator for generating the question data; The initial information generating step may further include generating initial information for generating the question data based on the information of the evaluator, the evaluation situation, and the information of the evaluator.

본 발명에서는, 상기 질문도출단계는 상기 초기정보에 기초하여 질문데이터를 생성하고, 상기 질문구현단계는 질문도출단계에서 생성된 상기 질문데이터에 기초하여 질문을 전달할 수 있다.In the present invention, the question derivation step may generate question data based on the initial information, and the question implementation step may transmit a question based on the question data generated in the question derivation step.

본 발명에서는, 상기 비언어적 평가 방법은 상기 질문도출단계, 질문구현단계 및 대답분석단계가 반복적으로 수행될 수 있고, 상기 대답분석단계는 평가 결과에 기초하여 분석정보를 생성하고, 상기 질문도출단계는 상기 초기정보 및 상기 분석정보 중 1 이상에 기초하여 질문데이터를 생성할 수 있다.In the present invention, the non-verbal evaluation method, the question derivation step, question implementation step and answer analysis step may be repeatedly performed, the answer analysis step generates analysis information based on the evaluation result, the question derivation step Question data may be generated based on at least one of the initial information and the analysis information.

본 발명에서는, 상기 평가기준정보는, 상기 초기정보 혹은 상기 분석정보에 기초하여 갱신될 수 있다.In the present invention, the evaluation criteria information may be updated based on the initial information or the analysis information.

본 발명에서는, 상기 대답분석단계는 상기 질문데이터에 대한 대답의 비언어적정보를 2 이상의 카테고리로 분류하여 수치화 하고, 상기 평가기준정보는 상기 2 이상의 카테고리 별로 수치화 된 분석점수에 대한 평가기준을 포함할 수 있다.In the present invention, the answer analysis step is to quantify the non-verbal information of the answer to the question data into two or more categories, and the evaluation criteria information may include an evaluation criteria for the analysis score digitized by the two or more categories. have.

본 발명에서는, 상기 질문데이터의 비언어적정보는 질문의 문장, 질문을 전달하는 음성 및 질문을 전달하는 평가자의 표정 중 1 이상에 대한 정보를 포함하고, 상기 질문구현단계는 상기 질문데이터의 비언어적정보에 기초하여 피평가자에게 전달할 청각데이터 및 시각데이터 중 1 이상을 생성할 수 있다.In the present invention, the non-verbal information of the question data includes information on at least one of a sentence of a question, a voice conveying the question, and an expression of the evaluator conveying the question, wherein the question implementing step is based on the non-verbal information of the question data. On the basis of this, one or more of the auditory data and the visual data to be delivered to the subject may be generated.

본 발명에서는, 상기 질문데이터는, 하나의 질문에 대한 데이터를 포함하거나, 혹은 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함할 수 있다.In the present invention, the question data may include data for a question set or data for a question set including two or more questions.

상기와 같은 과제를 해결하기 위하여 본 발명은, 기계학습에 기초한 비언어적 평가 시스템으로서, 비언어적정보를 포함하는 초기의 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력부; 상기 질문데이터를 생성하는 질문도출부; 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현부; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석부; 를 포함하고, 상기 질문데이터는, 상기 대답분석부에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 기계학습에 기초한 비언어적 평가 시스템을 제공한다.In order to solve the above problems, the present invention is a non-verbal evaluation system based on machine learning, the subject information input unit for receiving at least one of the information of the evaluator and the information of the evaluator for generating the initial question data including non-verbal information ; A question extracting unit generating the question data; A question implementer configured to transmit a question to the subject through at least one of hearing and vision based on the question data; And an answer analyzing unit that analyzes and evaluates non-verbal information included in an answer of the evaluator with respect to the question data through an artificial neural network. And wherein the question data includes evaluation criteria information for evaluation of non-verbal information in the answer analysis unit.

상기와 같은 과제를 해결하기 위하여 본 발명은, 기계학습에 기초한 비언어적 평가를 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 비언어적정보를 포함하는 초기의 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계; 상기 질문데이터를 생성하는 질문도출단계; 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현단계; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고, 상기 질문데이터는, 상기 대답분석단계에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 컴퓨터-판독가능 매체를 제공한다.In order to solve the above problems, the present invention provides a computer-readable medium for non-verbal evaluation based on machine learning, the computer-readable medium stores instructions for causing a computing device to perform the following steps: The steps may include: an evaluator information input step of receiving at least one of an evaluator's information and an evaluator's information for generating initial question data including non-verbal information; A question derivation step of generating the question data; A question implementation step of delivering a question to the assessee in at least one of hearing and sight based on the question data; And an answer analysis step of analyzing and evaluating non-verbal information included in the answer of the evaluator with respect to the question data through an artificial neural network; Wherein the question data includes evaluation criteria information for evaluating non-verbal information in the answer analysis step.

본 발명의 일 실시예에 따르면 비언어적 평가 방법을 위한 질문을 생성함에 있어서 상기 질문의 언어적정보 뿐만 아니라 비언어적정보를 포함하는 질문데이터를 생성하여 피평가자에게 상기 비언어적정보에 기초하여 질문을 전달함으로써 객관적인 평가를 수행할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, in generating a question for a non-verbal evaluation method, objective data is generated by generating question data including not only linguistic information but also non-verbal information of the question and delivering the question to the evaluator based on the non-verbal information. It can exert the effect to perform.

본 발명의 일 실시예에 따르면 비언어적 평가 방법을 위한 질문을 생성함에 있어서 전달되는 질문에 대한 평가기준정보를 포함하는 질문데이터를 생성함으로써 질문 각각에 대해 적합한 평가기준을 제시하고, 상기 평가기준에 의한 평가를 수행함으로써 정확한 평가를 수행할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by generating question data including evaluation criteria information about a question transmitted in generating a question for a non-verbal evaluation method, an appropriate evaluation criterion is presented for each question, and By performing the evaluation, the effect of performing the accurate evaluation can be exerted.

본 발명의 일 실시예에 따르면 피평가자의 대답의 언어적정보 외에 비언어적정보를 인공지능을 통해 분석함으로써 객관적이고 비편향적인 평가를 수행할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by analyzing the non-verbal information through artificial intelligence in addition to the linguistic information of the respondent's answer, the objective and unbiased evaluation can be performed.

도 1은 본 발명의 일 실시예에 따른 비언어적 평가 방법을 수행하는 시스템의 구성을 개략적으로 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말기의 내부구성요소를 개략적으로 도시하는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 피평가자정보입력부의 동작의 세부 단계를 개략적으로 도시하는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 질문구현부에 의해 구현된 질문이 출력되는 방법을 개략적으로 도시하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 대답분석부의 동작을 개략적으로 도시하는 도면이다.
도 8은 본 발명의 일 실시예에 따른 질문데이터가 활용되는 과정을 개략적으로 도시하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.
도 10은 본 발명의 일 실시예에 따른 대답분석부의 피처맵 생성과정을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.
도 12는 본 발명의 일 실시예에 따른 질문데이터의 비언어적정보의 일 예를 개략적으로 도시하는 그래프이다.
도 13은 본 발명의 일 실시예에 따른 질문데이터의 세트를 개략적으로 도시하는 도면이다.
1 is a diagram schematically showing the configuration of a system for performing a non-verbal evaluation method according to an embodiment of the present invention.
2 is a block diagram schematically illustrating internal components of a user terminal according to an exemplary embodiment of the present invention.
3 is a flowchart schematically showing the detailed steps of an operation of an evaluator information input unit according to an embodiment of the present invention.
FIG. 4 is a diagram schematically illustrating an operation of a question extractor according to an exemplary embodiment of the present invention.
5 is a diagram schematically illustrating an operation of a question implementing unit according to an exemplary embodiment of the present invention.
FIG. 6 is a diagram schematically illustrating a method of outputting a question implemented by a question implementing unit according to an embodiment of the present invention.
7 is a diagram schematically illustrating an operation of an answer analyzer according to an exemplary embodiment of the present invention.
8 is a diagram schematically illustrating a process of using question data according to an embodiment of the present invention.
FIG. 9 is a diagram schematically illustrating an operation of a question extractor according to an exemplary embodiment of the present invention.
10 schematically illustrates a feature map generation process of an answer analysis unit according to an embodiment of the present invention.
11 is a diagram schematically illustrating an operation of a question implementer according to an exemplary embodiment of the present invention.
12 is a graph schematically illustrating an example of non-verbal information of question data according to an embodiment of the present invention.
FIG. 13 is a diagram schematically illustrating a set of question data according to an embodiment of the present invention. FIG.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and / or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. However, it will also be appreciated by one of ordinary skill in the art that this aspect (s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of the one or more aspects. However, these aspects are exemplary and some of the various methods in the principles of the various aspects may be used and the descriptions described are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Moreover, various aspects and features will be presented by a system that may include a number of devices, components, and / or modules, and the like. The various systems may include additional devices, components, and / or modules, etc., and / or may not include all of the devices, components, modules, etc. discussed in connection with the drawings. It must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “an embodiment”, “an example”, “aspect”, “an example”, etc., may not be construed as having any aspect or design described being better or advantageous than other aspects or designs. . The terms '~ part', 'component', 'module', 'system', 'interface', etc. used generally mean a computer-related entity, for example, hardware, hardware And a combination of software and software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.In addition, the terms "comprises" and / or "comprising" mean that such features and / or components are present, but exclude the presence or addition of one or more other features, components, and / or groups thereof. It should be understood that it does not.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein including technical or scientific terms are generally understood by those skilled in the art to which the present invention belongs. Has the same meaning as Terms such as those defined in the commonly used dictionaries should be interpreted as having meanings consistent with the meanings in the context of the related art, and ideally or excessively formal meanings, unless explicitly defined in the embodiments of the present invention. Not interpreted as

도 1은 본 발명의 일 실시예에 따른 비언어적 평가 방법을 수행하는 시스템의 구성을 개략적으로 도시하는 도면이다.1 is a diagram schematically showing the configuration of a system for performing a non-verbal evaluation method according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시예에 따른 비언어적 평가 방법은 평가를 받는 피평가자(1000)가 사용자단말기(2000) 등을 통해 평가를 위한 질문을 받고, 상기 질문에 대한 대답을 하게 되면 상기 사용자단말기(2000)는 상기 피평가자(1000)의 대답을 입력 받아 상기 피평가자(1000)의 대답을 분석하여 평가할 수 있도록 한다.Referring to FIG. 1, in the non-verbal evaluation method according to an exemplary embodiment of the present invention, the evaluator 1000 who receives the evaluation receives a question for evaluation through the user terminal 2000 and the like and answers the question. The terminal 2000 receives the answer of the assessor 1000 and analyzes and evaluates the answer of the assessor 1000.

이 때, 상기 사용자 단말기(2000)는 스마트홈 콘트롤 디바이스, 월패드, 스마트 폰(smart phone), 태블릿(tablet) 개인용 컴퓨터(personal computer: PC, 이하 'PC'라 칭하기로 한다), 이동 전화기, 화상 전화기, 전자책 리더(e-book reader), 데스크 탑(desktop) PC, 랩탑(laptop) PC, 넷북(netbook) PC, 개인용 복합 단말기(personal digital assistant: PDA, 이하 'PDA'라 칭하기로 한다), 휴대용 멀티미디어 플레이어(portable multimedia player: PMP, 이하 'PMP'라 칭하기로 한다), 엠피3 플레이어(mp3 player), 이동 의료 디바이스, 카메라, 웨어러블 디바이스(wearable device)(일 예로, 헤드-마운티드 디바이스(head-mounted device: HMD, 일 예로 'HMD'라 칭하기로 한다), 전자 의류, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 혹은 스마트 워치(smart watch) 등이 될 수 있다.In this case, the user terminal 2000 may include a smart home control device, a wall pad, a smart phone, a tablet personal computer (PC, hereinafter referred to as a PC), a mobile phone, Video phones, e-book readers, desktop PCs, laptop PCs, netbook PCs, personal digital assistants (PDAs). ), Portable multimedia player (PMP, hereinafter referred to as 'PMP'), MP3 player, mobile medical device, camera, wearable device (eg, head-mounted device) (head-mounted device: HMD, for example, 'HMD'), electronic clothing, electronic bracelets, electronic necklaces, electronic accessories, electronic tattoos, or smart watches. .

상기 사용자단말기(2000)는 네트워크를 통해 연결된 서버(3000) 등을 통해 상기 피평가자(1000)에 대한 질문을 전송 받고, 상기 피평가자(1000)의 대답을 전송하여 상기 서버(3000)에서 상기 피평가자(1000)의 대답에 대한 분석을 통해 상기 피평가자(1000)에 대한 평가가 이루어지도록 할 수 있다.The user terminal 2000 receives a question about the evaluator 1000 through a server 3000 connected through a network, etc., and transmits an answer of the evaluator 1000 to the subject 1000 in the server 3000. By evaluating the answer of), the evaluator 1000 may be evaluated.

혹은 상기 사용자단말기(2000)는 사용자단말기(2000) 내부에서 상기 피평가자(1000)에 대한 질문을 생성하고, 상기 피평가자(1000)의 대답을 분석하여 상기 피평가자(1000)에 대한 평가가 이루어지도록 할 수 있다.Alternatively, the user terminal 2000 may generate a question for the evaluator 1000 in the user terminal 2000 and analyze the answer of the evaluator 1000 so that the evaluator 1000 may be evaluated. have.

도 2는 본 발명의 일 실시예에 따른 사용자단말기의 내부구성요소를 개략적으로 도시하는 블록도이다.2 is a block diagram schematically illustrating internal components of a user terminal according to an exemplary embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자단말기(2000)는 프로세서(100), 버스(200), 네트워크 인터페이스(300) 및 메모리(400)를 포함할 수 있다. 메모리는 운영체제(410), 서비스제공루틴(420), 질문컨텐츠(430) 및 평가정보(440)를 포함할 수 있다. 프로세서(100)는 피평가자정보입력부(110), 질문도출부(120), 질문구현부(130), 및 대답분석부(140)를 포함할 수 있다. 다른 실시예들에서 사용자단말기(2000)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.The user terminal 2000 according to an embodiment of the present invention may include a processor 100, a bus 200, a network interface 300, and a memory 400. The memory may include an operating system 410, a service providing routine 420, a question content 430, and evaluation information 440. The processor 100 may include a subject information input unit 110, a question extractor 120, a question implementer 130, and an answer analyzer 140. In other embodiments, the user terminal 2000 may include more components than the components of FIG. 2.

메모리(400)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리에는 운영체제(410), 서비스제공루틴(420), 질문컨텐츠(430) 및 평가정보(440)를 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스부(300)를 통해 메모리에 로딩될 수도 있다.The memory 400 is a computer-readable recording medium and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In addition, the program code for the operating system 410, the service providing routine 420, the question content 430, and the evaluation information 440 may be stored in the memory. Such software components may be loaded from a computer readable recording medium separate from the memory using a drive mechanism (not shown). Such a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like. In other embodiments, the software components may be loaded into the memory via the network interface unit 300 rather than the computer readable recording medium.

버스(200)는 사용자단말기(2000)를 제어하는 컴퓨팅 장치의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus 200 may enable communication and data transmission between components of the computing device controlling the user terminal 2000. The bus may be configured using a high-speed serial bus, a parallel bus, a storage area network and / or other suitable communication technology.

네트워크 인터페이스부(300)는 사용자단말기(2000)를 제어하는 컴퓨팅 장치를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성 요소일 수 있다. 네트워크 인터페이스(300)는 사용자단말기(2000)를 제어하는 컴퓨팅 장치를 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다. 이와 같은 네트워크 인터페이스부(300)를 통하여 사용자단말기(2000)를 제어하는 컴퓨팅 장치가 사용자단말기(2000)에 무선적 혹은 유선적으로 접속될 수 있다.The network interface unit 300 may be a computer hardware component for connecting the computing device controlling the user terminal 2000 to a computer network. The network interface 300 may connect the computing device controlling the user terminal 2000 to a computer network through a wireless or wired connection. The computing device controlling the user terminal 2000 may be wirelessly or wiredly connected to the user terminal 2000 through the network interface 300.

프로세서는 기본적인 산술, 로직 및 사용자단말기(2000)를 제어하는 컴퓨팅 장치의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리 또는 네트워크 인터페이스부(300)에 의해, 그리고 버스(200)를 통해 프로세서(100)로 제공될 수 있다. 프로세서(100)는 피평가자정보입력부(110), 질문도출부(120), 질문구현부(130) 및 대답분석부(140)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리와 같은 기록 장치에 저장될 수 있다.The processor may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations of the computing device controlling the user terminal 2000. The instructions may be provided to the processor 100 by the memory or network interface 300 and via the bus 200. The processor 100 may be configured to execute program codes for the evaluator information input unit 110, the question extractor 120, the question implementer 130, and the answer analyzer 140. Such program code may be stored in a recording device such as a memory.

상기 피평가자정보입력부(110), 질문도출부(120), 질문구현부(130) 및 대답분석부(140)는 이하에서 설명하게 될 사용자단말기(2000)의 작동을 수행하기 위해 구성될 수 있다. 상기한 프로세서는 사용자단말기(2000)를 제어하는 방법에 따라 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트가 더 포함되거나, 2개 이상의 컴포넌트가 결합될 수 있다.The evaluator information input unit 110, the question extractor 120, the question implementer 130, and the answer analyzer 140 may be configured to perform an operation of the user terminal 2000 to be described below. According to the method of controlling the user terminal 2000, the processor may omit some components, further include additional components not shown, or two or more components may be combined.

상기 피평가자정보입력부(110)는 비언어적정보를 포함하는 질문데이터를 생성하기 위한 상기 피평가자(1000)의 정보 및 평가자의 정보 중 1 이상을 입력 받는다. 상기 피평가자정보입력부(110)는 상기 피평가자(1000)의 정보 혹은 평가상황 등에 대한 정보를 입력 받음으로써 평가를 위한 질문데이터를 생성할 수 있다. 예를 들어 상기 피평가자(1000)가 구직을 위한 면접에 임하는 경우 상기 피평가자(1000)의 전공, 관심사, 능력 등 신상에 관한 정보 및 면접장소, 지원한 회사 등 평가상황에 대한 정보 등을 입력 받아 적절한 질문을 생성할 수 있도록 할 수 있다.The evaluator information input unit 110 receives one or more of information of the evaluator 1000 and evaluator's information for generating question data including non-verbal information. The evaluator information input unit 110 may generate question data for evaluation by receiving information about the evaluator 1000 or information on an evaluation situation. For example, when the evaluator 1000 is interviewed for a job search, the evaluator 1000 receives information on personal status such as the major, interests, and abilities of the evaluator 1000, and information on an evaluation situation such as an interview place and a company that applied. You can create a question.

상기 질문도출부(120)는 상기 질문데이터를 생성한다. 상기 질문도출부(120)는 상기 피평가자정보입력부(110)에서 입력 받은 정보에 기초하여 상기 정보에 적합한 질문데이터를 생성한다. 이 때, 상기 질문데이터는 피평가자(1000)에게 가할 질문의 컨텐츠, 즉 질문의 언어적정보 및 상기 질문을 전달하는 방법, 즉 질문의 비언어적정보를 포함할 수 있다. 또한, 상기 질문데이터에는 상기 질문에 대한 대답을 평가하기 위한 평가기준정보를 포함할 수 있다.The question extractor 120 generates the question data. The question extractor 120 generates question data suitable for the information based on the information received from the subject information input unit 110. In this case, the question data may include content of a question to be applied to the assessor 1000, that is, linguistic information of the question and a method of delivering the question, that is, non-verbal information of the question. In addition, the question data may include evaluation criteria information for evaluating an answer to the question.

상기 질문구현부(130)는 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 피평가자(1000)에게 질문을 전달한다. 본 발명의 일 실시예에서 상기 질문구현부(130)는 상기 질문데이터의 언어적정보 및 비언어적정보에 기초하여 상기 피평가자(1000)에게 질문을 전달하게 된다. 이를 위해 상기 질문구현부(130)는 디스플레이모듈 혹은 음성출력모듈을 통해 사용자에게 시각적 디스플레이 혹은 음성 등으로 질문을 전달할 수 있다.The question implementing unit 130 transmits the question to the assessed person 1000 by at least one of hearing and vision based on the question data. In one embodiment of the present invention, the question implementing unit 130 transmits a question to the assessor 1000 based on linguistic information and non-verbal information of the question data. To this end, the question implementing unit 130 may transmit a question to the user through a display module or a voice output module as a visual display or a voice.

상기 대답분석부(140)는 상기 질문데이터에 대한 상기 피평가자(1000)의 대답에 포함된 비언어적정보를 인공지능을 통해 분석하여 평가한다. 상기 피평가자(1000)는 상기 질문구현부(130)에서 전달 받은 질문에 대해 대답을 하게 된다. 이와 같은 대답은 카메라모듈 및 음성입력모듈 등을 통해 상기 대답분석부(140)로 입력 받게 된다.The answer analyzing unit 140 analyzes and evaluates non-verbal information included in the answer of the examinee 1000 with respect to the question data through artificial intelligence. The evaluator 1000 will answer the question received from the question implementation unit 130. Such an answer is input to the answer analyzing unit 140 through a camera module and a voice input module.

상기 대답분석부(140)는 상기 카메라모듈 및 상기 음성입력모듈 등을 통해 입력 받은 상기 피평가자(1000)의 영상 및 음성 정보 등을 인공지능을 통해 상기 대답에 포함된 비언어적정보를 분석하여 정량화하고, 이를 상기 질문데이터에 포함된 평가기준정보에 의해 평가함으로써 상기 피평가자(1000)에 대한 분석정보를 생성할 수 있다.The answer analyzing unit 140 analyzes and quantifies the non-verbal information included in the answer through artificial intelligence on the video and audio information of the subject 1000 received through the camera module and the voice input module, and the like. The evaluation information may be generated based on the evaluation criteria information included in the question data to generate analysis information about the evaluator 1000.

이와 같은 프로세서(1000)의 각 구성요소의 동작은 일련의 단계로 구성된 비언어적 평가 방법을 구성할 수 있다. 본 발명의 일 실시예에 따르면 상기 비언어적 평가 방법은 비언어적정보를 포함하는 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계; 상기 질문데이터를 생성하는 질문도출단계; 상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현단계; 및 상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공지능을 통해 분석하여 평가하는 대답분석단계; 를 포함할 수 있다. 이 때 상기 피평가자정보입력단계는 상기 피평가자정보입력부(110)의 동작에 의해 수행될 수 있고, 상기 질문도출단계는 상기 질문도출부(120)에 의해 수행될 수 있고, 상기 질문구현단계는 상기 질문구현부(130)에 의해 수행될 수 있고, 상기 대답분석단계는 상기 대답분석부(140)에 의해 수행될 수 있다.Operation of each component of the processor 1000 may constitute a non-verbal evaluation method composed of a series of steps. According to an embodiment of the present invention, the non-verbal evaluation method includes: a subject information input step of receiving at least one of information of an evaluator and information of an evaluator for generating question data including non-verbal information; A question derivation step of generating the question data; A question implementation step of delivering a question to the assessee in at least one of hearing and sight based on the question data; And an answer analysis step of analyzing and evaluating non-verbal information included in the answer of the assessor with respect to the question data through artificial intelligence; It may include. In this case, the evaluator information input step may be performed by an operation of the evaluator information input unit 110, the question derivation step may be performed by the question derivation unit 120, and the question implementation step is the question. It may be performed by the implementation unit 130, the answer analysis step may be performed by the answer analysis unit 140.

도 3은 본 발명의 일 실시예에 따른 피평가자정보입력부의 동작의 세부 단계를 개략적으로 도시하는 순서도이다.3 is a flowchart schematically showing the detailed steps of an operation of an evaluator information input unit according to an embodiment of the present invention.

도 3을 참조하면 상기 피평가자정보입력부(110)가 수행하는 피평가자정보입력단계는 피평가자상태입력단계(S100); 평가자정보입력단계(S200); 및 초기정보생성단계(S300)를 포함할 수 있다.Referring to FIG. 3, the evaluator information input step performed by the evaluator information input unit 110 may include an evaluator state input step (S100); Evaluator information input step (S200); And it may include the initial information generation step (S300).

상기 피평가자상태입력단계(S100)에서는 상기 질문데이터를 생성하기 위한 피평가자(1000)의 정보 및 평가상황 중 1 이상의 정보를 입력한다. 본 발명의 일 실시예에서 상기 피평가자(1000)의 정보는 전공분야, 관심사, 능력 등 신상에 관한 정보일 수 있고, 상기 평가상황은 상기 피평가자에 대한 평가가 이루어지는 면접장소, 지원한 회사 및 직무 등의 상황에 관한 정보일 수 있다. 이와 같이 평가가 이루어지는 대상 및 상황에 대한 정보를 입력 받음으로써 정확한 평가를 위한 질문의 내용 및 상기 질문에 대한 비언어적 정보(예를 들어 질문의 어조, 말투, 분위기 등)를 도출하여 평가효율을 높일 수 있다.In the evaluator state input step (S100), one or more pieces of information of the evaluator 1000 and the evaluation situation for generating the question data are input. In an embodiment of the present invention, the information of the assessor 1000 may be information about a subject such as a major field, interests, and abilities, and the evaluation situation may include an interview place where an evaluation of the evaluator is performed, a company, a job, etc. It may be information about the situation. By receiving information on the subject and the situation in which the evaluation is made, the content of the question for accurate evaluation and non-verbal information (for example, the tone of the question, tone, mood, etc.) of the question can be derived to improve the evaluation efficiency. have.

상기 평가자정보입력단계(S200)에서는 상기 질문데이터를 생성하기 위한 평가자의 정보를 입력한다. 본 발명의 일 실시예에서 상기 평가자는 상기 평가상황이 취업을 위한 면접인 경우 면접관일 수 있다. 평가자의 정보는 이와 같은 면접관 등의 성향 등의 정보를 포함할 수 있다. 예를 들어, 상기 면접관은 권위적인 사람일 수 있고, 이와 같은 정보가 상기 평가자정보입력단계(S200)에서 입력되어 상기 질문데이터를 생성할 때, 상기 질문데이터의 비언어적정보에 영향을 주거나, 혹은 상기 질문데이터에 포함되는 평가기준정보에 영향을 주어 피평가자(1000)에게 권위적인 분위기의 질문을 전달하고, 피평가자(1000)의 대답이 겸손할 경우 높은 평가를 받을 수 있도록 할 수 있다. 혹은 상기 면접관은 개방적인 사람일 수 있고, 이와 같은 평가자의 정보가 입력되는 경우 피평가자(1000)에게 자유롭고 창의적인 질문을 전달할 수 있고, 상기 피평가자(1000)가 자신감 있게 자신의 의견을 피력하는 경우 높은 평가를 받을 수 있도록 할 수 있다.In the evaluator information input step (S200), the evaluator information for generating the question data is input. In one embodiment of the present invention, the evaluator may be an interviewer when the evaluation situation is an interview for employment. The evaluator's information may include information such as the inclination of the interviewer. For example, the interviewer may be an authoritative person, and when such information is input in the evaluator information input step S200 to generate the question data, the interviewer may affect the non-verbal information of the question data, or The evaluation criteria information included in the question data may be influenced to transmit the authoritative question to the evaluator 1000, and the evaluator 1000 may receive a high evaluation when the answer of the evaluator 1000 is humble. Alternatively, the interviewer may be an open person, and when such evaluator's information is input, the interviewer may transmit free and creative questions to the evaluator 1000, and the evaluator 1000 expresses his or her opinions confidently and has a high evaluation. Can be received.

본 발명의 일 실시예에서 이와 같은 평가자정보입력단계(S200)는 생략될 수 있다.In an embodiment of the present invention, the evaluator information input step S200 may be omitted.

상기 초기정보생성단계(S300)에서는 입력 받은 상기 피평가자의 정보, 상기 평가상황 및 상기 평가자의 정보에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성한다. 상기 초기정보는 상기 S100단계 및 상기 S200단계에서 입력 받은 정보에 기초하여 생성됨으로써, 상기 질문도출부(120)에서 수행되는 질문도출단계에서 질문데이터를 생성하는 기초 자료가 된다. 본 발명의 일 실시예에서 상기 S200단계는 생략될 수 있으므로, 상기 S200단계가 생략되는 경우 상기 초기정보는 입력 받은 상기 피평가자(1000)의 정보 및 상기 평가상황에 기초하여 생성될 수 있다.In the initial information generation step (S300), the initial information for generating the question data is generated based on the information of the evaluator, the evaluation situation, and the information of the evaluator. The initial information is generated based on the information input in the steps S100 and S200, and becomes the basic data for generating the question data in the question derivation step performed by the question derivation unit 120. Since the step S200 may be omitted in an embodiment of the present invention, when the step S200 is omitted, the initial information may be generated based on the information of the evaluator 1000 and the evaluation situation.

도 4는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.FIG. 4 is a diagram schematically illustrating an operation of a question extractor according to an exemplary embodiment of the present invention.

본 발명의 일 실시예에 따른 질문도출부(120)가 수행하는 질문도출단계는 상기 초기정보에 기초하여 질문데이터를 생성한다. 상기 질문도출단계에서는 어떤 질문을 어떻게 전달할 지에 대한 정보를 포함하는 질문데이터를 생성한다. 이 때 상기 질문데이터는 상기 초기정보에 기초하여 생성되어 상기 피평가자(1000)의 정보 및 평가상황 등에 기초하여 질문데이터가 생성될 수 있다.The question derivation step performed by the question derivation unit 120 according to an embodiment of the present invention generates question data based on the initial information. In the question derivation step, question data including information on how and what questions to deliver are generated. In this case, the question data may be generated based on the initial information, and the question data may be generated based on the information and the evaluation status of the assessed person 1000.

도 5는 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.5 is a diagram schematically illustrating an operation of a question implementing unit according to an exemplary embodiment of the present invention.

본 발명의 일 실시예에 따른 질문구현부(130)가 수행하는 상기 질문구현단계는 상기 질문도출단계에서 생성된 상기 질문데이터에 기초하여 피평가자(1000)에게 질문을 전달한다. 이 때, 상기 질문구현부(130)에서 수행되는 질문구현단계는 상기 질문데이터의 비언어적정보에 기초하여 피평가자에게 전달할 청각데이터 및 시각데이터 중 1 이상을 생성할 수 있다. 이와 같은 시각데이터는 디스플레이모듈 등의 장치를 통해 출력되어 상기 피평가자(1000)가 눈으로 인식할 수 있도록 하고, 상기 청각데이터는 음성출력모듈 등의 장치를 통해 출력되어 상기 피평가자(1000)가 귀로 인식할 수 있도록 한다.The question implementing step performed by the question implementing unit 130 according to an embodiment of the present invention transmits a question to the evaluator 1000 based on the question data generated in the question deriving step. In this case, the question implementing step performed by the question implementing unit 130 may generate one or more of auditory data and visual data to be delivered to the assessed subject based on the non-verbal information of the question data. Such visual data is output through a device such as a display module so that the subject 1000 can recognize the eye, and the auditory data is output through a device such as a voice output module so that the subject 1000 is recognized as an ear. Do it.

이 때. 상기 질문구현부(130)는 상기 디스플레이모듈만을 통해 피평가자(1000)에게 시각적으로 질문을 전달하거나, 상기 음성출력모듈만을 통해 피평가자(1000)에게 청각적으로 질문을 전달할 수 있고, 혹은 상기 디스플레이모듈 및 상기 음성출력모듈을 동시에 사용하여 복합적으로 상기 피평가자(1000)에게 질문을 전달할 수도 있다.At this time. The question implementation unit 130 may visually transmit a question to the examinee 1000 through the display module only, or audibly transmit the question to the testee 1000 through the voice output module, or the display module and The voice output module may be simultaneously used to transmit a question to the evaluator 1000 in a complex manner.

도 6은 본 발명의 일 실시예에 따른 질문구현부에 의해 구현된 질문이 출력되는 방법을 개략적으로 도시하는 도면이다.FIG. 6 is a diagram schematically illustrating a method of outputting a question implemented by a question implementing unit according to an embodiment of the present invention.

도 6의 (A)는 본 발명의 일 실시예에 따른 질문구현부(130)에 의해 질문이 텍스트의 형태로 피평가자(1000)에게 전달되는 모습을 도시한다. 본 발명의 일 실시예에서는 도 6의 (A)와 같이 디스플레이모듈을 통해 회사 지원 동기를 묻는 질문 및 상기 질문을 통해 표현할 감정을 동시에 표시할 수 있다. 이에 대해 피평가자(1000)는 상기 질문의 어감 및 표시된 감정을 통해 비언어적정보를 전달 받고, 이에 대한 대답을 함으로써 평가를 받을 수 있다.FIG. 6A illustrates a question in which the question is delivered to the evaluator 1000 in the form of text by the question implementer 130 according to an embodiment of the present invention. In an embodiment of the present invention, as shown in (A) of FIG. 6, a question asking the company support motivation and an emotion to be expressed through the question may be simultaneously displayed through the display module. In this regard, the assessor 1000 may receive the non-verbal information through the speech and the displayed emotion of the question, and may be evaluated by answering the nonverbal information.

도 6의 (B)는 본 발명의 다른 실시예에 따른 질문구현부(130)에 의해 질문이 음성의 형태로 피평가자(1000)에게 전달되는 모습을 도시한다. 도 6의 (B)와 같은 실시예에서는 상기 도 6의 (A)에서와 같은 문장이 음성출력모듈을 통해 피평가자(1000)에게 전달된다. 상기 음성출력모듈은 스피커장치 등을 포함하여 상기 피평가자(1000)가 질문을 전달받을 수 있도록 한다. 이 때 상기 음성출력모듈을 통해 전달되는 질문은 상기 질문의 억양, 어조, 어감 등을 통해 비언어적정보를 피평가자(1000)에게 전달하고, 상기 피평가자(1000)는 이에 대한 대답을 함으로써 평가를 받을 수 있다.FIG. 6B illustrates the question being transmitted to the subject 1000 in the form of a voice by the question implementing unit 130 according to another embodiment of the present invention. In the embodiment of FIG. 6B, the sentence as in FIG. 6A is transmitted to the assessor 1000 through the voice output module. The voice output module may include a speaker device or the like so that the assessor 1000 may receive a question. In this case, the question transmitted through the voice output module transmits non-verbal information to the evaluator 1000 through the intonation, tone, speech, etc. of the question, and the evaluator 1000 may be evaluated by answering the question. .

도 6의 (C)는 본 발명의 다른 실시예에 따른 질문구현부(130)에 의해 질문이 영상 및 음성의 형태로 피평가자(1000)에게 전달되는 모습을 도시한다. 상기 영상은 실제 사람의 움직임을 촬영한 영상일 수도 있고, 혹은 컴퓨터로 생성된 사람 모델의 움직임을 영상화 한 데이터일 수도 있다. 상기 질문구현부(130)는 이와 같이 디스플레이모듈을 통해 표시되는 영상의 움직임을 통해 비언어적정보를 전달하고, 동시에 음성출력모듈을 통해 전달되는 질문의 억양, 어조, 어감 등을 통해 비언어적정보를 전달하고, 상기 피평가자(1000)는 이에 대한 대답을 함으로써 평가를 받을 수 있다.FIG. 6C illustrates how the question implementation unit 130 transmits the question to the examinee 1000 in the form of an image and an audio according to another embodiment of the present invention. The image may be an image of real human motion, or may be data obtained by imaging a motion of a computer-generated human model. The question implementation unit 130 transmits the non-verbal information through the movement of the image displayed through the display module as described above, and simultaneously transmits the non-verbal information through the intonation, tone, speech, etc. of the question transmitted through the audio output module. The evaluator 1000 may receive an evaluation by answering the question.

도 7은 본 발명의 일 실시예에 따른 대답분석부의 동작을 개략적으로 도시하는 도면이다.7 is a diagram schematically illustrating an operation of an answer analyzer according to an exemplary embodiment of the present invention.

대답분석부(140)는 카메라모듈 및 음성입력모듈 중 1 이상의 모듈을 통해 상기 피평가자(1000)의 대답을 입력 받을 수 있다. 상기 카메라모듈을 통해서는 상기 피평가자(1000)가 대답하는 과정에서의 움직임, 표정, 시선처리 등의 정보를 획득할 수 있고, 상기 음성입력모듈을 통해서는 상기 피평가자(1000)의 대답의 컨텐츠, 억양, 성량 등의 정보를 획득할 수 있다.The answer analyzing unit 140 may receive the answer of the assessor 1000 through at least one of a camera module and a voice input module. Through the camera module, information such as movement, facial expression, and gaze processing in the process of answering by the assessor 1000 may be obtained, and content and intonation of the answer of the assessor 1000 through the voice input module. Information can be obtained.

상기 대답분석부(140)는 이와 같이 획득한 정보를 인공지능을 통해 분석한다. 본 발명의 일 실시예에서 상기 대답분석부(140)는 인공신경망 모델을 통해 분석을 수행할 수 있다. 바람직하게는 상기 인공신경망은 영상 및 음성처리에 높은 성능을 보이는 CNN 인공신경망일 수 있다. 상기 인공신경망을 통해 상기 대답분석부(140)에서 수행되는 대답분석단계는 상기 질문데이터에 대한 대답의 비언어적정보를 2 이상의 카테고리로 분류하여 수치화 하여 분석점수를 도출할 수 있다. 예를 들어 상기 카테고리는 자신감, 전문성, 긴장감 및 실행력의 카테고리일 수 있고, 상기 피평가자(1000)의 대답으로부터 각각의 카테고리에 대한 분석점수를 도출할 수 있다.The answer analyzing unit 140 analyzes the obtained information through artificial intelligence. In one embodiment of the present invention, the answer analysis unit 140 may perform analysis through an artificial neural network model. Preferably, the artificial neural network may be a CNN artificial neural network showing high performance in image and audio processing. In the answer analyzing step performed by the answer analyzing unit 140 through the artificial neural network, the non-verbal information of the answer to the question data may be classified into two or more categories and quantified to derive an analysis score. For example, the category may be a category of confidence, professionalism, tension, and execution ability, and an analysis score for each category may be derived from the answer of the assessor 1000.

상기 대답분석부(140)는 입력 받은 상기 피평가자(1000)의 영상으로부터 얼굴을 검출하고, 상기 얼굴영역으로부터 얼굴특징정보를 추출할 수 있고, 얼굴이 아닌 신체부위영역으로부터 움직임특징정보를 추출할 수 있다. 또한, 입력 받은 상기 피평가자(1000)의 음성으로부터 음성특징정보를 추출할 수 있다.The answer analyzer 140 may detect a face from the image of the subject 1000 received, extract facial feature information from the face region, and extract motion feature information from a body region rather than a face. have. In addition, voice feature information may be extracted from the voice of the subject 1000 received.

상기 대답분석부(140)는 추출한 얼굴특징정보, 움직임특징정보 및 음성특징정보로부터 각각 얼굴피처맵, 움직임피처맵 및 음성피처맵으로부터 복합피처맵을 생성하고, 상기 복합피처맵에 대한 분석결과를 도출하여 상기 피평가자(1000)의 대답을 분석하고 평가를 수행할 수 있다.The answer analyzing unit 140 generates a composite feature map from the facial feature map, the motion feature map, and the voice feature map, respectively, from the extracted facial feature information, motion feature information, and voice feature information, and generates an analysis result of the composite feature map. Derived, the answer of the assessor 1000 may be analyzed and the evaluation may be performed.

또한, 상기 대답분석단계는 평가 결과에 기초하여 분석정보를 생성할 수 있다. 상기 분석정보는 상기 평가 결과를 정량화 한 점수 정보를 포함할 수 있고, 이와 같은 점수 정보를 통해 상기 피평가자(1000)를 객관적으로 평가할 수 있다.In addition, the answer analysis step may generate analysis information based on the evaluation result. The analysis information may include score information quantifying the evaluation result, and objectively evaluate the evaluator 1000 through the score information.

도 8은 본 발명의 일 실시예에 따른 질문데이터가 활용되는 과정을 개략적으로 도시하는 도면이다.8 is a diagram schematically illustrating a process of using question data according to an embodiment of the present invention.

상기 질문데이터는 피평가자(1000)에게 전달하기 위한 질문을 구현하는데 필요한 정보를 포함하고, 또한 상기 질문에 대한 상기 피평가자(1000)의 대답을 평가하기 위한 평가기준정보를 포함한다.The question data includes information necessary to implement a question for conveying to the assessor 1000, and also includes evaluation criteria information for evaluating the assessor's answer to the question.

따라서 상기 질문도출부(120)에서 생성된 질문데이터는 상기 질문구현부(130)에 입력 되어 상기 피평가자(1000)에 전달되는 질문을 구현하는데 사용됨과 동시에, 상기 대답분석부(140)에 입력 되어 상기 피평가자(1000)의 대답을 평가하는데 사용된다.Therefore, the question data generated by the question extractor 120 is input to the question implementer 130 and used to implement a question transmitted to the assessor 1000, and is input to the answer analyzer 140. It is used to evaluate the answer of the assessor 1000.

즉, 상기 대답분석부(140)에서 수행되는 대답분석단계는 상기 질문데이터에 포함된 평가기준정보에 기초하여 상기 피평가자(1000)의 대답을 평가하게 된다. 이와 같이 상기 질문데이터에 평가기준정보가 포함됨에 따라, 질문에 대한 대답을 더욱 정확히 평가할 수 있게 된다.That is, the answer analyzing step performed by the answer analyzing unit 140 evaluates the answer of the evaluator 1000 based on the evaluation criteria information included in the question data. As such, as the evaluation data is included in the question data, the answer to the question can be more accurately evaluated.

예를 들어 같은 질문 내용을 묻는 질문이더라도 전달하는 문장, 어조, 표정 등에 의해 평가자가 피평가자(1000)에게 기대하게 되는 대답이 달라질 수 있고, 이와 같은 차이가 상기 평가기준정보에 반영됨에 따라 더욱 자세한 평가가 가능해진다. 또한, 연속된 질문의 흐름에 대한 대답을 분석함으로써 각각의 질문에 대한 개별 평가에 더해 대답의 흐름에 따른 평가를 수행할 수 있는 효과를 발휘할 수 있다.For example, even though the question asks the same question content, the answer that the evaluator expects from the evaluator 1000 may vary depending on the sentence, tone, facial expression, etc. to be delivered, and the difference is reflected in the evaluation information. Becomes possible. In addition, by analyzing the answers to the flows of consecutive questions, it is possible to perform the evaluation according to the flow of answers in addition to the individual evaluation of each question.

본 발명의 일 실시예에서 상기 대답분석부(140)는 도 7에서 설명한 것과 같이 2 이상의 카테고리에 대한 분석점수를 도출할 수 있다. 이 때, 상기 평가기준정보는 상기 2 이상의 카테고리 별로 수치화 된 분석점수에 대한 평가기준을 포함할 수 있다. 예를 들어, 상기 카테고리가 자신감, 전문성, 긴장감 및 실행력의 카테고리인 경우, 상기 대답분석부(140)는 상기 카테고리 각각에 대한 분석점수를 도출하게 된다. 예를 들어 상기 피평가자(1000)의 대답은 자신감이 80점, 전문성이 35점, 긴장감 50점 및 실행력 60점일 수 있다. 이 때, 상기 평가기준정보는 상기 카테고리 각각에 대한 분석점수에 대해 평가를 내리게 된다. 이와 같은 평가는 수치화 된 점수로 표현될 수도 있고, 혹은 기설정된 기준에 대한 pass/fail 점수로 표현될 수도 있다. 일 예로 상기 평가기준정보는 자신감의 분석점수가 80점 이상인 경우의 평가점수는 10점, 분석점수가 60점 이상 80점 미만인 경우의 평가점수는 7점, 분석점수가 40점 이상 60점 미만인 경우의 평가점수는 5점, 분석점수가 40점 미만인 경우의 평가점수는 2점과 같이 수치화 된 점수일 수 있고, 혹은 다른 예로는 자신감의 분석점수가 50점 이상인 경우 pass, 50점 미만인 경우 fail로 평가할 수 있다.In an embodiment of the present invention, the answer analyzer 140 may derive an analysis score for two or more categories as described in FIG. 7. In this case, the evaluation criteria information may include an evaluation criterion for the analysis score digitized by the two or more categories. For example, when the category is a category of confidence, professionalism, tension, and execution power, the answer analyzing unit 140 derives an analysis score for each of the categories. For example, the answer of the examinee 1000 may be 80 points of confidence, 35 points of expertise, 50 points of tension and 60 points of execution ability. At this time, the evaluation criteria information is evaluated for the analysis score for each of the categories. Such an evaluation may be expressed as a digitized score or may be expressed as a pass / fail score for a predetermined criterion. For example, in the above evaluation criteria information, when the analysis score of confidence is 80 or more, the evaluation score is 10 points, when the analysis score is 60 or more and less than 80, the evaluation score is 7 points and the analysis score is 40 or more and less than 60 points. If the analysis score of 5 is less than 40 and the analysis score is less than 40, the evaluation score can be a digitized score such as 2, or in another example, if the analysis score of confidence is 50 or more, pass, fail if less than 50 Can be evaluated

이와 같은 평가기준은 상기 카테고리에 따라 분석점수가 낮을수록 평가점수가 높게 설정될 수도 있다. 예를 들어 상기 긴장감의 분석점수가 80점 이상인 경우의 평가점수는 2점, 분석점수가 60점 이상 80점 미만인 경우의 평가점수는 5점, 분석점수가 40점 이상 60점 미만인 경우의 평가점수는 8점, 분석점수가 40점 미만인 경우의 평가점수는 10점일 수 있다. 혹은 상기 긴장감의 분석점수가 20점 이상 50점 미만인 경우 pass, 20점 미만이거나 50점 이상인 경우 fail과 같이, 특정 구간에서 더 높은 평가를 받을 수 있도록 할 수도 있다.Such evaluation criteria may be set higher as the analysis score is lower according to the category. For example, when the analysis score of the tension is 80 or more, the evaluation score is 2 points, when the analysis score is 60 or more and less than 80, the evaluation score is 5, and the analysis score is 40 or more and less than 60. Is 8 points, and if the analysis score is less than 40 points, the evaluation score may be 10 points. Alternatively, if the analysis score of the tension is 20 points or more and less than 50 points, a pass, or less than 20 points or 50 points or more, may fail, such that a higher evaluation may be obtained in a specific section.

이와 같이 평가기준정보에 따라 평가를 수행한 평가 결과에 기초하여 생성된 분석정보는 앞서 설명한 것과 같은 카테고리 별 분석점수, 그에 따른 평가점수 및 상기 피평가자(1000)의 대답에 대한 정보 자체를 포함할 수 있다. 이와 같은 분석정보는 그 자체로 상기 피평가자(1000)를 평가하는 정보로 사용될 수 있고, 혹은 이후에 이어질 질문을 도출하는데 사용될 수도 있다.As such, the analysis information generated based on the evaluation result of performing the evaluation according to the evaluation criteria information may include information on the analysis score for each category as described above, the corresponding evaluation score, and the answer of the evaluator 1000. have. Such analysis information may be used as information for evaluating the subject 1000 by itself, or may be used to derive a subsequent question.

도 9는 본 발명의 일 실시예에 따른 질문도출부의 동작을 개략적으로 도시하는 도면이다.FIG. 9 is a diagram schematically illustrating an operation of a question extractor according to an exemplary embodiment of the present invention.

본 발명의 일 실시예에 따른 비언어적 평가 방법은 상기 질문도출단계, 질문구현단계 및 대답분석단계가 반복적으로 수행될 수 있다. 일반적인 면접 등 피평가자(1000)를 평가하는 과정에서는 하나의 질문만이 주어지는 것이 아니라, 일련의 질문의 조합을 통해 다면적으로 피평가자(1000)를 평가할 수 있다. 이를 위해 본 발명의 일 실시예에 따른 비언어적 평가 방법은 2 이상의 질문을 하고 대답을 평가하기 위해 상기 질문도출단계, 질문구현단계 및 대답분석단계를 2회 이상 반복 수행할 수 있다.In the non-verbal evaluation method according to an embodiment of the present invention, the question derivation step, question implementation step, and answer analysis step may be repeatedly performed. In the process of evaluating the evaluator 1000 such as a general interview, not only one question is given, but the evaluator 1000 may be evaluated in multiple ways through a combination of questions. To this end, the non-verbal evaluation method according to an embodiment of the present invention may repeat the question derivation step, question implementation step and answer analysis step two or more times in order to evaluate two or more questions and evaluate the answers.

이 때 상기 대답분석단계를 통해 도출된 분석정보를 상기 질문도출단계에서 다음 질문을 도출하는데 활용하게 되면, 이전의 질문과 연계하여 복합적인 평가를 수행하는데 도움이 된다.At this time, if the analysis information derived through the answer analysis step is used to derive the next question in the question derivation step, it is helpful to perform a complex evaluation in connection with the previous question.

이와 같이 상기 질문도출단계, 질문구현단계 및 대답분석단계가 반복적으로 수행되는 경우 첫 질문을 도출하기 위해서는 우선 피평가자정보입력단계가 수행된다. 도 3에서 설명한 바와 같이 상기 피평가자정보입력단계에서는 피평가자의 정보, 평가상황 및 평가자의 정보 등을 입력 받고 이에 기초하여 초기정보를 생성한다.As described above, when the question derivation step, question implementation step, and answer analysis step are repeatedly performed, first, the evaluator information input step is performed to derive the first question. As described with reference to FIG. 3, in the input of the subject information, the subject information, the evaluation situation, and the information of the evaluator are input and initial information is generated based on the subject information.

이 후, 상기 질문도출단계는 상기 초기정보에 기초하여 질문데이터를 생성한다. 이어서 상기 질문구현단계는 상기 질문데이터에 기초하여 피평가자(1000)에게 질문을 전달하고, 상기 대답분석단계는 상기 피평가자(1000)의 질문에 대한 대답을 분석하여 평가한 후 분석정보를 생성한다.Thereafter, the question derivation step generates question data based on the initial information. Subsequently, the question implementation step transmits a question to the evaluator 1000 based on the question data, and the answer analysis step analyzes and evaluates the answer to the question of the evaluator 1000 and generates analysis information.

이 후 다시 질문도출단계로 돌아가 반복하게 되는데, 이 때 상기 질문도출단계는 상기 분석정보에 기초하여 질문데이터를 생성하게 된다. 따라서 질문도출부(120)에서 수행될 수 있는 상기 질문도출단계에서는 이전의 질문에 대한 상기 피평가자(1000)의 대답의 분석 및 평가 결과에 기초하여 이어질 질문을 생성할 수 있다. 이와 같이 상기 분석정보에 기초하여 질문데이터를 생성하는 경우, 이전의 질문에 대한 대답의 내용에 기초하여 이어질 질문의 내용을 생성할 수도 있고, 혹은 이전의 질문에 대한 대답의 평가 결과에 기초하여 평가할 영역을 정할 수도 있다.After that, the process returns to the question derivation step and repeats. At this time, the question derivation step generates question data based on the analysis information. Therefore, in the question derivation step that may be performed by the question derivation unit 120, a question to be generated may be generated based on an analysis and evaluation result of the answer of the evaluator 1000 with respect to a previous question. As such, when the question data is generated based on the analysis information, the content of the question to be continued may be generated based on the content of the answer to the previous question, or may be evaluated based on the evaluation result of the answer to the previous question. You can also specify an area.

예를 들어, 이전의 질문에서 상기 피평가자(1000)의 긴장감의 분석점수가 높아 fail을 받게 된 경우, 상기 질문도출부(120)는 상기 긴장감을 다시 평가하기 위한 질문데이터를 생성할 수 있다. 예를 들어 상기 긴장감의 분석점수가 높았기 때문에 새로 생성되는 질문데이터에 포함된 비언어적정보는 상기 긴장감을 완화시켜줄 수 있도록 질문의 내용, 문장, 억양 및 전달 표정 등이 설정될 수 있고, 이와 같은 질문에 대한 대답을 평가할 수 있는 평가기준정보 또한 갱신될 수 있다.For example, in the previous question, when the score of the test subject 1000 is analyzed to be high and the fail is received, the question extractor 120 may generate question data for evaluating the tension again. For example, the non-verbal information included in the newly generated question data because the analysis score of the tension is high, the content of the question, sentence, intonation and delivery expression can be set to alleviate the tension, such a question The criteria information for evaluating the answers to can also be updated.

상기 평가기준정보는 새로 생성된 질문데이터에 대한 대답을 평가하기 위하여 상기 초기정보 및 상기 분석정보 중 1 이상에 기초하여 갱신될 수 있다. 상기 초기정보 및 상기 분석정보는 상기 피평가자에 대한 정보 및 상기 피평가자의 대답에 대한 정보를 포함하고 있어서, 상기 초기정보 혹은 상기 분석정보에 의해 새로 생성되는 질문데이터의 질문에 대한 대답을 평가하기 위한 정보로 사용될 수 있다.The evaluation criteria information may be updated based on at least one of the initial information and the analysis information to evaluate an answer to newly generated question data. The initial information and the analysis information includes information about the assessor and information about the answer of the assessor, and thus information for evaluating an answer to a question of question data newly generated by the initial information or the analysis information. Can be used as

예를 들어, 상기 초기정보에는 상기 피평가자의 전공에 대한 정보가 포함되어 있고, 이전의 질문에서 상기 피평가자의 학생 시절의 경험에 대해 묻고 상기 피평가자의 대답의 분석 결과 학생 시절의 경험에 대한 자신감의 평가 결과가 우수한 경우, 상기 질문도출부(120)는 상기 학생 시절의 경험에 대한 다른 질문을 건네도록 질문데이터를 생성하고, 상기 다른 질문에 대한 상기 피평가자의 대답에 대한 자신감을 더욱 상세히 평가할 수 있도록 상기 평가기준정보를 갱신하여 평가를 수행함으로써 상기 피평가자에 대해 심층적이고 다면화된 평가를 수행할 수 있게 된다.For example, the initial information includes information about the subject's major, and the previous question asks about the student's experience in the student's life and analyzes the respondent's response to evaluate the confidence in the student's experience. If the result is excellent, the question derivation unit 120 generates question data to pass another question about the student's experience, and evaluates the confidence of the evaluator's answer to the other question in more detail. By performing evaluation by updating evaluation criteria information, it is possible to perform in-depth and multifaceted evaluation of the evaluator.

이와 같이 질문 및 대답을 반복할 때, 피평가자에게 하나의 질문이 주어진 후 상기 하나의 질문에 대한 대답을 분석하여 평가한 후 다시 질문을 생성할 수도 있고, 혹은 일련의 2 이상의 질문이 순차적으로 주어지고, 상기 2 이상의 질문에 대한 대답 각각을 분석하여 평가한 후 다시 질문을 생성할 수도 있다. 따라서, 상기 질문데이터는 하나의 질문에 대한 데이터를 포함하거나, 혹은 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함할 수 있다. 상기 질문데이터가 하나의 질문에 대한 데이터를 포함하는 경우 질문에 대한 대답에 따라 즉시 대답을 평가하고, 평가 결과에 기초하여 다음 질문을 도출할 수 있으나 분석 및 질문의 도출에 소요되는 오버헤드가 많아지게 되고, 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함하는 경우, 2 이상의 질문에 대한 질문을 한번에 도출하고, 상기 2 이상의 질문에 대한 평가 결과를 다시 새로운 2 이상의 질문을 포함하는 질문세트를 도출하는데 사용하기 때문에 도출에 소요되는 리소스를 절약할 수 있다. 다만 이 경우 질문 각각에 대한 대답의 평가결과가 다음 질문에 반영되지 않기 때문에 평가의 정확도에 영향을 미칠 수 있다.When the question and answer are repeated in this way, the subject may be asked one question and then analyzed and evaluated for the answer to the question, and then the question may be generated again, or a series of two or more questions may be given sequentially. In addition, each of the answers to the two or more questions may be analyzed and evaluated, and then a question may be generated again. Therefore, the question data may include data for one question or data for a question set including two or more questions. When the question data includes data for one question, the answer may be immediately evaluated according to the answer to the question, and the next question may be derived based on the evaluation result, but the overhead required for analysis and derivation of the question is large. If you include data for a question set that includes two or more questions, you derive the questions for two or more questions at once, and return the evaluation result of the two or more questions to a new question set that includes two or more questions. It can be used to derive, thus saving the resources required for derivation. In this case, however, the evaluation results of the answers to each question may not be reflected in the following questions, which may affect the accuracy of the evaluation.

따라서 상기 2 이상의 질문을 포함하는 질문세트의 경우 서로 밀접한 연관성을 갖는 질문들로 구성하여 상기 질문세트에 대한 대답에 대한 평가의 정확도를 높일 수 있도록 함이 바람직하다.Therefore, in the case of a question set including two or more questions, it is preferable to construct questions that are closely related to each other so as to increase the accuracy of evaluating an answer to the question set.

도 10은 본 발명의 일 실시예에 따른 대답분석부의 피처맵 생성과정을 개략적으로 도시한다.10 schematically illustrates a feature map generation process of an answer analysis unit according to an embodiment of the present invention.

도 10에서는 CNN 인공신경망 모델을 이용하여 피평가자의 대답의 비언어적정보를 평가하기 위하여 얼굴특징정보에 대한 얼굴피처맵을 생성하는 과정을 예시적으로 도시한다. 도 10에 도시된 방법은 대답분석부(140)에 의하여 수행될 수 있다.10 exemplarily illustrates a process of generating a facial feature map for facial feature information in order to evaluate non-verbal information of an answer of a subject using a CNN artificial neural network model. The method illustrated in FIG. 10 may be performed by the answer analyzer 140.

구체적으로 예를 들어, 64 X 64 크기의 얼굴특징정보를 5 X 5 크기의 32개 필터로 컨볼루션(convolution)하여 60 X 60 크기의 32개 결과물을 출력하고, 이를 3 X 3 max pooling 을 이용하여 30 X 30 크기로 축소시킨다. 30 X 30 크기의 32개 결과물에 다시 5 X 5 크기의 32개 필터로 컨볼루션하고, 다시 3 X 3 max pooling하면 13 X 13 크기의 32개 결과물이 출력된다. 여기에, 5 X 5 크기의 64개 필터를 컨볼루션 하면 9 X 9 크기의 64개 결과물이 나오고 경계(boundary)를 0으로 채워 10 X 10으로 만든 후 3 X 3 max pooling을 적용하여 5 X 5 크기의 64개 결과물을 얻는다.Specifically, for example, 64 X 64 facial feature information is convolved with 32 filters of 5 X 5 size to output 32 results of 60 X 60 size, and 3 X 3 max pooling is used. To reduce the size to 30 X 30. 32 results of 30 X 30 size are convolved again with 32 filters of 5 X 5 size, and 3 X 3 max pooling results in 32 results of 13 X 13 size. Here, convoluting 64 filters of size 5 X 5 yields 64 results of size 9 X 9, fills the boundary with 0 to make 10 X 10, and then applies 3 X 3 max pooling to 5 X 5 You get 64 results in size.

그 후 512개의 가중치가 있는 FC와 128개의 가중치가 있는 FC를 통해 최종 128개의 벡터로 구성된 얼굴피처맵을 얻는다. 예를 들어, 최종 출력값의 개수는 얻고자 하는 얼굴에 대한 특성정보의 개수와 같을 수 있다.Then, the 512 weighted FCs and 128 weighted FCs are used to obtain the face feature map of the final 128 vectors. For example, the number of final output values may be equal to the number of characteristic information about a face to be obtained.

상기 얼굴피처맵은 상기 최종 128개의 출력값 자체가 될 수 있고, 혹은 구 중간 단계에서 컨볼루션 한 피처맵에 해당할 수 있다. 이와 같은 CNN 기반의 인공신경망 모듈의 구성은 1 이상의 컨볼루션 계층, 풀링 계층, ReLu와 같은 활성화 함수, FC 계층이나 Global Average Pooling 계층 등을 조합하여 형성할 수 있다.The facial feature map may be the final 128 output values themselves, or may correspond to the feature map convolved in the middle stage. The CNN-based artificial neural network module may be formed by combining one or more convolutional layers, a pooling layer, an activation function such as ReLu, an FC layer, or a Global Average Pooling layer.

본 발명의 일 실시예에 따른 대답분석부(140)는 상기와 같은 과정을 거쳐 얼굴피처맵을 생성하고, 상기 피처맵에 기초하여 기설정된 카테고리의 분석점수를 도출함으로써 상기 피평가자(1000)의 대답에 대한 평가를 수행할 수 있다.The answer analyzing unit 140 according to an embodiment of the present invention generates the facial feature map through the above process, and derives an analysis score of a preset category based on the feature map, thereby answering the evaluator 1000. Can be evaluated.

도 11은 본 발명의 일 실시예에 따른 질문구현부의 동작을 개략적으로 도시하는 도면이다.11 is a diagram schematically illustrating an operation of a question implementer according to an exemplary embodiment of the present invention.

도 11을 참조하면 본 발명의 일 실시예에서 상기 질문데이터는 질문의 내용을 담고 있는 언어적정보 및 상기 질문을 전달하는 방법을 담고 있는 비언어적정보를 포함한다. 이와 같은 언어적정보 및 비언어적정보는 상기 질문구현부(130)를 통해 피평가자(1000)가 인식할 수 있는 형태로 구성되어 상기 피평가자(1000)에게 전달된다.Referring to FIG. 11, in one embodiment of the present invention, the question data includes linguistic information containing the content of a question and non-verbal information including a method of delivering the question. The linguistic information and the non-verbal information are configured in a form that the assessor 1000 can recognize through the question implementing unit 130 and are transmitted to the assessor 1000.

도 12는 본 발명의 일 실시예에 따른 질문데이터의 비언어적정보의 일 예를 개략적으로 도시하는 그래프이다.12 is a graph schematically illustrating an example of non-verbal information of question data according to an embodiment of the present invention.

도 12를 참조하면 상기 질문데이터의 비언어적정보는 질문의 문장, 질문을 전달하는 음성 및 질문을 전달하는 평가자의 표정 중 1 이상에 대한 긍정 및 부정 단계 정보를 포함할 수 있다. 이와 같은 단계 정보는 각각 긍정 및 부정의 정도에 따라 분류될 수 있다.Referring to FIG. 12, the non-verbal information of the question data may include positive and negative step information about one or more of a sentence of a question, a voice for transmitting the question, and an expression of the evaluator for transmitting the question. Such step information may be classified according to the degree of positive and negative, respectively.

예를 들어 면접에 있어서 회사의 지원 동기에 대한 질문을 함에 있어서, 상기 문장의 긍정 단계가 높은 경우 상기 질문구현부(130)에서는 “저희 회사를 지원해주셔서 감사합니다. 지원동기에 대해 말씀해 주시겠어요?”와 같은 문장의 형태로 구현하여 피평가자(1000)에게 전달할 수 있고, 상기 문장의 긍정 단계가 낮은 경우 상기 질문구현부(130)에서는 “왜 저희 회사를 지원했죠?”와 같이 사무적인 문장구조를 갖는 형태로 구현하여 피평가자(1000)에게 전달할 수 있다.For example, in asking questions about the company's support motivation in an interview, if the affirmative level of the sentence is high, the question implementation section 130 said, “Thank you for supporting our company. Can you tell me about the motivation to support? ”And if the affirmative level of the sentence is low, the question implementation unit 130 asks,“ Why did you support our company? ” It may be implemented in a form having a clerical sentence structure, such as ”and delivered to the evaluator (1000).

또한, 상기 음성의 긍정 단계가 높은 경우 상기 질문구현부(130)는 부드러운 어조에 차분한 목소리로 질문을 전달하도록 구현할 수 있고, 상기 음성의 긍정 단계가 낮은 경우, 고압적인 목소리에 빠른 속도로 공격적인 질문을 구현하도록 할 수도 있다.In addition, when the affirmation level of the voice is high, the question implementation unit 130 may be implemented to deliver a question in a calm voice in a soft tone, and when the affirmation level of the voice is low, an aggressive question at a high speed voice at a high speed. You can also implement

또한, 상기 표정의 긍정 단계가 높은 경우 상기 질문구현부(130)를 통해 구현되는 영상의 면접관은 미소를 띈 얼굴로 상기 피평가자(1000)를 쳐다보며 질문을 할 수 있고, 상기 표정의 긍정 단계가 낮은 경우 구현되는 영상의 면접관은 지루하다는 듯이 피평가자(1000)가 아닌 다른 곳을 응시하며 질문을 던지게 될 수도 있다.In addition, when the affirmative step of the facial expression is high, the interviewer of the image implemented through the question implementation unit 130 may ask a question by looking at the subject 1000 with a smile, and the affirmative phase of the facial expression is In a low case, the interviewer of the image to be implemented may ask questions by staring at a place other than the subject 1000, as if boring.

이와 같이 상기 질문데이터의 비언어적정보는 상기 질문구현부(130)에서 상기 피평가자(1000)로 질문이 전달되는 과정에서 같이 전달된다. 이와 같은 상기 질문데이터의 비언어적정보는 도 12에 도시된 것과 같이 문장, 음성 및 표정 등 다양한 파라미터 값의 조합으로 구성될 수 있다.In this way, the non-verbal information of the question data is transmitted together in the process of passing the question from the question implementer 130 to the evaluator 1000. Such non-verbal information of the question data may be composed of various parameter values such as sentences, voices, and facial expressions, as shown in FIG. 12.

도 13은 본 발명의 일 실시예에 따른 질문데이터의 세트를 개략적으로 도시하는 도면이다.FIG. 13 is a diagram schematically illustrating a set of question data according to an embodiment of the present invention. FIG.

도 12의 예에서와 같이 상기 질문데이터의 비언어적정보가 문장, 음성 및 표정의 3개 파라미터 값의 조합으로 구성되는 경우, 동일한 질문 내용에 대하여 상기 파라미터 값에 따라 다양한 질문 전달 방법이 구현될 수 있다. 이와 같은 다양한 질문 전달 방법은 도 13에서와 같이 하나의 질문세트를 구성하여 저장될 수 있고, 상기 질문구현부(130)는 상기 파라미터 값에 따라 상기 질문세트 중 해당되는 질문을 불러 와 상기 피평가자(1000)에게 전달할 수 있다.As in the example of FIG. 12, when the non-verbal information of the question data is composed of a combination of three parameter values of sentence, voice, and facial expression, various question delivery methods may be implemented according to the parameter value for the same question content. . Such various question delivery methods may be stored by constructing a single question set as shown in FIG. 13, and the question implementer 130 calls up a corresponding question among the question sets according to the parameter value to determine the subject ( 1000).

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that may be executed by various computing devices and may be recorded in a computer readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. An application to which the present invention is applied may be installed in a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmitter (not shown) for transmitting the file at the request of the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, and configure the processing device to operate as desired, or process it independently or in combination. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computing devices so that they are stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Method according to the embodiment is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine code, such as produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than the described method, or other components. Or even if replaced or replaced by equivalents, an appropriate result can be achieved. Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims which follow.

Claims (12)

기계학습에 기초한 비언어적 평가 방법으로서,
비언어적정보를 포함하는 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 피평가자에게 질문을 전달하는 질문구현단계; 및
상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고,
상기 질문데이터는,
상기 대답분석단계에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 기계학습에 기초한 비언어적 평가 방법.
As a non-verbal evaluation method based on machine learning,
A question implementation step of delivering a question to the evaluator in at least one of hearing and sight based on question data including non-verbal information; And
An answer analysis step of analyzing and evaluating non-verbal information included in an answer of the evaluator with respect to the question data through an artificial neural network; Including,
The question data,
Non-verbal evaluation method based on machine learning, including evaluation criteria information for evaluating non-verbal information in the answer analysis step.
청구항 1에 있어서,
상기 비언어적 평가 방법은,
초기의 상기 질문데이터를 생성하기 위한 상기 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계; 및
상기 질문데이터를 생성하는 질문도출단계; 를 더 포함하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 1,
The non-verbal evaluation method,
An evaluator information input step of receiving one or more of the evaluator's information and the evaluator's information for generating the initial question data; And
A question derivation step of generating the question data; Further comprising, non-verbal evaluation method based on machine learning.
청구항 2에 있어서,
상기 피평가자정보입력단계는,
상기 질문데이터를 생성하기 위한 피평가자의 정보 및 평가상황의 정보를 입력하는 피평가자상태입력단계; 및
입력 받은 상기 피평가자의 정보 및 상기 평가상황에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성하는 초기정보생성단계; 를 포함하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 2,
The evaluator information input step,
An evaluator state input step of inputting an evaluator's information and an evaluation situation's information for generating the question data; And
An initial information generation step of generating initial information for generating the question data based on the input information of the evaluator and the evaluation situation; Including, non-verbal evaluation method based on machine learning.
청구항 3에 있어서,
상기 피평가자정보입력단계는,
상기 질문데이터를 생성하기 위한 평가자의 정보를 입력하는 평가자정보입력단계; 를 더 포함하고,
상기 초기정보생성단계는,
입력 받은 상기 피평가자의 정보, 상기 평가상황 및 상기 평가자의 정보에 기초하여 상기 질문데이터를 생성하기 위한 초기정보를 생성하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 3,
The evaluator information input step,
An evaluator information input step of inputting evaluator information for generating the question data; More,
The initial information generation step,
And generating initial information for generating the question data based on the information of the evaluator, the evaluation situation, and the information of the evaluator.
청구항 3에 있어서,
상기 질문도출단계는 상기 초기정보에 기초하여 질문데이터를 생성하고,
상기 질문구현단계는 질문도출단계에서 생성된 상기 질문데이터에 기초하여 질문을 전달하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 3,
The question derivation step generates question data based on the initial information,
The question implementation step of delivering a question based on the question data generated in the question derivation step, non-verbal evaluation method based on machine learning.
청구항 5에 있어서,
상기 비언어적 평가 방법은 상기 질문도출단계, 질문구현단계 및 대답분석단계가 반복적으로 수행될 수 있고,
상기 대답분석단계는 평가 결과에 기초하여 분석정보를 생성하고,
상기 질문도출단계는 상기 초기정보 및 상기 분석정보 중 1 이상에 기초하여 질문데이터를 생성하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 5,
In the non-verbal evaluation method, the question derivation step, question implementation step, and answer analysis step may be repeatedly performed.
The answer analysis step generates analysis information based on the evaluation result,
The question deriving step generates question data based on at least one of the initial information and the analysis information.
청구항 6에 있어서,
상기 평가기준정보는,
상기 초기정보 및 상기 분석정보 중 1 이상에 기초하여 갱신될 수 있는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 6,
The evaluation criteria information,
Non-verbal evaluation method based on machine learning, which can be updated based on at least one of the initial information and the analysis information.
청구항 5에 있어서,
상기 대답분석단계는 상기 질문데이터에 대한 대답의 비언어적정보를 2 이상의 카테고리로 분류하여 수치화 하고,
상기 평가기준정보는 상기 2 이상의 카테고리 별로 수치화 된 분석점수에 대한 평가기준을 포함하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 5,
The answer analysis step is to quantify the non-verbal information of the answer to the question data into two or more categories,
The evaluation criterion information includes an evaluation criterion for an analysis score digitized for each of the two or more categories.
청구항 1에 있어서,
상기 질문데이터의 비언어적정보는 질문의 문장, 질문을 전달하는 음성 및 질문을 전달하는 평가자의 표정 중 1 이상에 대한 정보를 포함하고,
상기 질문구현단계는 상기 질문데이터의 비언어적정보에 기초하여 피평가자에게 전달할 청각데이터 및 시각데이터 중 1 이상을 생성하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 1,
The non-verbal information of the question data includes information on at least one of sentences of questions, voices conveying questions and expressions of evaluators conveying questions,
The question implementation step is a non-verbal evaluation method based on machine learning, generating at least one of auditory data and visual data to be delivered to the subject based on the non-verbal information of the question data.
청구항 1에 있어서,
상기 질문데이터는, 하나의 질문에 대한 데이터를 포함하거나, 혹은 2 이상의 질문을 포함하는 질문세트에 대한 데이터를 포함하는, 기계학습에 기초한 비언어적 평가 방법.
The method according to claim 1,
And the question data includes data for a question set or data for a set of questions that include two or more questions.
기계학습에 기초한 비언어적 평가 시스템으로서,
비언어적정보를 포함하는 초기의 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력부;
상기 질문데이터를 생성하는 질문도출부;
상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현부; 및
상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석부; 를 포함하고,
상기 질문데이터는,
상기 대답분석부에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 기계학습에 기초한 비언어적 평가 시스템.
As a non-verbal evaluation system based on machine learning,
An evaluator information input unit configured to receive one or more of an evaluator's information and an evaluator's information for generating initial question data including non-verbal information;
A question extracting unit generating the question data;
A question implementer configured to transmit a question to the subject through at least one of hearing and vision based on the question data; And
An answer analyzer which analyzes and evaluates non-verbal information included in the respondent's answer to the question data through an artificial neural network; Including,
The question data,
A non-verbal evaluation system based on machine learning, comprising evaluation criteria information for evaluating non-verbal information in the answer analysis unit.
기계학습에 기초한 비언어적 평가를 위한 컴퓨터-판독가능 매체로서,
상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
비언어적정보를 포함하는 초기의 질문데이터를 생성하기 위한 피평가자의 정보 및 평가자의 정보 중 1 이상을 입력 받는 피평가자정보입력단계;
상기 질문데이터를 생성하는 질문도출단계;
상기 질문데이터에 기초하여 청각 및 시각 중 1 이상의 방법으로 상기 피평가자에게 질문을 전달하는 질문구현단계; 및
상기 질문데이터에 대한 상기 피평가자의 대답에 포함된 비언어적정보를 인공신경망을 통해 분석하여 평가하는 대답분석단계; 를 포함하고,
상기 질문데이터는,
상기 대답분석단계에서의 비언어적정보의 평가를 위한 평가기준정보를 포함하는, 컴퓨터-판독가능 매체.
A computer-readable medium for non-verbal evaluation based on machine learning,
The computer-readable medium stores instructions for causing a computing device to perform the following steps, the steps:
An evaluator information input step of receiving at least one of an evaluator's information and an evaluator's information for generating initial question data including non-verbal information;
A question derivation step of generating the question data;
A question implementation step of delivering a question to the assessee in at least one of hearing and sight based on the question data; And
An answer analysis step of analyzing and evaluating non-verbal information included in an answer of the evaluator with respect to the question data through an artificial neural network; Including,
The question data,
And evaluation criteria information for evaluating non-verbal information in the answer analysis step.
KR1020180089027A 2018-05-29 2018-07-31 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning KR102268496B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210077440A KR102377419B1 (en) 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning
KR1020210077437A KR102387113B1 (en) 2018-05-29 2021-06-15 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180060977 2018-05-29
KR20180060977 2018-05-29

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020210077437A Division KR102387113B1 (en) 2018-05-29 2021-06-15 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
KR1020210077440A Division KR102377419B1 (en) 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning

Publications (2)

Publication Number Publication Date
KR20190140805A true KR20190140805A (en) 2019-12-20
KR102268496B1 KR102268496B1 (en) 2021-06-23

Family

ID=69063014

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020180089027A KR102268496B1 (en) 2018-05-29 2018-07-31 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
KR1020210077440A KR102377419B1 (en) 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning
KR1020210077437A KR102387113B1 (en) 2018-05-29 2021-06-15 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020210077440A KR102377419B1 (en) 2018-05-29 2021-06-15 - Non-verbal Evaluation Method System and Computer-readable Medium Based on Machine Learning
KR1020210077437A KR102387113B1 (en) 2018-05-29 2021-06-15 Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning

Country Status (1)

Country Link
KR (3) KR102268496B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261673B1 (en) * 2020-01-21 2021-06-07 주식회사 제네시스랩 Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof
KR20210109704A (en) * 2020-02-27 2021-09-07 주식회사 제네시스랩 Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method
KR102310135B1 (en) * 2020-03-30 2021-10-08 주식회사 제네시스랩 Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model
WO2022010255A1 (en) * 2020-07-10 2022-01-13 주식회사 제네시스랩 Method, system, and computer-readable medium for deriving in-depth questions for automated evaluation of interview video by using machine learning model
KR20220007189A (en) * 2020-07-10 2022-01-18 주식회사 제네시스랩 Methods, Systems and Computer-Readable Medium for Automated Evaluation of Interview Videos using Machine Learning Model
KR20220080401A (en) * 2020-12-07 2022-06-14 이상록 Methord and device of performing ai interview for foreigners

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102591769B1 (en) * 2022-09-14 2023-10-24 주식회사 글로랑 Server and method for generating personality test using query response network based on language model
KR102583312B1 (en) * 2022-12-29 2023-09-26 크디랩 주식회사 Method and system for evaluating of salesman training using analyzation of language and gesture

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090010957A (en) * 2006-03-14 2009-01-30 스페리칼 다이나믹스, 인크. System for and method for psychological assessment
JP2017009825A (en) * 2015-06-23 2017-01-12 トヨタ自動車株式会社 Conversation state analyzing device and conversation state analyzing method
JP2017045434A (en) * 2015-08-28 2017-03-02 株式会社Ubic Data analysis system, data analysis method, program, and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003114931A (en) * 2001-10-02 2003-04-18 Exit Inc Evaluating device and its method
JP2005141307A (en) * 2003-11-04 2005-06-02 Shl-Japan Ltd Evaluation supporting device and program, recording medium with evaluation supporting program recorded and evaluation method using evaluation supporting device
JP6464703B2 (en) * 2014-12-01 2019-02-06 ヤマハ株式会社 Conversation evaluation apparatus and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090010957A (en) * 2006-03-14 2009-01-30 스페리칼 다이나믹스, 인크. System for and method for psychological assessment
JP2017009825A (en) * 2015-06-23 2017-01-12 トヨタ自動車株式会社 Conversation state analyzing device and conversation state analyzing method
JP2017045434A (en) * 2015-08-28 2017-03-02 株式会社Ubic Data analysis system, data analysis method, program, and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261673B1 (en) * 2020-01-21 2021-06-07 주식회사 제네시스랩 Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof
KR20210109704A (en) * 2020-02-27 2021-09-07 주식회사 제네시스랩 Feature Information Derivation From A Plural of frames System Using Machine Learning Model, Methods, Computer-Readable Mediums thereof, and Interview Preparation Service Providing Method
KR102310135B1 (en) * 2020-03-30 2021-10-08 주식회사 제네시스랩 Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model
WO2022010255A1 (en) * 2020-07-10 2022-01-13 주식회사 제네시스랩 Method, system, and computer-readable medium for deriving in-depth questions for automated evaluation of interview video by using machine learning model
KR20220007189A (en) * 2020-07-10 2022-01-18 주식회사 제네시스랩 Methods, Systems and Computer-Readable Medium for Automated Evaluation of Interview Videos using Machine Learning Model
KR20220007193A (en) * 2020-07-10 2022-01-18 주식회사 제네시스랩 Methods, Systems and Computer-Readable Medium for Deriving In-Depth Questions for Automated Evaluation of Interview Videos using Machine Learning Model
KR20220080401A (en) * 2020-12-07 2022-06-14 이상록 Methord and device of performing ai interview for foreigners

Also Published As

Publication number Publication date
KR102387113B1 (en) 2022-04-15
KR20210075944A (en) 2021-06-23
KR102268496B1 (en) 2021-06-23
KR102377419B1 (en) 2022-03-22
KR20210075946A (en) 2021-06-23

Similar Documents

Publication Publication Date Title
KR102387113B1 (en) Non-verbal Evaluation Method, System and Computer-readable Medium Based on Machine Learning
US11095734B2 (en) Social media/network enabled digital learning environment with atomic refactoring
US10249207B2 (en) Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
Naim et al. Automated analysis and prediction of job interview performance
CN106663383B (en) Method and system for analyzing a subject
US20200065612A1 (en) Interactive artificial intelligence analytical system
JP7316453B2 (en) Object recommendation method and device, computer equipment and medium
US20210043099A1 (en) Achieving long term goals using a combination of artificial intelligence based personal assistants and human assistants
CN111201566A (en) Spoken language communication device and computing architecture for processing data and outputting user feedback and related methods
KR101984283B1 (en) Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof
US10902735B2 (en) Education reward system and method
US20200051451A1 (en) Short answer grade prediction
US20200302316A1 (en) Question answering system influenced by user behavior and text metadata generation
Lin et al. Facial emotion recognition towards affective computing‐based learning
Karyotaki et al. Chatbots as cognitive, educational, advisory & coaching systems
US20220139245A1 (en) Using personalized knowledge patterns to generate personalized learning-based guidance
CN117251057A (en) AIGC-based method and system for constructing AI number wisdom
Siegert et al. Admitting the addressee detection faultiness of voice assistants to improve the activation performance using a continuous learning framework
Cherner et al. AI-powered presentation platforms for improving public speaking skills: Takeaways and suggestions for improvement
Utami et al. A Brief Study of The Use of Pattern Recognition in Online Learning: Recommendation for Assessing Teaching Skills Automatically Online Based
Malchanau et al. Multimodal dialogue system evaluation: a case study applying usability standards
Cinieri et al. Eye Tracking and Speech Driven Human-Avatar Emotion-Based Communication
Bustos-López et al. Emotion Detection in Learning Environments Using Facial Expressions: A Brief Review
Shih et al. Virtual voice assistants
Maria et al. Chatbots as cognitive, educational, advisory & coaching systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2020101001798; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20200715

Effective date: 20210526

GRNO Decision to grant (after opposition)
A107 Divisional application of patent
GRNT Written decision to grant