KR20220037129A - Method for providing realtime assessment for interview with interviewee and apparatus using the same - Google Patents

Method for providing realtime assessment for interview with interviewee and apparatus using the same Download PDF

Info

Publication number
KR20220037129A
KR20220037129A KR1020200119702A KR20200119702A KR20220037129A KR 20220037129 A KR20220037129 A KR 20220037129A KR 1020200119702 A KR1020200119702 A KR 1020200119702A KR 20200119702 A KR20200119702 A KR 20200119702A KR 20220037129 A KR20220037129 A KR 20220037129A
Authority
KR
South Korea
Prior art keywords
data
interviewee
time
analysis
real
Prior art date
Application number
KR1020200119702A
Other languages
Korean (ko)
Inventor
이태규
Original Assignee
이태규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이태규 filed Critical 이태규
Priority to KR1020200119702A priority Critical patent/KR20220037129A/en
Publication of KR20220037129A publication Critical patent/KR20220037129A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Disclosed in the present disclosure is a method for providing a real-time interview evaluation for an interviewee and a computing device using the same. Specifically, according to the method of the present disclosure, the method performs: a non-linguistic analysis process in which a computing device acquires video data and sound data of an interviewee, and non-linguistic analysis data for the face of the interviewee detected over a first time unit including a time interval of at least one frame of the video data is calculated; and a linguistic analysis process in which linguistic analysis data for the interviewee's voice detected over a second time unit among the acoustic data is calculated. Evaluation information provided to or having been provided to an external entity is updated in real time. Hourly evaluation information including at least the advice data among the video data, the sound data, the non-linguistic analysis data, the linguistic analysis data, and the advice data is displayed through a predetermined user interface.

Description

피면접자에 대한 실시간 면접 평가를 제공하는 방법 및 이를 이용한 컴퓨팅 장치{METHOD FOR PROVIDING REALTIME ASSESSMENT FOR INTERVIEW WITH INTERVIEWEE AND APPARATUS USING THE SAME}A method for providing real-time interview evaluation for an interviewee and a computing device using the same

본 개시서에는 피면접자에 대한 실시간 면접 평가를 제공하는 방법 및 이를 이용한 컴퓨팅 장치가 개시된다. 구체적으로, 본 개시서의 방법에 의하면, 컴퓨팅 장치가, 상기 피면접자의 영상 데이터 및 음향 데이터를 획득하고, 상기 영상 데이터 중 적어도 하나의 프레임의 시간 간격을 포함하는 제1 시간 단위에 걸쳐 검출되는 상기 피면접자의 얼굴에 대한 비언어적 분석 데이터를 산출하는 비언어적 분석 프로세스, 및 상기 음향 데이터 중 제2 시간 단위에 걸쳐 검출되는 상기 피면접자의 음성에 대한 언어적 분석 데이터를 산출하는 언어적 분석 프로세스를 수행하며, 상기 비언어적 분석 데이터 및 상기 언어적 분석 데이터에 기초하여 상기 피면접자에 대한 조언 데이터를 생성하고, 상기 영상 데이터, 상기 음향 데이터, 상기 비언어적 분석 데이터, 상기 언어적 분석 데이터 및 상기 조언 데이터 중에서 적어도 상기 조언 데이터를 포함하는 시간별 평가 정보를 소정의 사용자 인터페이스를 통하여 외부 엔티티에 제공하거나 상기 외부 엔티티에 제공되고 있는 상기 평가 정보를 실시간으로 갱신한다.Disclosed in the present disclosure are a method for providing real-time interview evaluation for an interviewee and a computing device using the same. Specifically, according to the method of the present disclosure, the computing device acquires image data and sound data of the interviewee, and the image data is detected over a first time unit including a time interval of at least one frame among the image data. performing a non-verbal analysis process of calculating non-verbal analysis data of the interviewee's face, and a verbal analysis process of calculating verbal analysis data of the interviewee's voice detected over a second time unit among the acoustic data; generating advice data for the interviewee based on the non-verbal analysis data and the verbal analysis data; The time-based evaluation information is provided to an external entity through a predetermined user interface, or the evaluation information provided to the external entity is updated in real time.

최근의 취업난으로 인해 면접의 종류가 다양해지는 등 취업에 대한 경쟁이 심화되면서 취업 면접을 사전에 준비하고 공부하는 수요가 급증하는 추세이다. 이렇게 취업 등에 수반되는 면접에 적절히 대응할 수 있도록 예비 피면접자들에게 여러 모의 면접 서비스가 종래에 제공되고 있다.As competition for employment intensifies, such as diversification of interview types due to recent job difficulties, the demand for preparing for and studying for a job interview in advance is on the rise. Various mock interview services are conventionally provided to prospective interviewees so that they can properly respond to the interview accompanying employment.

예를 들어, 일본 특허공개공보 제2016-153883호에는 채용 시험 등에 있어서 피험자의 음성에 의한 감정 검출 기술을 이용하여 성격 등을 적절하게 평가할 수 있는 성격 평가 지원 시스템이 개시된다. 아래에서 다뤄지는 본 개시서의 면접 평가가 적절한 훈련에 의하여 개선될 여지가 있음을 전제로 하고 있는 반면, 이 특허문헌에서의 성격 평가는 피험자의 쉽게 바뀌지 않는 본질에 관한 판단을 대상으로 한 것이라는 차이가 있을 뿐만 아니라 이 문헌에서 설명된 방식은 음성의 분석에만 국한되어 피험자의 표정, 제스처 등 비언어적인 요소가 함께 반영되지 않아 감정을 정확하게 파악하기 어렵다는 단점이 있다.For example, Japanese Patent Application Laid-Open No. 2016-153883 discloses a personality evaluation support system capable of appropriately evaluating a personality or the like by using a technique for detecting emotions based on a subject's voice in an employment test or the like. While it is premised on the premise that the interview evaluation of the present disclosure discussed below has room for improvement by appropriate training, the personality evaluation in this patent document is based on a judgment about the subject's immutable nature. In addition to this, the method described in this document is limited to the analysis of voice and has a disadvantage in that it is difficult to accurately grasp emotions because non-verbal factors such as facial expressions and gestures of the subject are not reflected together.

예를 들어, 평소의 목소리가 화난 것처럼 들리는 특질을 가지는 음성에 대해서는 피험자가 화가 난 감정 상태인 것으로 오인할 가능성이 높기 때문에 실제로 특정한 감정 상태에 해당하는지 더 정확하게 파악하는 데는 다른 요소에 의한 교차 검증이 필요할 것이다. 요컨대, 개개인의 상이한 음성의 특질에 따라 감정을 파악하는 것에 일종의 선입견이 개입될 수 있을 뿐만 아니라 일시적인 감정 상태를 파악하는 것으로 피험자의 성격을 정확하게 파악하기도 어렵다.For example, cross-validation with other factors is not necessary to more accurately determine whether a subject actually corresponds to a specific emotional state because, for example, the subject is more likely to mistake the subject for an angry emotional state for a voice with the characteristic of an angry voice. you will need In short, depending on the characteristics of each individual's different voices, a kind of prejudice may be involved in recognizing emotions, and it is difficult to accurately grasp the personality of a subject by recognizing a temporary emotional state.

이처럼 음성언어적인 특징을 고려하는 위 문헌에 대비하여, 일본 특허공개공보 제2018-060374호에는 동영상 데이터로부터 면접 지망자의 인체 부위를 특정하고 그 특정된 부위의 동작을 검출하며 그 검출된 인체의 부위의 동작에 근거하여 행동을 추출한 후, 이를 발화 중의 행동인가 아닌가에 따라 분류하여 미리 정해진 평가 기준에 근거하여 평가를 실시하는 비언어 정보에 근거한 면접 평가 지원 시스템이 개시되어 있다. 이 또한 언어적 정보와 비언어적 정보가 함께 평가되지 않는 난점이 있다.In preparation for the above document that considers speech-language characteristics, Japanese Patent Application Laid-Open No. 2018-060374 specifies an interviewee's body part from video data, detects the motion of the specified part, and detects the detected body part. An interview evaluation support system based on non-verbal information is disclosed that extracts a behavior based on the behavior of , classifies it according to whether it is a behavior during utterance or not, and evaluates it based on a predetermined evaluation criterion. Also, there is a difficulty in that verbal and non-verbal information are not evaluated together.

이들 종래 특허문헌에서와 같이 언어적 정보, 비언어적 정보 중 하나만을 고려함으로써 초래되는 한계점을 극복하기 위하여 면접 참가자에 대하여 음성뿐만 아니라 얼굴 또는 태도에 근거하는 표출 정보에 관한 영상까지 고려할 수 있도록, 예를 들어, 일본 등록특허공보 제6042015호에는 면접 참가자의 얼굴 또는 태도에 근거하는 표출 정보를 취득하는 영상 데이터 해석부 및 면접 참가자의 발언 내용 또는 음향에 근거하는 표출 표현을 취득하는 음성 데이터 해석부를 포함하는 온라인 면접 평가 장치가 제시된다. 그 평가 기준은 적어도, 말의 의미적 특징과, 음성적 특징과, 표정적 특징과, 소행적 특징으로 구성되고 있는바, 전술한 일본 특허공개공보들에 비해 개선되어 있다.As in these prior patent documents, in order to overcome the limitations caused by considering only one of verbal information and non-verbal information, not only voice but also images about expression information based on face or attitude for interview participants can be considered, for example, For example, Japanese Patent Application Publication No. 6042015 includes a video data analysis unit that acquires expression information based on the face or attitude of an interview participant, and an audio data analysis unit that obtains expression information based on speech content or sound of an interview participant. An online interview evaluation device is presented. The evaluation criteria are, at least, composed of semantic features of speech, vocal features, facial features, and behavioral features, and are improved compared to the above-mentioned Japanese Patent Laid-Open Publications.

이와 같이 영상과 음성 모두에 근거할 수 있도록 평가 방식이 개선되었음에도 여전히 영상과 음성에 기초한 평가가 전체적으로만 주어지고 있어, 어느 시점의 어떠한 비언어적 반응 또는 언어적 반응이 긍정적으로 또는 부정적으로 평가되었는지 알기 어려운바, 이는 이러한 면접 평가 방법들이 예비 피면접자들에게 크게 도움이 되지 않는 단점이 있다. 이는 그러한 종래 특허문헌들이 피면접자의 학습이 아닌 평가를 주 목적으로 하고 있기 때문으로 보인다.Even though the evaluation method has been improved so that it can be based on both video and audio, it is still difficult to know which non-verbal response or verbal response was evaluated positively or negatively at what point in time because the evaluation based on video and audio is still given as a whole. Bar, this has the disadvantage that these interview evaluation methods are not very helpful to the prospective interviewees. This seems to be because such prior patent documents are mainly aimed at evaluation rather than learning of the interviewee.

이처럼 종래의 모의 면접 평가 서비스는 사용자의 면접 결과를 실시간을 평가하지 않고 전체적으로 종합적인 평가를 하는 등으로 면접에 대응하기 위한 학습 내지 훈련에 큰 도움을 주지 못하는 한계점을 보이고 있으므로 본 개시서에서는 면접에서의 피면접자에 대한 평가가 어떻게 하면 개선될 수 있는지 조언(advice; coaching) 정보를 얻을 수 있게 하고, 또한, 각각의 시점마다 어떠한 행동, 표정 또는 음성적 반응을 보여야 개선될 수 있는지에 관한 실질적인 조언을 시계열적인 피드백을 제공함으로써 피면접자에게 개선된 반응을 보일 수 있도록 하고 이로써 면접 평가를 지속적으로 개선하는 기술적인 방안을 제시하고자 한다.As such, the conventional mock interview evaluation service does not evaluate the user's interview results in real time, but rather comprehensively evaluates the overall evaluation. In addition, it is possible to obtain advice (coaching) information on how the evaluation of the interviewee can be improved, and also provides practical advice on how to improve the behavior, facial expression, or voice response at each point in time series. This is to suggest a technical way to continuously improve the interview evaluation by providing an improved response to the interviewee by providing positive feedback.

일본 특허공개공보 제2016-153883호Japanese Patent Laid-Open No. 2016-153883 일본 특허공개공보 제2018-060374호Japanese Patent Laid-Open No. 2018-060374 일본 등록특허공보 제6042015호Japanese Patent Publication No. 6042015

따라서 본 개시서는 종래 기술의 문제점을 해결하여, 자신이 어떻게 면접을 수행했는지 그 영상과 음성에 관한 모습의 평가를 시간대별로 파악되도록 할 뿐만 아니라, 실시간으로 파악될 수 있도록 면접에 대한 평가 정보 및 이에 대한 조언을 제공받을 수 있게 하는 방법 및 이를 이용하는 장치를 제공하는 것을 그 목적으로 한다.Therefore, the present disclosure solves the problems of the prior art, so that the evaluation of the image and audio of how the person conducted the interview can be grasped for each time period, as well as the evaluation information about the interview and this so that it can be grasped in real time An object of the present invention is to provide a method for receiving advice about and an apparatus for using the same.

전술한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and for realizing the characteristic effects of the present invention to be described later is as follows.

본 개시서의 일 태양에 따르면, 피면접자에 대한 실시간 면접 평가를 제공하는 방법이 제공되는바, 그 방법은, 컴퓨팅 장치가, 상기 피면접자의 영상 데이터 및 음향 데이터를 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 영상 데이터 및 상기 음향 데이터를 획득하도록 지원하는 데이터 획득 단계; 상기 컴퓨팅 장치가, 상기 영상 데이터 중 적어도 하나의 프레임의 시간 간격을 포함하는 제1 시간 단위에 걸쳐 검출되는 상기 피면접자의 얼굴에 대한 비언어적 분석 데이터를 산출하는 비언어적 분석 프로세스, 및 상기 음향 데이터 중 제2 시간 단위에 걸쳐 검출되는 상기 피면접자의 음성에 대한 언어적 분석 데이터를 산출하는 언어적 분석 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원하는 분석 단계; 상기 컴퓨팅 장치가, 상기 비언어적 분석 데이터 및 상기 언어적 분석 데이터에 기초하여 상기 피면접자에 대한 코칭 데이터를 생성하거나 상기 타 장치로 하여금 상기 코칭 데이터를 생성하도록 지원하는 코칭 데이터 생성 단계; 및 상기 컴퓨팅 장치가, 상기 영상 데이터, 상기 음향 데이터, 상기 비언어적 분석 데이터, 상기 언어적 분석 데이터 및 상기 코칭 데이터 중에서 적어도 상기 코칭 데이터를 포함하는 시간별 평가 정보를 소정의 사용자 인터페이스를 통하여 외부 엔티티에 제공하거나 상기 외부 엔티티에 제공되고 있는 상기 평가 정보를 실시간으로 갱신하는 출력 프로세스를 수행하거나 상기 타 장치로 하여금 상기 출력 프로세스를 수행하도록 지원하는 평가 정보 제공 단계를 포함한다.According to one aspect of the present disclosure, there is provided a method of providing a real-time interview evaluation for an interviewee, the method comprising: a computing device, acquiring image data and sound data of the interviewee, or other methods linked to the computing device a data acquisition step of supporting a device to acquire the image data and the sound data; A non-verbal analysis process in which the computing device calculates, by the computing device, non-verbal analysis data of the face of the interviewee detected over a first time unit including a time interval of at least one frame among the image data, and a second of the sound data an analysis step of performing a linguistic analysis process of calculating linguistic analysis data of the interviewee's voice detected over time or supporting the other device to perform; a coaching data generating step of generating, by the computing device, coaching data for the interviewee based on the non-verbal analysis data and the verbal analysis data or supporting the other device to generate the coaching data; and the computing device provides time-wise evaluation information including at least the coaching data among the image data, the sound data, the non-verbal analysis data, the verbal analysis data, and the coaching data to an external entity through a predetermined user interface. or performing an output process of updating the evaluation information provided to the external entity in real time, or providing evaluation information for supporting the other device to perform the output process.

일 실시 예에서, 실시간으로 획득되는 상기 영상 데이터 및 상기 음향 데이터에 대해 상기 실시간 데이터 획득 단계 내지 상기 평가 정보 제공 단계가 반복 수행되거나, 일시에 획득된 상기 영상 데이터 및 상기 음향 데이터에 대해 상기 분석 단계 내지 코칭 데이터 생성 단계가 반복 수행될 수 있다.In an embodiment, the real-time data acquisition step to the evaluation information providing step are repeatedly performed for the image data and the sound data acquired in real time, or the analysis step for the image data and the sound data acquired at one time to the coaching data generation step may be repeatedly performed.

바람직하게, 상기 비언어적 분석 프로세스는 상기 영상 데이터를 상기 제1 시간 단위로 분리하여 영상 단위를 획득하는 단계; 및 분리된 상기 영상 단위를 분석하는 단계를 포함한다.Preferably, the non-verbal analysis process includes: obtaining an image unit by dividing the image data into the first time unit; and analyzing the separated image unit.

더 바람직하게, 상기 분리된 영상 단위를 분석하는 단계는, 상기 영상 단위로부터 상기 피면접자의 얼굴을 검출하고, 검출된 상기 얼굴에 대해 상기 피면접자의 표정에 관한 분석을 수행하는 단계; 상기 영상 단위로부터 상기 피면접자에 대한 특징점을 검출하고, 검출된 상기 특징점에 기초하여 상기 피면접자의 움직임에 관한 분석을 수행하는 단계; 및 상기 영상 단위로부터 상기 피면접자의 시선을 검출하고, 검출된 상기 시선에 관한 분석을 수행하는 단계를 포함한다.More preferably, the analyzing of the separated image unit may include: detecting the face of the interviewee from the image unit, and performing an analysis on the facial expression of the interviewee on the detected face; detecting a feature point of the interviewee from the image unit, and analyzing the motion of the interviewee based on the detected feature point; and detecting the gaze of the interviewee from the image unit, and performing analysis on the detected gaze.

유리하게, 상기 언어적 분석 프로세스는, 상기 음향 데이터를 상기 제2 시간 단위로 분리하여 음향 단위를 획득하는 단계; 및 분리된 상기 음향 단위를 분석하여 상기 피면접자의 음성의 높낮이, 톤, 지터(jitter) 및 심머(shimmer) 중 적어도 하나를 포함하는 음향학적 정보에 관한 분석을 수행하는 단계를 포함한다.Advantageously, the linguistic analysis process comprises: separating the sound data into the second time unit to obtain a sound unit; and analyzing the separated acoustic units to analyze acoustic information including at least one of pitch, tone, jitter, and shimmer of the interviewee's voice.

본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어들(인스트럭션들; instructions)을 포함하는 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program comprising instructions (instructions) implemented to perform the method according to the present invention.

본 발명의 또 다른 태양에 따르면, 피면접자에 대한 실시간 면접 평가를 제공하는 컴퓨팅 장치가 제공되는바, 그 장치는, 상기 피면접자의 영상 데이터 및 음향 데이터를 획득하는 통신부; 및 상기 영상 데이터 중 적어도 하나의 프레임의 시간 간격을 포함하는 제1 시간 단위에 걸쳐 검출되는 상기 피면접자의 얼굴에 대한 비언어적 분석 데이터를 산출하는 비언어적 분석 프로세스 및 상기 음향 데이터 중 제2 시간 단위에 걸쳐 검출되는 상기 피면접자의 음성에 대한 언어적 분석 데이터를 산출하는 언어적 분석 프로세스를 포함하는 분석 프로세스를 수행하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 수행하도록 지원하는 프로세서를 포함하고, 상기 프로세서는, 상기 비언어적 분석 데이터 및 상기 언어적 분석 데이터에 기초하여 상기 피면접자에 대한 코칭 데이터를 생성하거나 상기 타 장치로 하여금 상기 코칭 데이터를 생성하도록 지원하는 코칭 데이터 생성 프로세스; 및 상기 영상 데이터, 상기 음향 데이터, 상기 비언어적 분석 데이터, 상기 언어적 분석 데이터 및 상기 코칭 데이터 중에서 적어도 상기 코칭 데이터를 포함하는 시간별 평가 정보를 상기 통신부를 거쳐 소정의 사용자 인터페이스를 이용하여 외부 엔티티에 제공하거나 상기 외부 엔티티에 제공되고 있는 상기 평가 정보를 실시간으로 갱신하는 평가 정보 제공 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원한다.According to another aspect of the present invention, there is provided a computing device for providing a real-time interview evaluation for an interviewee, the apparatus comprising: a communication unit for acquiring image data and sound data of the interviewee; and a non-verbal analysis process of calculating non-verbal analysis data of the face of the interviewee detected over a first time unit including a time interval of at least one frame of the image data, and detection over a second time unit of the sound data and a processor for performing an analysis process including a linguistic analysis process for calculating linguistic analysis data for the interviewee's voice, or for supporting another device interworking through the communication unit to perform, the processor comprising: a coaching data generation process for generating coaching data for the interviewee based on the non-verbal analysis data and the verbal analysis data or supporting the other device to generate the coaching data; and providing timely evaluation information including at least the coaching data among the image data, the sound data, the non-verbal analysis data, the verbal analysis data, and the coaching data to an external entity using a predetermined user interface through the communication unit Alternatively, the evaluation information providing process of updating the evaluation information being provided to the external entity in real time is performed or the other device is supported to perform.

본 개시서의 실시 예에 따르면 면접 수행의 평가를 실시간으로 파악할 수 있고 그에 대한 조언을 제공받을 수 있어 면접에 관한 효과적인 학습이 가능해지는 효과가 있다.According to an embodiment of the present disclosure, it is possible to grasp the evaluation of interview performance in real time and to receive advice thereon, so that effective learning about the interview is possible.

본 개시서의 실시 예에 따르면, 시선, 표정, 움직임 등 비언어적 요소를 비롯한 다양한 면접 평가 요소에 기초한 평가 결과뿐만 아니라 이에 대한 적절한 조언을 영상과 함께 실시간으로 평가받을 수 있는 효과가 있다.According to an embodiment of the present disclosure, there is an effect that not only evaluation results based on various interview evaluation factors, including non-verbal factors such as gaze, facial expression, movement, etc., but also appropriate advice can be evaluated in real time together with an image.

따라서, 본 개시서의 실시 예에 따르면, 영상과 함께 실시간으로 자신의 면접 평가 정보를 받아볼 수 있게 되어 어느 시점에 좋은 평가를 받았는지 좋지 않은 평가를 받았는지 파악할 수 있어 효과적인 면접 준비를 할 수 있는 효과가 있다.Therefore, according to an embodiment of the present disclosure, it is possible to receive one's interview evaluation information in real time along with the video, so that it is possible to determine at what point in time a good evaluation or a bad evaluation was received, so that you can prepare for an effective interview. there is an effect

본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 "통상의 기술자"라 함)에게 있어서는 발명에 이르는 노력 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 개시서의 일 실시 예에 따라 피면접자에 대한 실시간 면접 평가를 제공하는 방법(이하 "실시간 면접 평가 제공 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 개시서의 일 실시 예에 따른 실시간 면접 평가 제공 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 3은 본 개시서의 일 실시 예에 따른 실시간 면접 평가 제공 방법을 예시적으로 나타낸 흐름도이다.
도 4는 본 개시서의 일 실시 예에 따른 실시간 면접 평가 제공 방법에 있어 조언 데이터를 포함하는 시간별 평가 정보를 제공하기 위한 사용자 인터페이스를 예시적으로 보인 도면이다.
The accompanying drawings for use in the description of the embodiments of the present invention are only a part of the embodiments of the present invention, and for those of ordinary skill in the art to which the present invention pertains (hereinafter referred to as "those skilled in the art") Other drawings may be obtained based on these drawings without an effort leading to the invention.
1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device performing a method for providing a real-time interview evaluation for an interviewee (hereinafter referred to as a “real-time interview evaluation providing method”) according to an embodiment of the present disclosure. .
2 is a conceptual diagram exemplarily illustrating a hardware and software architecture of a computing device performing a method for providing a real-time interview evaluation according to an embodiment of the present disclosure.
3 is a flowchart exemplarily illustrating a method for providing a real-time interview evaluation according to an embodiment of the present disclosure.
4 is a diagram exemplarily showing a user interface for providing hourly evaluation information including advice data in a method for providing a real-time interview evaluation according to an embodiment of the present disclosure.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description of the present invention refers to the accompanying drawings, which show by way of illustration a specific embodiment in which the present invention may be practiced, in order to clarify the objects, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

실시 예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시 예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

"제1" 또는 "제2" 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 하는바, 어떠한 순서도 시사하고 있지 않기 때문이다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as “first” or “second” may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another, and no order is implied. because it doesn't For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features, number, step , it should be understood that it does not preclude the possibility of the existence or addition of an operation, a component, a part, or a combination thereof.

본 개시서에서 '학습' 또는 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.In this disclosure, 'learning' or 'learning' is a term that refers to performing machine learning through procedural computing, and is not intended to refer to a mental action such as human educational activity. A person skilled in the art will understand.

또한, 본 개시서에서 쓰이는 '피면접자'라는 용어는 면접 평가의 대상이 되는 인물을 지칭하는바, 실제의 면접에 임하는 사람뿐만 아니라 모의 면접 평가 또는 면접 평가 연습에 임하는 사람을 포함하는 것으로 해석되어야 한다.In addition, the term 'interviewee' used in this disclosure refers to a person subject to interview evaluation, and should be construed to include not only those who participate in the actual interview, but also those who participate in mock interview evaluation or interview evaluation practice. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

더욱이 본 발명은 본 개시서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of the embodiments indicated in the present disclosure. It should be understood that various embodiments of the present invention are different but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it should be understood that the position or arrangement of individual components in each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description given below is not intended to be taken in a limiting sense. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In this specification, unless indicated otherwise or clearly contradicted by context, items referred to in the singular encompass the plural unless the context requires otherwise. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 개시서의 일 실시 예에 따른 실시간 면접 평가 제공 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an exemplary configuration of a computing device performing a method for providing a real-time interview evaluation according to an embodiment of the present disclosure.

도 1을 참조하면, 본 개시서의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.Referring to FIG. 1 , a computing device 100 according to an embodiment of the present disclosure includes a communication unit 110 and a processor 120 , and communicates with an external computing device (not shown) through the communication unit 110 . Can communicate directly or indirectly.

구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터, 프로세서, 메모리, 스토리지(storage), 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다. 상기 스토리지는 하드 디스크, USB(Universal Serial Bus) 메모리와 같은 기억 장치뿐만 아니라 클라우드 서버와 같은 네트워크 연결 기반의 저장 장치의 형태를 포함할 수 있다.Specifically, the computing device 100 may include typical computer hardware (eg, a computer, a processor, a memory, storage, an input device and an output device, a device that may include other components of a conventional computing device; a router; , electronic communication devices such as switches, etc.; electronic information storage systems such as network-attached storage (NAS) and storage area networks (SANs)) and computer software (ie, enabling the computing device to operate in a specific way). to achieve the desired system performance by using a combination of instructions that make it function as The storage may include a storage device such as a hard disk and a Universal Serial Bus (USB) memory, as well as a storage device based on a network connection such as a cloud server.

이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치, 예컨대 휴대 단말 등과의 사이에서 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(Transmission Control Protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(User Datagram Protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다.The communication unit 110 of such a computing device may transmit and receive a request and a response between another computing device, for example, a mobile terminal, etc. that are interlocked. As an example, such a request and a response are the same TCP (Transmission Control Protocol) session ( session), but is not limited thereto, and may be transmitted and received as, for example, User Datagram Protocol (UDP) datagrams.

구체적으로, 통신부(110)는 통신 인터페이스를 포함하는 통신 모듈의 형태로 구현될 수 있다. 이를테면, 통신 인터페이스는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMax(World interoperability for Microwave access), HSDPA(High Speed Downlink Packet Access) 등의 무선 인터넷 인터페이스와 블루투스(Bluetooth™), RFID(Radio Frequency IDentification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-WideBand), ZigBee, NFC(Near Field Communication) 등의 근거리 통신 인터페이스를 포함할 수 있다. 뿐만 아니라, 통신 인터페이스는 외부와 통신을 수행할 수 있는 모든 인터페이스(예를 들어, 유선 인터페이스)를 나타낼 수 있다.Specifically, the communication unit 110 may be implemented in the form of a communication module including a communication interface. For example, the communication interface is WLAN (Wireless LAN), WiFi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMax (World interoperability for Microwave access), HSDPA (High Speed Downlink Packet Access), etc. Including wireless Internet interface of wireless internet interface and short-distance communication interface such as Bluetooth™, RFID (Radio Frequency IDentification), Infrared Data Association (IrDA), UWB (Ultra-WideBand), ZigBee, NFC (Near Field Communication) can do. In addition, the communication interface may indicate any interface (eg, a wired interface) capable of performing communication with the outside.

예를 들어, 통신부(110)는 이와 같이 적합한 통신 인터페이스를 통해 타 컴퓨팅 장치로부터 데이터를 송수신할 수 있다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치, 인쇄 장치, 디스플레이, 기타 외부 출력 장치를 포함하거나 이들과 연동될 수 있다. 컴퓨팅 장치, 예컨대 휴대 단말의 사용자에게 적절한 사용자 인터페이스를 표시하여 제공함으로써 사용자와의 상호작용을 가능하게 하기 위하여, 컴퓨팅 장치(100)는 디스플레이 장치를 내장하거나 상기 통신부(110)를 통하여 외부의 디스플레이 장치와 연동될 수 있음이 알려져 있다. 예컨대, 그러한 디스플레이 장치는 터치 입력이 가능한 터치스크린일 수 있다.For example, the communication unit 110 may transmit/receive data to and from other computing devices through the appropriate communication interface as described above. In addition, in a broad sense, the communication unit 110 may include or interwork with a keyboard, a mouse, other external input devices, printing devices, displays, and other external output devices for receiving commands or instructions. In order to enable interaction with a user by displaying and providing an appropriate user interface to a user of a computing device, for example, a portable terminal, the computing device 100 has a built-in display device or an external display device through the communication unit 110 . It is known that it can be linked with For example, such a display device may be a touch screen capable of a touch input.

또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 120 of the computing device includes a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU), a neural processing unit (NPU) or a tensor processing unit (TPU), and a cache memory. ), and may include a hardware configuration such as a data bus. In addition, the operating system may further include a software configuration of an application for performing a specific purpose.

도 2는 본 개시서의 일 실시 예에 따른 실시간 면접 평가 제공 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.2 is a conceptual diagram exemplarily illustrating a hardware and software architecture of a computing device performing a method for providing a real-time interview evaluation according to an embodiment of the present disclosure.

도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 개관하면, 컴퓨팅 장치(100)는 그 하드웨어 구성요소 그리고/또는 소프트웨어 구성요소로서 데이터 획득 모듈(210)을 포함할 수 있다. 이 데이터 획득 모듈(210)은 일반 카메라, 3D 카메라, 깊이 카메라 등의 외부 데이터 소스 또는 저장 장치로부터 피면접자의 영상 데이터 및 음향 데이터를 획득한다.An overview of the configuration of the method and apparatus according to the present invention with reference to FIG. 2 , the computing device 100 may include a data acquisition module 210 as a hardware component and/or a software component thereof. The data acquisition module 210 acquires image data and sound data of the interviewee from an external data source or storage device such as a general camera, a 3D camera, or a depth camera.

획득된 영상 데이터를 전달받은 비언어적 분석 모듈(220a)은 제1 시간 단위에 걸쳐 그 영상 데이터로부터 검출되는 피면접자의 얼굴에 대한 비언어적 분석 데이터를 산출하도록 구성되는바, 데이터 획득 모듈(210) 및 비언어적 분석 모듈(220a)을 포함하여 도 2에 도시된 개별 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다. The non-verbal analysis module 220a receiving the acquired image data is configured to calculate non-verbal analysis data for the face of the interviewee detected from the image data over a first time unit, the data acquisition module 210 and the non-verbal analysis The individual modules shown in FIG. 2 including the module 220a may be implemented by, for example, the communication unit 110 included in the computing device 100 or the interworking of the communication unit 110 and the processor 120 . will be understood by those of ordinary skill in the art.

여기에서 제1 시간 단위는 몇 초, 몇 분, 몇 시간 등 다양한 시간 간격을 가질 수 있으나, 그 시간 간격은 적어도 하나의 영상 프레임에 해당함은 물론이다.Here, the first time unit may have various time intervals such as several seconds, several minutes, several hours, etc., but of course, the time interval corresponds to at least one image frame.

한편, 획득된 음향 데이터를 전달받은 언어적 분석 모듈(220b)은 제2 시간 단위에 걸쳐 검출되는 피면접자의 음성에 대한 언어적 분석 데이터를 산출하도록 구성된다. 제2 시간 단위 또한 제1 시간 단위와 마찬가지로 몇 초, 몇 분, 몇 시간 등 다양한 시간 간격을 가질 수 있으나, 제1 시간 단위와 동일할 수도 상이할 수도 있음은 물론이다.Meanwhile, the linguistic analysis module 220b receiving the acquired sound data is configured to calculate linguistic analysis data for the interviewee's voice detected over the second time unit. Like the first time unit, the second time unit may also have various time intervals, such as several seconds, several minutes, and several hours, but of course it may be the same as or different from the first time unit.

제1 시간 단위 및 제2 시간 단위를 설정하는 것은 면접이 동태적인 과정이기 때문에 이를 평가하는 것도 시계열적인 성격을 가지기 때문이다.The setting of the first time unit and the second time unit is because the interview is a dynamic process and the evaluation thereof also has a time series nature.

다음으로, 조언 데이터 생성 모듈(230)은 상기 비언어적 분석 데이터 및 언어적 분석 데이터에 기초하여 피면접자에 대한 조언 데이터를 생성하도록 구성되어 그 생성된 조언 데이터는 평가 정보 제공 모듈(240)에 전달되고, 평가 정보 제공 모듈(240)은 출력 모듈로서 기능하여 그 조언 데이터를 포함하는 시간별 평가 정보를 출력 또는 갱신하여 외부 엔티티에 제공한다.Next, the advice data generating module 230 is configured to generate advice data for the interviewee based on the non-verbal analysis data and the verbal analysis data, and the generated advice data is transmitted to the evaluation information providing module 240, The evaluation information providing module 240 functions as an output module to output or update the timely evaluation information including the advice data and provide it to an external entity.

여기에서 외부 엔티티라고 함은, 피면접자 또는 면접자인 상기 컴퓨팅 장치(100)의 사용자, 관리자, 상기 피면접자의 학습을 지도 또는 보조하는 제3자 등을 포함하나, 이 이외에도 면접 평가 및 적절한 조언 데이터를 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 예를 들어, 상기 외부 엔티티는 상기 시간별 평가 정보를 활용하는 별도의 AI(artificial intelligence; 인공지능) 하드웨어 및/또는 소프트웨어 모듈을 포함하는 외부의 AI 장치일 수도 있다. 또한, 외부 엔티티에서의 '외부(external)'는 상기 정보를 이용하는 AI 하드웨어 및/또는 소프트웨어 모듈이 상기 컴퓨팅 장치(100)에 일체화된 실시 예를 배제하도록 의도된 것이 아니라, 본 발명의 방법을 수행하는 하드웨어 및/또는 소프트웨어 모듈의 결과물인 시간별 평가 정보가 타 방법의 입력 데이터로 활용되는 경우를 아우르기 위한 용어로 해석되어야 한다. 즉, 상기 외부 엔티티는 타 컴퓨팅 장치 자체일 수도 있음은 물론이다.Here, the external entity includes the interviewee or the interviewee, a user of the computing device 100, an administrator, a third party who guides or assists the interviewee's learning, etc., but in addition to this, interview evaluation and appropriate advice data are required. It should be understood that any subject is included if it is a subject. For example, the external entity may be an external AI device including a separate artificial intelligence (AI) hardware and/or software module that utilizes the time-based evaluation information. In addition, 'external' in the external entity is not intended to exclude embodiments in which AI hardware and/or software modules using the information are integrated into the computing device 100, but performs the method of the present invention It should be interpreted as a term to encompass the case where time-based evaluation information, which is the result of hardware and/or software modules, is used as input data for other methods. That is, of course, the external entity may be another computing device itself.

이제 도 2를 참조하여 개략적으로 설명된 각 구성요소들에 의하여 달성될 수 있는 구체적인 기능 및 효과에 관하여 도 3 및 도 4를 참조하여 상세히 설명하기로 한다. 도 2에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 개시서의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동되도록 구성될 수도 있다는 점이 이해될 것이다. 예를 들어, 데이터 획득 모듈(210), 비언어적 분석 모듈(220a) 및 언어적 분석 모듈(220b)이 제1 컴퓨팅 장치에서 수행되고, 조언 데이터 생성 모듈(230) 및 평가 정보 제공 모듈(24)이 제1 컴퓨팅 장치에 연동되는 제2 컴퓨팅 장치에서 수행될 수 있도록 구성할 수도 있을 것인바, 통상의 기술자는 다양한 방식으로 복수개의 장치들이 서로 연동하여 본 개시서의 방법을 수행하도록 구성할 수 있을 것인바, 본 개시서에 따른 방법에서 언급되는 '컴퓨팅 장치' 또는 '상기 컴퓨팅 장치'는 동일한 장치인 경우뿐만 아니라 서로 다른 장치인 경우도 아우르는 것으로 해석되어야 한다.Now, specific functions and effects that can be achieved by each of the components schematically described with reference to FIG. 2 will be described in detail with reference to FIGS. 3 and 4 . Although the components shown in FIG. 2 are exemplified as being realized in one computing device for convenience of description, it will be understood that the computing device 100 performing the method of the present disclosure may be configured such that a plurality of devices may interwork with each other. . For example, the data acquisition module 210 , the non-verbal analysis module 220a , and the verbal analysis module 220b are performed in the first computing device, and the advice data generation module 230 and the evaluation information providing module 24 are It may be configured to be performed on a second computing device that is linked to the first computing device, and a person skilled in the art will be able to configure a plurality of devices in various ways to perform the method of the present disclosure in conjunction with each other. Invar, the terms 'computing device' or 'the computing device' referred to in the method according to the present disclosure should be construed to encompass not only the same device but also different devices.

도 3은 본 개시서의 일 실시 예에 따른 실시간 면접 평가 제공 방법을 예시적으로 나타낸 흐름도이다. 3 is a flowchart exemplarily illustrating a method for providing a real-time interview evaluation according to an embodiment of the present disclosure.

도 3을 참조하면, 본 개시서에 따른 실시간 면접 평가 제공 방법은, 우선, 컴퓨팅 장치(100)에 의하여 구현되는 데이터 획득 모듈(210)이, 촬영 장치 또는 저장 장치로부터 피면접자의 영상 데이터 및 음향 데이터를 획득하거나 통신부(110)를 통하여 컴퓨팅 장치(100)에 연동되는 타 장치로 하여금 상기 영상 데이터 및 상기 음향 데이터를 획득하도록 지원하는 데이터 획득 단계(S100)를 포함한다.Referring to FIG. 3 , in the method for providing real-time interview evaluation according to the present disclosure, first, the data acquisition module 210 implemented by the computing device 100 receives image data and sound data of an interviewee from a photographing device or a storage device. and a data acquisition step (S100) of obtaining support or assisting another device interworking with the computing device 100 to acquire the image data and the sound data through the communication unit 110 (S100).

단계(S100)의 전후로 또는 동시에 피면접자에 고유한 식별 정보, 예를 들어, 이름, 성별, 나이, 면접 목적 등에 관한 부가 정보가 더 입력될 수도 있다.Additional information regarding identification information unique to the interviewee, for example, name, gender, age, interview purpose, etc., may be further input before or after step S100 or simultaneously.

다음으로, 본 개시서에 따른 실시간 면접 평가 제공 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 비언어적 분석 모듈(220a)이 상기 영상 데이터 중 적어도 하나의 프레임의 시간 간격을 포함하는 제1 시간 단위에 걸쳐 검출되는 상기 피면접자의 얼굴에 대한 비언어적 분석 데이터를 산출하는 비언어적 분석 프로세스(S210a 내지 S220a)를 수행하거나 통신부(110)를 통하여 연동되는 상기 타 장치로 하여금 그 언어적 분석 프로세스를 수행하도록 지원하는 한편, 컴퓨팅 장치(100)에 의하여 구현되는 언어적 분석 모듈(220b)이 상기 음향 데이터 중 제2 시간 단위에 걸쳐 검출되는 상기 피면접자의 음성에 대한 언어적 분석 데이터를 산출하는 언어적 분석 프로세스(S210b 내지 S220b)를 수행하거나 통신부(100)를 통하여 상기 타 장치로 하여금 수행하도록 지원하는 분석 단계(S200)를 더 포함한다.Next, in the method for providing real-time interview evaluation according to the present disclosure, the non-verbal analysis module 220a implemented by the computing device 100 includes a time interval of at least one frame among the image data in a first time unit. A non-verbal analysis process (S210a to S220a) for calculating non-verbal analysis data for the interviewee's face detected over the course of the non-verbal analysis process (S210a to S220a) or the other device interworking through the communication unit 110 is supported to perform the verbal analysis process , a linguistic analysis process (S210b to S210b) in which the linguistic analysis module 220b implemented by the computing device 100 calculates linguistic analysis data for the interviewee's voice detected over a second time unit among the sound data It further includes an analysis step (S200) of performing S220b) or supporting the other device to perform it through the communication unit 100 .

일 실시 예에서, 상기 비언어적 분석 프로세스(S210a 내지 S220a)는 상기 영상 데이터를 상기 제1 시간 단위로 분리하여 영상 단위를 획득하는 단계(S210a) 및 분리된 상기 영상 단위를 분석하는 단계(S220a)를 포함한다.In an embodiment, the non-verbal analysis process (S210a to S220a) includes the steps of obtaining an image unit by dividing the image data into the first time unit (S210a) and analyzing the separated image unit (S220a) include

영상 단위를 분석하는 방식에는 여러 방식이 있을 수 있으나, 예를 들어, 상기 영상 단위를 분석하는 단계(S220a)는 상기 영상 단위로부터 상기 피면접자의 얼굴을 검출하고, 그 검출된 얼굴에 대해 상기 피면접자의 표정에 관한 분석을 수행하는 단계(S222a), 상기 영상 단위로부터 상기 피면접자에 대한 특징점을 검출하고, 검출된 그 특징점에 기초하여 상기 피면접자의 움직임에 관한 분석을 수행하는 단계(S224a), 및 상기 영상 단위로부터 상기 피면접자의 시선을 검출하고, 그 검출된 시선에 관한 분석을 수행하는 단계(S226a)를 포함할 수 있다.There may be various methods of analyzing the image unit. For example, in the step of analyzing the image unit ( S220a ), the face of the interviewee is detected from the image unit, and the detected face is Performing an analysis on the facial expression (S222a), detecting a feature point for the interviewee from the image unit, and performing an analysis on the movement of the interviewee based on the detected feature point (S224a), and the image It may include detecting the gaze of the interviewee from the unit, and performing an analysis on the detected gaze (S226a).

각 단계(S222a, S224a, S226a)의 수행을 위한 개개의 인공 신경망이 활용될 수 있는바, 최신의 인공 신경망을 지칭하는 심층 신경망(deep neural; DNN)은 입력층과 출력층 외에 복수의 은닉층(hidden layers)을 포함하는 신경망을 의미하며, 이 심층 신경망을 이용하면 영상 데이터의 잠재적인 구조를 파악할 수 있다.Individual artificial neural networks for performing each step (S222a, S224a, S226a) can be utilized. A deep neural network (DNN), which refers to the latest artificial neural network, is a plurality of hidden layers in addition to the input layer and the output layer. layers), and if you use this deep neural network, you can figure out the potential structure of image data.

심층 신경망은 합성곱 신경망(convolutional neural network; CNN), 순환 신경망(recurrent neural network; RNN), 제한 볼츠만 머신(restricted Boltzmann machine; RBM), 심층 신뢰망(deep belief network; DBN), Q 네트워크, U 네트워크, 샴 네트워크, SSD(Single Shot Detector), YOLO(You Only Look Once) 등을 포함할 수 있다.Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted Boltzmann machines (RBMs), deep belief networks (DBNs), Q networks, U It may include a network, a Siamese network, a Single Shot Detector (SSD), You Only Look Once (YOLO), and the like.

이 심층 신경망 각각은 본 개시서의 방법에 있어서는 구체적으로 피면접자의 얼굴을 검출하는 데, 표정의 분류를 수행하는 데, 피면접자에서 검출되는 특징점에 근거하여 움직임에 관한 분류를 수행하는 데, 피면접자의 눈을 먼저 검출하고 그 눈으로부터 시선을 검출하는 데 이용될 수 있다.Each of these deep neural networks specifically detects the face of the interviewee in the method of the present disclosure, performs classification of facial expressions, and performs classification on movement based on feature points detected in the interviewee, eyes of the interviewee can be used to first detect and detect a gaze from that eye.

본 개시서의 방법에서 요구되는 영상의 분석을 위하여 합성곱 신경망(CNN)과 같은 심층 학습(딥 러닝; deep learning) 기술이 활용될 수 있으나, 품질보다 성능이 우선되는 경우에, 즉, 짧은 분석 시간이 중요한 경우에는 MobileNetV2와 같은 인공 신경망 기술을 활용할 수 있음은 통상의 기술자에게 알려진 바와 같다.A deep learning (deep learning) technique such as a convolutional neural network (CNN) may be used for the analysis of the image required in the method of the present disclosure, but when performance is prioritized over quality, that is, short analysis It is known to those skilled in the art that artificial neural network technology such as MobileNetV2 can be utilized when time is of the essence.

예컨대, 상기 피면접자의 표정에 관한 분석은, 긍정적(호의), 무표정, 부정적(혐오), 당황함 등을 포함하는 표정 분류 항목 각각에 관한 비율 수치를 포함할 수 있다. 다만, 이는 예시에 불과하고 시선, 표정, 움직임 외에 다른 기준에 관한 분석을 수행하는 단계가 대안으로서 또는 추가로 포함될 수 있음은 물론이다.For example, the analysis on the facial expression of the interviewee may include a ratio value for each of the facial expression classification items including positive (favorable), non-expressive, negative (dislike), embarrassed, and the like. However, this is only an example, and it goes without saying that the step of performing analysis on criteria other than gaze, expression, and movement may be included as an alternative or additionally.

한편, 전술한 실시 예와 함께 실시되거나 독립적으로 실시될 수 있는 다른 실시 예에서, 상기 언어적 분석 프로세스(S210b 내지 S220b)는 상기 음향 데이터를 상기 제2 시간 단위로 분리하여 음향 단위를 획득하는 단계(S210b) 및 그 분리된 음향 단위를 분석하여 상기 피면접자의 음성의 높낮이, 톤, 지터(jitter) 및 심머(shimmer) 중 적어도 하나를 포함하는 음향학적 정보에 관한 분석을 수행하는 단계(S220b)를 포함한다. 이 또한 예시에 불과하고 피면접자의 음성 외에 피면접자가 발하는 기타 음향(기침 소리, 헛기침, 발 떠는 소리 등), 피면접자의 성량 등 다른 기준에 관한 분석을 수행하는 단계가 대안으로서 또는 추가로 포함될 수 있다.On the other hand, in another embodiment that can be carried out together with or independently of the above-described embodiment, the linguistic analysis process (S210b to S220b) separating the sound data into the second time unit to obtain a sound unit (S210b) and analyzing the separated acoustic units to perform an analysis on acoustic information including at least one of pitch, tone, jitter, and shimmer of the interviewee's voice (S220b) include This is also only an example, and in addition to the voice of the interviewee, the step of performing an analysis on other criteria such as other sounds (coughing, gasping, trembling, etc.) and the interviewee's voice in addition to the interviewee's voice may be included as an alternative or additionally.

이와 같은 음향 및 음성의 분석에 있어서 예컨대 프라트(Praat)와 같은 오픈 소스 라이브러리가 이용될 수 있음은 통상의 기술자에게 알려진 바와 같다.It is known to those skilled in the art that, for example, an open source library such as Praat may be used in the analysis of sound and voice.

분석 단계(S200) 다음으로, 본 개시서에 따른 실시간 면접 평가 제공 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 조언 데이터 생성 모듈(230)이 상기 비언어적 분석 데이터 및 상기 언어적 분석 데이터에 기초하여 상기 피면접자에 대한 조언 데이터를 생성하거나 상기 타 장치로 하여금 상기 조언 데이터를 생성하도록 지원하는 조언 데이터 생성 단계(S300)를 더 포함한다.Analysis step (S200) Next, in the real-time interview evaluation providing method according to the present disclosure, the advice data generation module 230 implemented by the computing device 100 is based on the non-verbal analysis data and the verbal analysis data. The method further includes an advice data generation step (S300) of generating advice data for the interviewee or supporting the other device to generate the advice data.

바람직하게, 그러한 조언 데이터는 문장의 형태로 되어 있거나 이에 대응될 수 있는데, 예를 들어, 단계(S222a)에서 어느 영상 단위에서 검출된 피면접자의 얼굴이 정면을 보고 있지 않은 경우 이를 반영한 비언어적 분석 데이터에 기초하여 그 영상 단위에 해당하는 시간 정보와 함께 '정면을 보고 있지 않아요. (정면을 봐 주세요.)'와 같은 조언 데이터가 생성될 수 있으며, 면접의 질의 또는 응답의 맥락에 있어 미소를 지으면 적당할 영상 단위에서 (S222a)에서 분석된 표정에서 무표정하거나 부정적인 요소가 차지하는 비율이 높다면, '좀 더 미소를 지으면서 답변하면 좋겠어요'와 같은 조언 데이터가 생성될 수 있다.Preferably, such advice data may be in the form of a sentence or may correspond to it. For example, if the face of the interviewee detected in a certain image unit in step S222a is not facing the front, it is reflected in the non-verbal analysis data. Based on the time information corresponding to the video unit, 'I am not looking straight ahead. (Please see the front.)' can be generated, and the ratio of expressionless or negative elements in the facial expression analyzed in (S222a) in the video unit that would be appropriate if you smile in the context of an interview question or response If this is high, advice data such as 'I would like you to answer with a smile more' may be generated.

계속해서 예를 들면, 단계(S220b)에서 어느 음향 단위에서 검출된 피면접자의 성량이 적절할 것으로 기대되는 범위를 벗어나 과하게 높은 경우 이를 반영한 언어적 분석 데이터에 기초하여 그 음성 단위에 해당하는 시간 정보와 함께 '목소리가 너무 큽니다. (목소리를 조금 낮춰주세요.)'와 같은 조언 데이터가 생성될 수 있다.Continuing, for example, if the voice of the interviewee detected in a certain acoustic unit in step S220b is excessively high outside the range expected to be appropriate, based on the linguistic analysis data reflecting this, the time information corresponding to the voice unit together with the time information 'Your voice is too loud. (Please lower your voice a little.)' advice data may be generated.

조언 데이터 생성 단계(S300)에서 상기 조언 데이터가 생성되면, 이를 반영하여, 본 개시서에 따른 실시간 면접 평가 제공 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 평가 정보 제공 모듈(240)이 상기 영상 데이터, 상기 음향 데이터, 상기 비언어적 분석 데이터, 상기 언어적 분석 데이터 및 상기 조언 데이터 중에서 적어도 상기 조언 데이터를 포함하는 시간별 평가 정보를 소정의 사용자 인터페이스를 통하여 외부 엔티티에 제공하거나 상기 외부 엔티티에 현재 제공되고 있는 상기 평가 정보를 실시간으로 갱신하는 출력 프로세스를 수행하거나 상기 타 장치로 하여금 상기 출력 프로세스를 수행하도록 지원하는 평가 정보 제공 단계(S400)를 더 포함한다.When the advice data is generated in the advice data generating step (S300), reflecting this, the real-time interview evaluation providing method according to the present disclosure, the evaluation information providing module 240 implemented by the computing device 100 is the image Time-based evaluation information including at least the advice data among data, the acoustic data, the non-verbal analysis data, the verbal analysis data, and the advice data is provided to an external entity through a predetermined user interface or is currently provided to the external entity The method further includes an evaluation information providing step (S400) of performing an output process for updating the evaluation information in real time or supporting the other device to perform the output process.

여기에서 '실시간으로 갱신하는'이라는 용어는, 본 개시서에 따른 방법이 면접에 관한 녹화 후 그 평가에 관하여 영상 및 음향 데이터를 재생하면서 확인하는 경우에 적용될 뿐만 아니라 실시간 촬영으로 그 방법이 수행되고 있어 그 촬영된 영상 데이터와 함께 이에 대한 피드백으로서 실시간 표시되고 있는 조언 데이터가 갱신(또는 변경)되는 경우를 아우르기 위하여 의도된 것이다.Here, the term 'renewing in real time' is not only applied to the case where the method according to the present disclosure confirms the evaluation while playing back image and sound data after recording about the interview, but the method is performed with real-time shooting and It is intended to cover a case in which the advice data displayed in real time as feedback along with the photographed image data is updated (or changed).

도 4는 본 개시서의 일 실시 예에 따른 실시간 면접 평가 제공 방법의 평가 정보 제공 단계(S400)에 있어 조언 데이터를 포함하는 시간별 평가 정보를 제공하기 위해 이용될 수 있는 사용자 인터페이스의 일 예시를 보인 도면이다.4 shows an example of a user interface that can be used to provide timely evaluation information including advice data in the evaluation information providing step (S400) of the real-time interview evaluation providing method according to an embodiment of the present disclosure; It is a drawing.

도 4를 참조하면, 예시적인 사용자 인터페이스 상에서 영상 데이터가 식별번호 410로 나타나며, 이에 대한 조언 데이터가 식별번호 420에 시간대별로 표시된다. Referring to FIG. 4 , image data is indicated by identification number 410 on the exemplary user interface, and advice data for this is displayed by identification number 420 for each time period.

예를 들어, 평가 정보 제공 단계 (S400)에서 전술한 표정 분류 항목 각각에 관한 비율 수치(412)가 상기 비언어적 분석 데이터의 일부로서 영상 데이터(410)에 대응하여 함께 표시 및 제공될 수 있다. For example, in the evaluation information providing step ( S400 ), the ratio numerical value 412 for each of the above-described expression classification items may be displayed and provided together in response to the image data 410 as a part of the non-verbal analysis data.

한편, 도 4에 조언 데이터(420)는 문장의 형태로 예시되어 있으나, 통상의 기술자는 그러한 문장의 형태에 한정되지 않고 조언 데이터를 비롯한 시간별 평가 정보가 자동 생성된 음성, 그래프, 기호, 사진 등 다른 여러 형태로 제공될 수 있음을 이해할 수 있을 것이다.Meanwhile, although the advice data 420 in FIG. 4 is exemplified in the form of a sentence, a person skilled in the art is not limited to the form of such a sentence, and time-based evaluation information including advice data is automatically generated voice, graph, symbol, photo, etc. It will be appreciated that it may be provided in many other forms.

또한, 조언 데이터(420)는 그 조언 데이터가 적용되는 시간대에 관한 정보(422)와 함께 표시될 수 있는데, 그러한 시간대 정보(422)는 제1 시간 단위 또는 제2 시간 단위에 대응하는 시간의 범위, 예컨대 1분 20초~1분 40초와 같이 범위로 표시될 수도 있으나, 도 4에 예시된 바와 같이 영상 단위 또는 음향 단위 중 해당 조언이 가장 적절한 순간에 해당하거나, 그 영상 단위 또는 음향 단위의 시간 범위의 중간값에 해당하는 하나의 시점으로도 표시될 수 있다.Further, the advice data 420 may be displayed together with information 422 about a time zone to which the advice data is applied, and such time zone information 422 is a time range corresponding to the first time unit or the second time unit. , for example, may be displayed in a range such as 1 minute 20 seconds to 1 minute 40 seconds. It can also be represented as a single point in time corresponding to the middle value of a time range.

특히 본 개시서의 방법이 피면접자에 대한 실시간 촬영으로 적용되거나 녹화 후 재생에 적용되는 경우에는 촬영 현재 시점 또는 재생 진행 중 시점에 대응하는 조언 데이터(424)는 도 4에 예시된 바와 같이 강조 표시될 수 있다.In particular, when the method of the present disclosure is applied to real-time shooting for the interviewee or to playback after recording, the advice data 424 corresponding to the current time of shooting or the time during playback will be highlighted as illustrated in FIG. can

이처럼 본 개시서의 전술한 단계들의 수행에 의하면, 피면접자는 영상, 음향 데이터와 함께 실시간으로 평가 정보를 제공받을 수 있고, 어느 시점에 좋은 평가를 받았는지, 안 좋은 평가를 받았는지 시간대별로 파악이 가능해질 뿐만 아니라 이에 대해 제공되는 조언을 통하여 효과적인 면접 준비를 할 수 있는 효과가 있다. As such, according to the performance of the above-described steps of the present disclosure, the interviewee can be provided with evaluation information in real time along with image and sound data, and it is possible to identify at what point in time a good evaluation or a bad evaluation was received by time period. Not only is it possible, but it has the effect of effectively preparing for an interview through the advice provided.

지금까지 설명된 단계들(혹은 이에 대응되는 프로세스들)은 논리적으로 모순되거나 맥락상 달리 명시되어 있지 않는 한 기재된 순서대로 수행되어야 함을 의미하는 것이 아니며, 각각의 단계들(혹은 대응되는 프로세스들)은 동시에 또는 이시(異時)에 수행될 수 있다는 점을 통상의 기술자는 이해할 수 있을 것이다. The steps (or corresponding processes) described so far do not mean that they must be performed in the order described unless otherwise logically contradicted or otherwise specified in the context, and each step (or corresponding processes) It will be understood by those skilled in the art that may be performed simultaneously or at different times.

또한, 전술한 단계들이 녹화 후 재생의 경우 또는 실시간 촬영에 있어 피면접자가 시점마다 조언 데이터를 얻는 경우에 모두, 전술한 단계들 중 적어도 일부는 실시간으로 그리고/또는 반복적으로(iteratively) 수행될 수 있다. 예를 들어, 전자의 경우 일시 획득된 상기 영상 데이터 및 상기 음향 데이터에 대해 분석 단계(S200) 내지 조언 데이터 생성 단계(S300)가 반복 수행된 후 평가 정보 제공 단계(S400)가 수행될 수 있으며, 후자의 경우 실시간으로 획득되는 상기 영상 데이터 및 상기 음향 데이터에 대해 실시간 데이터 획득 단계(S100) 내지 상기 평가 정보 제공 단계(S400)가 반복 수행될 수 있다.In addition, at least some of the above-described steps may be performed in real time and/or iteratively in the case of playback after recording or when the interviewee obtains advice data at each point in real-time shooting. . For example, in the former case, after the analysis step (S200) to the advice data generation step (S300) are repeatedly performed on the temporarily acquired image data and the sound data, the evaluation information providing step (S400) may be performed, In the latter case, the real-time data acquisition step ( S100 ) to the evaluation information providing step ( S400 ) may be repeatedly performed for the image data and the sound data acquired in real time.

다시 말하자면, 후자의 경우 단계(S100) 내지 단계(S400)는 실시간으로 획득되는 영상 데이터 및 음향 데이터의 영상 단위 또는 음향 단위마다 반복될 수 있는바, 이로써 시간별 평가 정보가 면접 또는 모의 면접이 종료될 때까지 산출 및 제공될 수 있다.In other words, in the latter case, steps (S100) to (S400) may be repeated for each image unit or sound unit of the image data and sound data obtained in real time, so that the evaluation information for each time period is determined when the interview or mock interview is finished. It can be calculated and provided until

도 1 내지 도 3에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치, 예컨대, 사용자 단말에서 실현되는 것으로 예시되었으나, 앞서 설명된 바와 같이 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동된 것으로 구성될 수도 있다는 점이 이해될 것이다. 따라서 전술한 본 발명 방법의 각 단계는, 하나의 컴퓨팅 장치가 직접 수행하거나 상기 하나의 컴퓨팅 장치가 상기 하나의 컴퓨팅 장치에 연동되는 타 컴퓨팅 장치로 하여금 수행하도록 지원(support)함으로써 수행될 수 있음이 자명하다.The components shown in FIGS. 1 to 3 are exemplified as being realized in one computing device, for example, a user terminal for convenience of description, but as described above, the computing device 100 performing the method of the present invention includes a plurality of devices. It will be understood that they may be configured as interlocking with each other. Therefore, each step of the method of the present invention described above may be performed by one computing device directly performing or by supporting the one computing device to cause another computing device interlocked with the one computing device to perform. self-evident

이상, 본 개시서의 다양한 실시 예들에 관한 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 프로세서, 예컨대, 마이크로프로세서, 컨트롤러, 예컨대, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 마이크로컴퓨터, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 예컨대, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 예컨대, FPGA(field programmable gate array), PLU(programmable logic unit) 혹은 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 기타 인스트럭션(instruction)을 실행하고 응답할 수 있는 임의의 다른 장치, 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.Above, based on the description of various embodiments of the present disclosure, those of ordinary skill in the art will recognize that the method and/or processes of the present invention, and the steps thereof, are hardware, software, or hardware and software suitable for a specific application. It can be clearly understood that they can be realized in any combination. The hardware may include general purpose computers and/or dedicated computing devices or specific computing devices or special features or components of specific computing devices. The processes may include one or more processors, eg, microprocessors, controllers, eg, microcontrollers, embedded microcontrollers, microcomputers, arithmetic logic units (ALUs), digital signal processors, with internal and/or external memory. , for example, by a programmable digital signal processor or other programmable device. Additionally, or alternatively, the processes may be implemented using an application specific integrated circuit (ASIC), a programmable gate array, such as a field programmable gate array (FPGA), a programmable logic unit (PLU) or programmable array logic. (Programmable Array Logic; PAL) or any other device capable of executing and responding to instructions, any other device or combination of devices that can be configured to process electronic signals. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 인스트럭션(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치에 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 인스트럭션 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 기계 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device for interpretation by or providing instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more machine-readable recording media.

더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 인스트럭션의 형태로 구현되어 기계 판독 가능 매체에 기록될 수 있다. 기계 판독 가능 매체는 프로그램 인스트럭션, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기계 판독 가능한 기록 매체에 기록되는 프로그램 인스트럭션은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD, Blu-ray와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 인스트럭션을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 인스트럭션의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 인스트럭션들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는 바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Moreover, the objects of the technical solution of the present invention or parts contributing to the prior arts may be implemented in the form of program instructions that can be executed through various computer components and recorded in a machine-readable medium. The machine-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the machine-readable recording medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the machine-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs, DVDs, and Blu-rays, and floppy disks. ), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include any one of the devices described above, as well as heterogeneous combinations of processors, processor architectures, or combinations of different hardware and software, or stored and compiled or interpreted for execution on a machine capable of executing any other program instructions. Machine code, which can be created using a structured programming language such as C, an object-oriented programming language such as C++, or a high-level or low-level programming language (assembler, hardware description languages and database programming languages and techniques) This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.

따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Accordingly, in one aspect according to the present invention, when the above-described method and combinations thereof are performed by one or more computing devices, the methods and combinations of methods may be implemented as executable code for performing respective steps. In another aspect, the method may be implemented as systems performing the steps, the methods may be distributed in various ways across devices or all functions may be integrated into one dedicated, standalone device or other hardware. In another aspect, the means for performing the steps associated with the processes described above may include any of the hardware and/or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.

예를 들어, 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 인스트럭션을 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 인스트럭션들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 인스트럭션들을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치를 포함할 수 있다.For example, the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa. The hardware device may include a processor such as an MPU, CPU, GPU, TPU coupled with a memory such as ROM/RAM for storing program instructions and configured to execute the instructions stored in the memory, and an external device and signal It may include a communication unit that can send and receive. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving instructions written by developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific matters such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments, Those of ordinary skill in the art to which the present invention pertains can devise various modifications and variations from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 본 개시서에 첨부된 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and not only the claims appended to the present disclosure but also all modifications equivalently or equivalently to the claims attached to the present disclosure are the spirit of the present invention will fall into the category of For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인 바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods capable of producing the same results as practiced by the methods according to the present invention, the spirit and spirit of the present invention. The scope should not be limited by the above examples, and should be understood in the broadest sense permitted by law.

Claims (7)

피면접자에 대한 실시간 면접 평가를 제공하는 방법에 있어서,
컴퓨팅 장치가, 상기 피면접자의 영상 데이터 및 음향 데이터를 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 상기 영상 데이터 및 상기 음향 데이터를 획득하도록 지원하는 데이터 획득 단계;
상기 컴퓨팅 장치가, 상기 영상 데이터 중 적어도 하나의 프레임의 시간 간격을 포함하는 제1 시간 단위에 걸쳐 검출되는 상기 피면접자의 얼굴에 대한 비언어적 분석 데이터를 산출하는 비언어적 분석 프로세스, 및 상기 음향 데이터 중 제2 시간 단위에 걸쳐 검출되는 상기 피면접자의 음성에 대한 언어적 분석 데이터를 산출하는 언어적 분석 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원하는 분석 단계;
상기 컴퓨팅 장치가, 상기 비언어적 분석 데이터 및 상기 언어적 분석 데이터에 기초하여 상기 피면접자에 대한 조언 데이터를 생성하거나 상기 타 장치로 하여금 상기 조언 데이터를 생성하도록 지원하는 조언 데이터 생성 단계; 및
상기 컴퓨팅 장치가, 상기 영상 데이터, 상기 음향 데이터, 상기 비언어적 분석 데이터, 상기 언어적 분석 데이터 및 상기 조언 데이터 중에서 적어도 상기 조언 데이터를 포함하는 시간별 평가 정보를 소정의 사용자 인터페이스를 통하여 외부 엔티티에 제공하거나 상기 외부 엔티티에 제공되고 있는 상기 평가 정보를 실시간으로 갱신하는 출력 프로세스를 수행하거나 상기 타 장치로 하여금 상기 출력 프로세스를 수행하도록 지원하는 평가 정보 제공 단계
를 포함하는 실시간 면접 평가 제공 방법.
In the method of providing a real-time interview evaluation for an interviewee,
a data acquisition step of, by a computing device, acquiring the image data and sound data of the interviewee or assisting another device interworking with the computing device to acquire the image data and the sound data;
A non-verbal analysis process in which the computing device calculates, by the computing device, non-verbal analysis data of the face of the interviewee detected over a first time unit including a time interval of at least one frame among the image data, and a second of the sound data an analysis step of performing a linguistic analysis process of calculating linguistic analysis data of the interviewee's voice detected over time or supporting the other device to perform;
an advice data generating step of generating, by the computing device, advice data for the interviewee based on the non-verbal analysis data and the verbal analysis data or supporting the other device to generate the advice data; and
The computing device provides, to an external entity, time-based evaluation information including at least the advice data from among the image data, the sound data, the non-verbal analysis data, the verbal analysis data, and the advice data, to an external entity through a predetermined user interface; An evaluation information providing step of performing an output process of updating the evaluation information provided to the external entity in real time or supporting the other device to perform the output process
A method of providing real-time interview assessments, including
제1항에 있어서,
실시간으로 획득되는 상기 영상 데이터 및 상기 음향 데이터에 대해 상기 실시간 데이터 획득 단계 내지 상기 평가 정보 제공 단계가 반복 수행되거나,
일시 획득된 상기 영상 데이터 및 상기 음향 데이터에 대해 상기 분석 단계 내지 조언 데이터 생성 단계가 반복 수행되는, 실시간 면접 평가 제공 방법.
According to claim 1,
The real-time data acquisition step to the evaluation information providing step are repeatedly performed for the image data and the sound data acquired in real time, or
A method for providing a real-time interview evaluation in which the analysis step or the advice data generation step are repeatedly performed on the temporarily acquired image data and the sound data.
제1항에 있어서,
상기 비언어적 분석 프로세스는,
상기 영상 데이터를 상기 제1 시간 단위로 분리하여 영상 단위를 획득하는 단계; 및
분리된 상기 영상 단위를 분석하는 단계
를 포함하는, 실시간 면접 평가 제공 방법.
According to claim 1,
The non-verbal analysis process is
obtaining an image unit by dividing the image data into the first time unit; and
analyzing the separated image unit
A method of providing real-time interview evaluation, including.
제3항에 있어서,
상기 분리된 영상 단위를 분석하는 단계는,
상기 영상 단위로부터 상기 피면접자의 얼굴을 검출하고, 검출된 상기 얼굴에 대해 상기 피면접자의 표정에 관한 분석을 수행하는 단계;
상기 영상 단위로부터 상기 피면접자에 대한 특징점을 검출하고, 검출된 상기 특징점에 기초하여 상기 피면접자의 움직임에 관한 분석을 수행하는 단계; 및
상기 영상 단위로부터 상기 피면접자의 시선을 검출하고, 검출된 상기 시선에 관한 분석을 수행하는 단계
를 포함하는, 실시간 면접 평가 제공 방법.
4. The method of claim 3,
The step of analyzing the separated image unit comprises:
detecting the face of the interviewee from the image unit, and performing an analysis on the facial expression of the interviewee on the detected face;
detecting a feature point of the interviewee from the image unit, and analyzing the motion of the interviewee based on the detected feature point; and
Detecting the gaze of the interviewee from the image unit, and performing an analysis on the detected gaze
A method of providing real-time interview evaluation, including.
제1항에 있어서,
상기 언어적 분석 프로세스는,
상기 음향 데이터를 상기 제2 시간 단위로 분리하여 음향 단위를 획득하는 단계; 및
분리된 상기 음향 단위를 분석하여 상기 피면접자의 음성의 높낮이, 톤, 지터(jitter) 및 심머(shimmer) 중 적어도 하나를 포함하는 음향학적 정보에 관한 분석을 수행하는 단계
를 포함하는, 실시간 면접 평가 제공 방법.
According to claim 1,
The linguistic analysis process is
obtaining a sound unit by dividing the sound data into the second time unit; and
analyzing the separated acoustic units to analyze acoustic information including at least one of pitch, tone, jitter, and shimmer of the interviewee's voice;
A method of providing real-time interview evaluation, including.
컴퓨팅 장치로 하여금, 제1항 내지 제5항 중 어느 한 항의 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 기록 매체에 저장된, 컴퓨터 프로그램.A computer program, stored in a machine-readable recording medium, comprising instructions implemented to cause a computing device to perform the method of any one of claims 1 to 5. 피면접자에 대한 실시간 면접 평가를 제공하는 컴퓨팅 장치에 있어서,
상기 피면접자의 영상 데이터 및 음향 데이터를 획득하는 통신부; 및
상기 영상 데이터 중 적어도 하나의 프레임의 시간 간격을 포함하는 제1 시간 단위에 걸쳐 검출되는 상기 피면접자의 얼굴에 대한 비언어적 분석 데이터를 산출하는 비언어적 분석 프로세스 및 상기 음향 데이터 중 제2 시간 단위에 걸쳐 검출되는 상기 피면접자의 음성에 대한 언어적 분석 데이터를 산출하는 언어적 분석 프로세스를 포함하는 분석 프로세스를 수행하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 수행하도록 지원하는 프로세서
를 포함하고,
상기 프로세서는,
상기 비언어적 분석 데이터 및 상기 언어적 분석 데이터에 기초하여 상기 피면접자에 대한 조언 데이터를 생성하거나 상기 타 장치로 하여금 상기 조언 데이터를 생성하도록 지원하는 조언 데이터 생성 프로세스; 및
상기 영상 데이터, 상기 음향 데이터, 상기 비언어적 분석 데이터, 상기 언어적 분석 데이터 및 상기 조언 데이터 중에서 적어도 상기 조언 데이터를 포함하는 시간별 평가 정보를 상기 통신부를 거쳐 소정의 사용자 인터페이스를 이용하여 외부 엔티티에 제공하거나 상기 외부 엔티티에 제공되고 있는 상기 평가 정보를 실시간으로 갱신하는 평가 정보 제공 프로세스를 수행하거나 상기 타 장치로 하여금 수행하도록 지원하는, 실시간 면접 평가 제공 장치.
In the computing device for providing real-time interview evaluation for the interviewee,
a communication unit for acquiring image data and sound data of the interviewee; and
A non-verbal analysis process for calculating non-verbal analysis data of the face of the interviewee detected over a first time unit including a time interval of at least one frame of the image data, and a second time unit of the sound data detected over a second time unit A processor that performs an analysis process including a linguistic analysis process for calculating linguistic analysis data for the interviewee's voice or supports another device interworking through the communication unit to perform it
including,
The processor is
an advice data generating process for generating advice data for the interviewee based on the non-verbal analysis data and the verbal analysis data or supporting the other device to generate the advice data; and
Time-based evaluation information including at least the advice data among the image data, the sound data, the non-verbal analysis data, the verbal analysis data, and the advice data is provided to an external entity through the communication unit using a predetermined user interface, or A real-time interview evaluation providing apparatus for performing an evaluation information providing process of updating the evaluation information being provided to the external entity in real time, or for causing the other device to perform.
KR1020200119702A 2020-09-17 2020-09-17 Method for providing realtime assessment for interview with interviewee and apparatus using the same KR20220037129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200119702A KR20220037129A (en) 2020-09-17 2020-09-17 Method for providing realtime assessment for interview with interviewee and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200119702A KR20220037129A (en) 2020-09-17 2020-09-17 Method for providing realtime assessment for interview with interviewee and apparatus using the same

Publications (1)

Publication Number Publication Date
KR20220037129A true KR20220037129A (en) 2022-03-24

Family

ID=80935971

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200119702A KR20220037129A (en) 2020-09-17 2020-09-17 Method for providing realtime assessment for interview with interviewee and apparatus using the same

Country Status (1)

Country Link
KR (1) KR20220037129A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6042015B2 (en) 1976-02-16 1985-09-19 川崎重工業株式会社 Manufacturing method for synthetic resin wheels
JP2016153883A (en) 2015-02-13 2016-08-25 日東電工株式会社 Polarizing film, polarizing film with adhesive layer, image display device, and continuous manufacturing method of the same
JP2018060374A (en) 2016-10-05 2018-04-12 富士ゼロックス株式会社 Information processing device, evaluation system and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6042015B2 (en) 1976-02-16 1985-09-19 川崎重工業株式会社 Manufacturing method for synthetic resin wheels
JP2016153883A (en) 2015-02-13 2016-08-25 日東電工株式会社 Polarizing film, polarizing film with adhesive layer, image display device, and continuous manufacturing method of the same
JP2018060374A (en) 2016-10-05 2018-04-12 富士ゼロックス株式会社 Information processing device, evaluation system and program

Similar Documents

Publication Publication Date Title
US11010645B2 (en) Interactive artificial intelligence analytical system
US9875445B2 (en) Dynamic hybrid models for multimodal analysis
US11226673B2 (en) Affective interaction systems, devices, and methods based on affective computing user interface
WO2020135194A1 (en) Emotion engine technology-based voice interaction method, smart terminal, and storage medium
Vinciarelli et al. A survey of personality computing
US11854540B2 (en) Utilizing machine learning models to generate automated empathetic conversations
JP2021523441A (en) Machine learning based diagnostic classifier
CN107895577A (en) Initiated using the task of long-tail voice command
Scherer et al. A generic framework for the inference of user states in human computer interaction: How patterns of low level behavioral cues support complex user states in HCI
WO2017161233A1 (en) Deep multi-task representation learning
WO2023284435A1 (en) Method and apparatus for generating animation
Ondras et al. Audio-driven robot upper-body motion synthesis
US11544886B2 (en) Generating digital avatar
US20200111488A1 (en) Analytics-based speech therapy
Lakomkin et al. Emorl: continuous acoustic emotion classification using deep reinforcement learning
Battistoni et al. AI at the edge for sign language learning support
US20200090542A1 (en) Behavior-based interactive educational sessions
CN115702323A (en) Method for semi-supervised data collection and machine learning using distributed computing devices
Villa et al. Design and evaluation of proactive behavior in conversational assistants: approach with the eva companion robot
KR20220037129A (en) Method for providing realtime assessment for interview with interviewee and apparatus using the same
CA3233781A1 (en) Mental health intervention using a virtual environment
CN115222857A (en) Method, apparatus, electronic device and computer readable medium for generating avatar
Park et al. Music-aided affective interaction between human and service robot
Fatima et al. Use of affect context in dyadic interactions for continuous emotion recognition
EP4382182A1 (en) Device and method for controlling a virtual avatar on an electronic device

Legal Events

Date Code Title Description
E601 Decision to refuse application