KR102381572B1 - Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning - Google Patents

Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning Download PDF

Info

Publication number
KR102381572B1
KR102381572B1 KR1020210060087A KR20210060087A KR102381572B1 KR 102381572 B1 KR102381572 B1 KR 102381572B1 KR 1020210060087 A KR1020210060087 A KR 1020210060087A KR 20210060087 A KR20210060087 A KR 20210060087A KR 102381572 B1 KR102381572 B1 KR 102381572B1
Authority
KR
South Korea
Prior art keywords
interview
applicant
image
terminal
institution
Prior art date
Application number
KR1020210060087A
Other languages
Korean (ko)
Other versions
KR20210055666A (en
Inventor
이영복
유대훈
박주경
Original Assignee
주식회사 제네시스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제네시스랩 filed Critical 주식회사 제네시스랩
Priority to KR1020210060087A priority Critical patent/KR102381572B1/en
Publication of KR20210055666A publication Critical patent/KR20210055666A/en
Application granted granted Critical
Publication of KR102381572B1 publication Critical patent/KR102381572B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 기계학습을 이용한 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 지원하고자 하는 기관에서 설정한 질문에 대하여 피평가자가 온라인 면접 영상을 촬영하고, 피평가자의 영상에 대하여 기계학습을 이용한 피드백을 제공하여, 피평가자가 먼저 자신의 면접영상에 대한 자동평가를 확인한 후에, 기관에 면접영상을 제출할 수 있는 기계학습을 이용한 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, system, and computer-readable medium for providing an online interview using machine learning, and more particularly, to a question set by an institution to be supported, an online interview image is taken by an evaluator, and the subject's A method, system, and computer-based method for providing an online interview using machine learning that provides feedback using machine learning on the video so that the evaluator can submit the interview video to the institution after first confirming the automatic evaluation of his/her interview video It relates to readable media.

Description

기계학습을 이용한 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체 {Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning}Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning}

본 발명은 기계학습을 이용한 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 지원하고자 하는 기관에서 설정한 질문에 대하여 피평가자가 온라인 면접 영상을 촬영하고, 피평가자의 영상에 대하여 기계학습을 이용한 피드백을 제공하여, 피평가자가 먼저 자신의 면접영상에 대한 자동평가를 확인한 후에, 기관에 면접영상을 제출할 수 있는 기계학습을 이용한 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체에 관한 것이다.The present invention relates to a method, system, and computer-readable medium for providing an online interview using machine learning, and more particularly, to a question set by an institution to be supported, an online interview image is taken by an evaluator, and the subject's A method, system, and computer-based method for providing an online interview using machine learning that provides feedback using machine learning on the video so that the evaluator can submit the interview video to the institution after first confirming the automatic evaluation of his/her interview video It relates to readable media.

면접은 일반적으로 면접을 통해 평가를 받는 면접자 및 면접자에 대한 평가를 수행하는 면접관으로 구성되며, 면접관의 질문과 면접자의 답변으로 진행되며 전체 질의응답에 대한 종합평가로 이루어진다.The interview generally consists of an interviewer who is evaluated through an interview and an interviewer who evaluates the interviewer.

면접은 질문 및 응답을 통해 면접자의 전문지식, 전문기술 혹은 정보활용능력 등의 하드 스킬(hard skill) 뿐만 아니라 면접자의 태도, 의사소통 능력 등의 소프트 스킬(soft skill) 을 파악하는 것을 목적으로 한다.The purpose of the interview is to understand the interviewer's hard skills such as expertise, professional skills, or information literacy ability, as well as soft skills such as the interviewer's attitude and communication ability through question and answer. .

한편, 많은 구직자들이 면접 준비를 하고 있지만, 이에 대한 객관적인 평가 결과를 제공하기는 어려운 실정이고, 특히 소프트 스킬의 경우에는 다양한 면접관으로서의 경험이 있는 평가자만이 바른 평가를 내릴 수 있으며, 또한 현실적으로 오프라인에서 타인의 소프트 스킬적인 부분에 대해 지적을 하기는 어렵다.On the other hand, although many job seekers are preparing for the interview, it is difficult to provide an objective evaluation result. It is difficult to point out other people's soft skills.

또한, 소프트 스킬은 면접관의 주관적 경험과 직관에 따라 다르게 판단되는 영역으로서, 면접관에 따라 평가 기준 및 평가 방법 등이 달라질 수 있다. 이와 같이 면접관의 주관에 따라 달라지는 평가 방법에 의해 면접자의 소프트 스킬이 객관적으로 평가되기 어려운 문제가 있다.In addition, the soft skill is an area that is judged differently according to the interviewer's subjective experience and intuition, and the evaluation criteria and evaluation method may vary depending on the interviewer. As such, there is a problem in that it is difficult to objectively evaluate the interviewer's soft skills by the evaluation method that varies depending on the subjectivity of the interviewer.

또한, 소프트 스킬의 경우에는 다양한 요소가 존재하며, 이에 대한 결과를 제공하는 방식도 매우 중요하다. 단순히 외향적이다 혹은 내향적이다 정도의 평가가 아닌 면접준비자가 자신이 전체적으로 부족한 부분을 세부적으로 파악할 수 있는 것이 필요하다. 또한, 면접 중에 어느 시점에서 부족함이 있었는지를 파악하는 것이 필요하나, 이와 같은 서비스를 제공하는 경우는 종래기술은 전무하다.In addition, in the case of soft skills, various factors exist, and the method of providing results for them is also very important. It is not simply an extroversion or introversion evaluation, but it is necessary for the interviewer to be able to grasp in detail the areas where he or she is lacking as a whole. In addition, it is necessary to determine at what point in the interview there was a shortage, but there is no prior art in which such a service is provided.

또한, 기존 비디오 면접 방식은 기업에서 질문을 제시하고 구직자가 온라인으로 비디오를 촬영하여 인사 담당자에게 전달하는 방식으로 진행이 된다.In addition, the existing video interview method is conducted in a way that the company presents a question and the job seeker shoots a video online and delivers it to the personnel manager.

구직자 입장에서는 단발성이기 때문에 여러 기업을 지원할 때 "자신을 소개해 주세요."와 같은 비슷한 질문을 받을 경우 각 기업마다 여러번 촬영해야 하기 때문에 시간 소모가 크다는 문제점이 있고, 또한 자신의 면접영상에 대한 피드백을 받지 못한다는 문제점이 있다.As it is a one-time job from the point of view of job seekers, when applying for multiple companies, if they are asked a similar question, such as “Introduce yourself,” there is a problem that it consumes a lot of time because each company has to film several times. There is a problem with not receiving it.

또한, 실시간 비디오면접의 경우에는 해당 일정을 조율하기가 어려운 문제점이 있고, 또한 면접 진행 중에 컴퓨팅 시스템 및 통신 시스템의 문제로 면접이 원활하게 진행되지 않을 수 있고, 또한 이에 의하여 야기된 문제점을 면접자 자체가 확인하지 못한다는 문제점이 있다.In addition, in the case of a real-time video interview, there is a problem that it is difficult to coordinate the schedule, and the interview may not proceed smoothly due to problems with the computing system and communication system during the interview. There is a problem that it cannot be confirmed.

본 발명은 지원하고자 하는 기관에서 설정한 질문에 대하여 피평가자가 온라인 면접 영상을 촬영하고, 피평가자의 영상에 대하여 기계학습을 이용한 피드백을 제공하여, 피평가자가 먼저 자신의 면접영상에 대한 자동평가를 확인한 후에, 기관에 면접영상을 제출할 수 있는 기계학습을 이용한 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체를 제공하는 것을 그 목적으로 한다.According to the present invention, the evaluator shoots an online interview image for a question set by the institution to be supported, and provides feedback using machine learning for the image of the evaluator, after the evaluator first confirms the automatic evaluation of his/her interview image An object of the present invention is to provide a method, system and computer-readable medium for providing an online interview using machine learning that can submit an interview video to an institution.

상기와 같은 과제를 해결하기 위하여 본 발명은, 서비스서버에서 수행되는 기계학습을 이용한 온라인 면접을 제공하는 방법으로서, 기관단말기에서 입력된 정보를 포함하는 정보에 기초하여 질문세트를 업데이트하는 질문세트업데이트단계; 기설정된 질문세트 중 1 이상의 질문정보를 지원자단말기에 송신하고, 상기 지원자단말기로부터 상기 질문정보에 응답을 수행한 면접영상을 수신하여 저장하는 면접영상저장단계; 기계학습을 이용한 평가모델을 통하여 상기 면접영상에 대한 자동평가정보를 생성하는 면접영상평가단계; 상기 자동평가정보에 기초하여 지원자단말기에 자동평가결과를 제공하는 평가결과제공단계; 및 지원자단말기에서의 입력에 기초하여 해당 사용자가 지원하고자 하는 기관에 대한 면접영상에 대한 정보를 설정하는 지원영상설정단계;를 포함하는, 기계학습을 이용한 온라인 면접을 제공하는 방법을 제공한다.In order to solve the above problems, the present invention provides a method for providing an online interview using machine learning performed in a service server. step; an interview image storage step of transmitting one or more question information from a preset question set to an applicant terminal, and receiving and storing an interview image in which a response to the question information is performed from the applicant terminal; an interview image evaluation step of generating automatic evaluation information for the interview image through an evaluation model using machine learning; an evaluation result providing step of providing an automatic evaluation result to the applicant terminal based on the automatic evaluation information; and a support image setting step of setting information on an interview image for an institution to which the user wishes to apply based on an input from the applicant terminal; provides a method of providing an online interview using machine learning, including a.

본 발명의 몇 실시예에서는, 상기 질문세트업데이트단계는, 기관으로 로그인한 기관단말기로부터 해당 기관에 대한 질문정보를 수신하는 단계; 외부의 채용지원서버로부터 해당 지원자 및 해당 지원자가 지원한 기관에 대한 지원정보를 직접적 혹은 간접적으로 로드하는 단계; 및 상기 질문정보 및 상기 지원정보에 기초하여 해당 지원자에 대한 질문세트를 업데이트하는 단계를 포함할 수 있다.In some embodiments of the present invention, the step of updating the question set includes: receiving question information about the organization from an organization terminal logged into the organization; directly or indirectly loading application information on the applicant and the institution to which the applicant has applied from an external recruitment support server; and updating a question set for a corresponding applicant based on the question information and the application information.

본 발명의 몇 실시예에서는, 상기 기계학습을 이용한 온라인 면접을 제공하는 방법은, 외부의 채용지원서버로부터 직접적 혹은 간접적으로 수신한 해당 지원자 및 해당 지원자가 지원한 기관에 대한 지원정보에 기초하여 결정된 해당 지원자의 지원기관별 질문을 포함하는 질문세트에 대한 정보를 해당 지원자의 지원자단말기에 송신하고, 상기 지원자단말기의 입력에 따라 면접영상을 촬영할 질문세트를 설정하는 질문세트설정단계를 더 포함할 수 있다.In some embodiments of the present invention, the method for providing an online interview using machine learning is determined based on application information about the applicant and the institution to which the applicant has applied directly or indirectly received from an external recruitment support server. The method may further include a question set setting step of transmitting information on a question set including a question for each support organization of the applicant to the applicant's terminal, and setting a question set for shooting an interview image according to the input of the applicant's terminal. .

본 발명의 몇 실시예에서는, 상기 평가결과제공단계에 의하여 제공되는 지원자단말기에서의 디스플레이요소는, 상기 면접영상을 재생할 수 있는 영상레이어; 2 이상의 평가결과 카테고리를 선택할 수 있는 카테고리레이어; 상기 2 이상의 평가결과 카테고리 중 선택된 평가결과 카테고리에 대한 자동평가결과가 디스플레이되는 자동평가결과레이어를 포함할 수 있다.In some embodiments of the present invention, the display element in the applicant terminal provided by the evaluation result providing step includes: an image layer capable of reproducing the interview image; Category layer from which two or more evaluation result categories can be selected; The automatic evaluation result layer may include an automatic evaluation result for the selected evaluation result category among the two or more evaluation result categories.

본 발명의 몇 실시예에서는, 상기 평가결과제공단계에 의하여 제공되는 지원자단말기에서의 디스플레이요소는, 상기 면접영상을 재생할 수 있는 영상레이어; 상기 면접영상의 부분단위의 평가에 대한 요소를 디스플레이하는 자동평가결과레이어를 포함할 수 있다.In some embodiments of the present invention, the display element in the applicant terminal provided by the evaluation result providing step includes: an image layer capable of reproducing the interview image; It may include an automatic evaluation result layer for displaying elements for the evaluation of the partial unit of the interview image.

본 발명의 몇 실시예에서는, 상기 지원영상설정단계는, 해당 지원자단말기로부터 지원기관에 대한 입력을 수신하는 단계; 해당 지원자단말기로부터 해당 지원기관에서 등록한 1 이상의 질문사항 각각에 대한 해당 지원자의 면접영상 선택정보를 수신하는 단계; 및 해당 지원자단말기의 지원자의 해당 기관에 대한 지원정보를 업데이트하는 단계;를 포함할 수 있다.In some embodiments of the present invention, the step of setting the support video may include: receiving an input for a support organization from a corresponding applicant terminal; receiving interview image selection information of the applicant for each of the one or more questions registered by the support organization from the applicant terminal; and updating the applicant's support information on the applicant's corresponding institution in the applicant's terminal.

본 발명의 몇 실시예에서는, 상기 지원영상설정단계에 의하여 표시되는 지원자단말기의 화면은, 지원하고자 하는 기관의 목록을 표시하는 기관목록레이어; 선택된 기관의 1 이상의 질문사항을 표시하는 질문사항레이어; 및 해당 지원자가 저장한 면접영상을 표시하는 면접영상레이어;를 포함하고, 지원자단말기에서의 조작에 의하여 상기 면접영상레이어의 면접영상 중 어느 1 이상을 상기 질문사항레이어의 각각의 질문사항에 입력할 수 있다.In some embodiments of the present invention, the screen of the applicant terminal displayed by the support image setting step includes: an institution list layer displaying a list of institutions to be supported; a questionnaire layer displaying one or more questions of the selected institution; and an interview image layer for displaying the interview image stored by the applicant; and to input any one or more of the interview images of the interview image layer into each question of the question layer by operation on the applicant's terminal. can

본 발명의 몇 실시예에서는, 상기 기계학습을 이용한 온라인 면접을 제공하는 방법은, 지원영상제공단계를 더 포함하고, 상기 지원영상제공단계는 해당 기관에 대해 지원을 한 지원자의 해당 기관에서 설정한 질문별 면접영상을 상기 기관단말기에 제공할 수 있다.In some embodiments of the present invention, the method for providing an online interview using machine learning further includes the step of providing a support image, wherein the step of providing the support image is set by the institution of the applicant who applied for the institution. Interview images for each question may be provided to the institution terminal.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는 서비스서버에 의하여 구현되는 기계학습을 이용한 온라인 면접을 제공하는 시스템으로서, 기관단말기에서 입력된 정보를 포함하는 정보에 기초하여 질문세트를 업데이트하는 질문세트업데이트부; 기설정된 질문세트 중 1 이상의 질문정보를 지원자단말기에 송신하고, 상기 지원자단말기로부터 상기 질문정보에 응답을 수행한 면접영상을 수신하여 저장하는 면접영상저장부; 기계학습을 이용한 평가모델을 통하여 상기 면접영상에 대한 자동평가정보를 생성하는 면접영상평가부; 상기 자동평가정보에 기초하여 지원자단말기에 자동평가결과를 제공하는 평가결과제공부; 및 지원자단말기에서의 입력에 기초하여 해당 사용자가 지원하고자 하는 기관에 대한 면접영상에 대한 정보를 설정하는 지원영상설정부;를 포함하는, 기계학습을 이용한 온라인 면접을 제공하는 시스템을 제공한다.In order to solve the above problems, an embodiment of the present invention is a system for providing an online interview using machine learning implemented by a service server, and a set of questions is asked based on information including information input from an institution terminal. Question set update unit to update; an interview image storage unit for transmitting one or more question information from a preset question set to an applicant terminal, and receiving and storing an interview image in which a response to the question information is performed from the applicant terminal; an interview image evaluation unit for generating automatic evaluation information for the interview image through an evaluation model using machine learning; an evaluation result providing unit that provides an automatic evaluation result to the applicant terminal based on the automatic evaluation information; and a support image setting unit configured to set information on an interview image for an institution to which the user wishes to apply based on an input from the applicant terminal; provides a system for providing an online interview using machine learning, including a.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예는 전술한 기계학습을 이용한 온라인 면접을 제공하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체를 제공한다.In order to solve the above problems, an embodiment of the present invention provides a computer-readable recording medium in which a program for performing the above-described method for providing an online interview using machine learning is recorded.

본 발명의 일 실시예에 따르면, 구직자는 자신의 면접영상을 지원기관에 제출하기 전에 면접영상에 대한 객관적인 평가를 받고, 평가에 기초하여 자신의 면접영상을 개선하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, a job seeker may receive an objective evaluation of the interview image before submitting his/her interview image to an application institution, and can exhibit the effect of improving his or her interview image based on the evaluation.

본 발명의 일 실시예에 따르면, 구직자가 전체적인 자신의 면접 평가뿐만 아니라 시간 혹은 프레임별 면접 평가를 제공받을 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to exert the effect that the job seeker can be provided with the interview evaluation by time or frame as well as the overall evaluation of his or her own interview.

본 발명의 일 실시예에 따르면, 구직자가 보다 직관적이고 분석적인 형태로 자신의 면접영상에 대한 평가정보를 제공받을 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, it is possible to exert the effect that the job seeker can be provided with evaluation information about his/her interview image in a more intuitive and analytical form.

본 발명의 일 실시예에 따르면, 여러 기업을 지원할 때, 각각의 기업에 대한 질문에 대한 각각의 영상을 촬영하는 것이 아닌 유사한 취지의 질문에 대한 기존의 면접영상을 제출함으로써, 기관 지원의 편의성을 도모할 수 있다.According to an embodiment of the present invention, when supporting multiple companies, the convenience of institutional support is improved by submitting an existing interview image for a question with a similar purpose rather than shooting each image for a question about each company. can be promoted

본 발명의 일 실시예에 따르면, 기관은 비디오로 구직자의 역량을 확인할 수 있는 기회를 얻을 수 있고, 구직자는 최소한의 비용으로 자신의 가장 좋은 면접영상을 기관에 제출할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the institution can obtain an opportunity to check the competency of the job seeker through video, and the job seeker can exhibit the effect of submitting his/her best interview video to the institution at a minimum cost.

본 발명의 일 실시예에 따르면, 기관은 지원자의 최상의 상태만을 효율적으로 확인하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the institution can exert the effect of efficiently confirming only the best condition of the applicant.

도 1은 본 발명의 일 실시예에 따른 온라인 면접을 제공하는 제공하는 방법의 전체적인 시스템 형태를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 서비스서버의 내부 구성을 개략적으로 도시한다.
도 3는 본 발명의 일 실시예에 따른 온라인 면접을 제공하는 방법의 전체적인 단계를 개략적으로 도시한다.
도 4는 본 발명의 몇 실시예에 따른 질문세트업데이트부의 동작을 개략적으로 도시한다.
도 5은 본 발명의 일 실시예에 따른 질문세트설정부의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 6는 본 발명의 일 실시예에 따른 면접영상저장부의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 7는 본 발명의 일 실시예에 따른 면접영상평가부의 동작을 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 평가결과제공부의 종합평가제공부의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 9은 본 발명의 일 실시예에 따른 평가결과제공부의 성격특성제공부의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 평가결과제공부의 프레임별분석제공부의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 11는 본 발명의 일 실시예에 따른 평가결과제공부의 프레임별분석제공부의 시선처리 결과제공 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 12은 본 발명의 일 실시예에 따른 평가결과제공부의 프레임별분석제공부의 머리움직임결과제공 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 평가결과제공부의 프레임별분석제공부의 감정결과제공 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 지원영상설정부의 수행단계들을 개략적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 지원영상설정부의 동작에 따른 지원자단말기의 표시화면의 일 예를 개략적으로 도시한다.
도 16은 본 발명의 일 실시예에 따른 지원영상제공부의 동작에 따른 기관단말기의 표시화면의 일 예를 개략적으로 도시한다.
1 schematically shows the overall system form of a method for providing an online interview according to an embodiment of the present invention.
2 schematically shows an internal configuration of a service server according to an embodiment of the present invention.
3 schematically shows the overall steps of a method for providing an online interview according to an embodiment of the present invention.
4 schematically shows the operation of the question set update unit according to some embodiments of the present invention.
5 schematically shows a display screen in the applicant terminal according to the execution of the question set setting unit according to an embodiment of the present invention.
6 schematically shows a display screen in the applicant's terminal according to the performance of the interview image storage unit according to an embodiment of the present invention.
7 schematically shows the operation of the interview image evaluation unit according to an embodiment of the present invention.
8 schematically shows a display screen in the applicant terminal according to the performance of the comprehensive evaluation providing unit of the evaluation result providing unit according to an embodiment of the present invention.
9 schematically shows a display screen in the applicant's terminal according to the performance of the personality characteristic providing unit of the evaluation result providing unit according to an embodiment of the present invention.
10 schematically shows a display screen in the applicant terminal according to the execution of the frame-by-frame analysis providing unit of the evaluation result providing unit according to an embodiment of the present invention.
11 schematically illustrates a display screen in the applicant terminal according to the execution of the gaze processing result provision of the frame-by-frame analysis providing unit of the evaluation result providing unit according to an embodiment of the present invention.
12 schematically shows a display screen in the applicant terminal according to the execution of the head movement result provision of the frame-by-frame analysis providing unit of the evaluation result providing unit according to an embodiment of the present invention.
13 schematically illustrates a display screen in the applicant terminal according to the execution of the analysis result provision by the frame-by-frame analysis providing unit of the evaluation result providing unit according to an embodiment of the present invention.
14 schematically shows the performing steps of the support image setting unit according to an embodiment of the present invention.
15 schematically illustrates an example of a display screen of a supporter terminal according to an operation of a support image setting unit according to an embodiment of the present invention.
16 schematically illustrates an example of a display screen of an institution terminal according to an operation of a support image providing unit according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or to reproduce one or more processors. Accordingly, as an example, '~' indicates components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드 (Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network;LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The "user terminal" referred to below may be implemented as a computer or portable terminal that can access a server or other terminal through a network. Here, the computer includes, for example, a laptop, a desktop, a laptop, etc. equipped with a web browser (WEB Browser), and the portable terminal is, for example, a wireless communication device that guarantees portability and mobility. , PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code) Division Multiple Access)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro) terminals, etc. may include all types of handheld-based wireless communication devices. In addition, "network" refers to a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN), or a mobile radio communication network or satellite. It may be implemented in any kind of wireless network such as a communication network.

도 1은 본 발명의 일 실시예에 따른 온라인 면접을 제공하는 방법의 전체적인 시스템 형태를 개략적으로 도시한다.1 schematically shows the overall system form of a method for providing an online interview according to an embodiment of the present invention.

도 1의 회원단말기는 전술한 사용자 단말에 해당할 수 있고, 서비스서버(1000)는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅 장치에 해당한다.The member terminal of FIG. 1 may correspond to the above-described user terminal, and the service server 1000 corresponds to a computing device including one or more processors and one or more memories.

회원단말기는 상기 서비스서버(1000)에 웹브라우져 프로그램을 통하여 접속하거나 혹은 전용 애플리케이션을 통하여 서비스서버(1000)에 접속할 수 있다.The member terminal may access the service server 1000 through a web browser program or may access the service server 1000 through a dedicated application.

회원단말기는 지원자 계정으로 로그인을 수행하여 서비스를 이용하는 지원자단말기 혹은 기관 계정으로 로그인을 수행하여 서비스를 이용하는 기관단말기에 해당할 수 있다.The member terminal may correspond to a volunteer terminal using a service by logging in with a volunteer account or an institutional terminal using a service by logging in with an organization account.

지원자단말기는 서비스서버에서 지원하고자 하는 기관에 면접영상을 제출하면서, 해당 기관에 지원을 수행할 수 있다.The applicant terminal can apply to the institution while submitting the interview video to the institution to be supported by the service server.

지원자단말기의 지원자는 아르바이트, 정규직, 기간제, 임시직 등의 직장을 구직하고자 하는 사람에 해당할 수 있고, 기관은 기업, 요식업 매장, 공공기관, 개인사업자 등의 정규직, 기간제, 임시직, 아르바이트직을 채용하고자 하는 기관에 해당할 수 있다.Applicants for the applicant terminal may correspond to those who want to find a job, such as part-time, regular, fixed-term, or temporary. It may correspond to the institution you wish to apply to.

본 발명에서 상기 지원자 및 기관은 위의 범주에 한정되는 것이 아니라, 지원자의 경우 자신의 노동을 제공하고자 하는 사람을 모두 포함하고, 기관은 구인을 하고자 하는 개인, 기관을 모두 포함하는 광의로 해석되어야 할 것이다.In the present invention, the applicants and institutions are not limited to the above categories, but in the case of applicants, it should be interpreted in a broad sense to include all persons who want to provide their own labor, and institutions to include both individuals and institutions who want to hire a job. something to do.

상기 회원단말기는 사용자 각각의 계정으로 상기 서비스서버(1000)에 로그인하여 상기 서비스서버(1000)의 서비스를 이용할 수 있다.The member terminal may log in to the service server 1000 with each user's account and use the service of the service server 1000 .

상기 회원단말기는 각각 상이한 형태의 계정, 예를 들어 지원자 타입의 계정 혹은 기관 타입의 계정으로 상기 서비스서버(1000)에 로그인할 수 있고, 이에 따라 서비스 서버에서 제공하는 인터페이스 및 기능은 달라질 수 있다.The member terminal may log in to the service server 1000 with a different type of account, for example, an account of an applicant type or an account of an institution type, and accordingly, interfaces and functions provided by the service server may vary.

한편, 상기 채용서비스서버는 한국의 사람인TM, 리쿠르트TM, 알바천국TM 등과 같은 채용관련 서비스를 제공하는 서버에 해당할 수 있다. 상기 채용서비스서버에서는 지원자가 지원자로 로그인하고, 지원자는 기관의 구인 공고를 보고 지원을 할 수 있다. 본 발명의 바람직한 실시예에서는 지원자가 기관의 구인 공고에 대한 지원을 수행한 후에, 온라인면접 및 상기 서비스서버에 대한 안내가 상기 채용서비스서버에서 제공이 되고, 상기 지원자는 SNS로그인 형태 등으로 상기 서비스서버에 로그인을 수행할 수 있다.Meanwhile, the recruitment service server may correspond to a server that provides employment-related services such as TM for Koreans, Recruit TM , Part-timer Heaven TM , and the like. In the recruitment service server, an applicant logs in as an applicant, and the applicant can apply by viewing a job advertisement of an institution. In a preferred embodiment of the present invention, after the applicant performs the application for the job posting of the institution, the online interview and information on the service server are provided from the recruitment service server, and the applicant can use the above service in the form of SNS login, etc. You can log in to the server.

더욱 바람직하게는 상기 서비스서버는 상기 채용서비스서버로부터 지원자 및 지원자가 지원을 한 기관의 정보를 자동적으로 수집할 수도 있다. 이와 같은 본 발명의 일 실시예에서는 채용서비스서버에서 지원자 및 기관의 매칭 혹은 지원이 이루어진 후에, 채용서비스서버에서 온라인면접에 대한 안내를 지원자가 확인하고, 안내의 링크를 클릭하여 서비스서버에 접속하고, SNS로그인 등으로 간편하게 서비스서버에 접속한 후에, 해당 기관에서 요구하는 질문들에 대한 온라인면접을 수행할 수 있다.More preferably, the service server may automatically collect information on the applicant and the institution to which the applicant has applied from the recruitment service server. In such an embodiment of the present invention, after matching or supporting an applicant and an institution in the recruitment service server, the applicant checks the guide for the online interview in the recruitment service server, clicks the link in the guide to access the service server, After easily accessing the service server through , SNS login, etc., you can conduct an online interview for the questions requested by the institution.

이하에서는 서비스서버(1000)의 구성에 대하여 더욱 자세하게 설명하도록 한다.Hereinafter, the configuration of the service server 1000 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른 서비스서버(1000)의 내부 구성을 개략적으로 도시한다.2 schematically shows an internal configuration of a service server 1000 according to an embodiment of the present invention.

본 발명의 서비스서버(1000)는 기계학습을 이용한 면접준비 서비스를 제공할 수 있다. 개략적으로, 상기 회원단말기로부터 면접영상을 수신하고, 이에 대한 평가정보를 제공함으로 상기 회원단말기의 사용자는 자신의 면접영상에 대한 피드백을 제공받을 수 있다. 여기서 회원단말기는 전술한 지원자단말기일 수 있다.The service server 1000 of the present invention may provide an interview preparation service using machine learning. Briefly, by receiving an interview image from the member terminal and providing evaluation information on it, the user of the member terminal can receive feedback on his or her interview image. Here, the member terminal may be the aforementioned support terminal.

상기 서비스서버는 질문세트설정부(1100), 면접영상저장부(1200), 면접영상평가부(1300), 평가결과제공부(1400), 온라인면접부(1500), 및 DB(1600)를 포함할 수 있다.The service server includes a question set setting unit 1100, an interview image storage unit 1200, an interview image evaluation unit 1300, an evaluation result providing unit 1400, an online interview unit 1500, and a DB 1600. can do.

질문세트설정부(1100)는 사용자의 입력에 따라서 질문세트를 구성한다.The question set setting unit 1100 configures a question set according to a user's input.

본 발명의 일 실시예에서는 상기 질문세트설정부(1100)는 로그인 한 지원자가 지원한 기관에 따른 질문들을 사용자에게 제공하고, 사용자는 해당 질문들에 기초하여 질문세트를 구성할 수 있다. 혹은, 지원한 해당 기관에서 요구하는 질문세트 자체를 온라인 면접을 수행할 질문세트로 선택할 수도 있다.In an embodiment of the present invention, the question set setting unit 1100 provides the user with questions according to the organizations supported by the logged-in applicant, and the user can configure the question set based on the corresponding questions. Alternatively, the question set itself required by the applicable institution may be selected as the question set for conducting the online interview.

혹은, 사용자는 자신의 지원이력과 관계없이 기본적으로 주어지는 공통질문 중에서 질문세트를 구성할 수 있다. 이는 지원자가 복수의 기관에 지원하는 경우에 일반적으로 동일한 질문에 대한 면접영상을 확보하기 위함이다.Alternatively, the user can compose a question set from among the common questions that are basically given regardless of his or her application history. This is to secure an interview video for generally the same question when an applicant applies to multiple organizations.

혹은, 본 발명의 다른 실시예에서는, 사용자가 지원하고자 하는 기관에 대한 정보를 단계적으로 입력하고, 상기 서비스서버(1000)는 해당 기관에 대한 정보에 상응하는 질문(기업 혹은 기업 종류의 면접에서 출제되거나 혹은 출제될 수 있는 질문)들을 사용자에게 제공한다. 바람직하게는, 상기 질문세트설정부(1100)는 사용자에게 기관의 종류(예를 들어, 기업, 공공기관 등), 기업의 명칭(예를 들어, 삼성전자, 한국은행), 직군(예를 들어, 소프트웨어직, 관리직)을 단계적으로 입력할 수 있는 인터페이스를 제공하고, 이에 따른 질문들을 사용자에게 제시하고, 사용자는 제시된 질문들에 대하여 선택을 수행하여 자신이 온라인면접을 수행할 질문세트를 설정할 수 있다.Alternatively, in another embodiment of the present invention, the user inputs information on the institution to which the user wants to apply step by step, and the service server 1000 asks a question corresponding to the information on the institution (taken in an interview with a company or company type). Questions that have been or may be asked) are provided to the user. Preferably, the question set setting unit 1100 provides the user with the type of institution (eg, company, public institution, etc.), the name of the company (eg, Samsung Electronics, Bank of Korea), and job group (eg, , software job, managerial job) is provided step by step, and the following questions are presented to the user, and the user can set the question set for the online interview by performing selections on the presented questions. there is.

상기 서비스서버(1000)는 전술한 구인을 하고자 하는 기관단말기로부터 질문정보를 입력 받을 수 있고, 이에 따라 해당 기관에 대해 지원을 하고자 하는 지원자들에 대한 질문세트를 DB에 저장해놓을 수 있다.The service server 1000 may receive the above-mentioned question information from the terminal of the institution for which the above-described job search is made, and accordingly, may store a set of questions for applicants who want to apply for the institution in the DB.

혹은, 상기 서비스서버(1000)은 각각의 기업, 직군 등의 지원정보에 상응하는 질문들에 대한 정보를 저장하고 있고, 사용자의 입력에 따라 상응하는 질문 리스트를 제공하고, 사용자는 주요 기업, 혹은 주요 기관에서의 질문을 확인하고 자신이 온라인 면접을 수행하기 위한 질문세트를 스스로 만들어낼 수도 있다.Alternatively, the service server 1000 stores information on questions corresponding to support information of each company, job group, etc., and provides a list of questions corresponding to the user's input, and the user is a major company, or You can check questions from major agencies and create your own set of questions to conduct your own online interview.

위와 같은 방법들에 의하여, 상기 질문세트설정부(1100)는 사용자의 입력에 따라서 면접영상저장부(1200)에 의한 영상촬영을 위한 질문들을 포함하는 질문세트를 설정한다. By the above methods, the question set setting unit 1100 sets a question set including questions for image shooting by the interview image storage unit 1200 according to a user's input.

이후, 후술하는 면접영상저장부(1200)에는 질문세트에 포함된 질문을 순차적으로 혹은 무작위로 추출하여 이를 회원단말기에 전송하고, 회원단말기에서 사용자는 해당 질문을 파악한 후에, 이에 대한 응답영상을 회원단말기로 기록하여, 서비스서버(1000)로 전송한다. Thereafter, the interview image storage unit 1200, which will be described later, sequentially or randomly extracts the questions included in the question set and transmits them to the member terminal. It is recorded by the terminal and transmitted to the service server 1000 .

혹은, 면접영상저장부(1200)는 질문세트에 포함된 질문 중 사용자의 입력에 따라 결정된 특정 질문에 대해서만 회원단말기에 전송하고, 회원단말기에서 사용자는 해당 질문을 파악한 후에, 이에 대한 응답영상을 회원단말기로 기록하여, 서비스서버(1000)로 전송한다.Alternatively, the interview image storage unit 1200 transmits to the member terminal only a specific question determined according to the user's input among the questions included in the question set, and after the user identifies the question in the member terminal, the response image is sent to the member It is recorded by the terminal and transmitted to the service server 1000 .

면접영상저장부(1200)는 기설정된 질문세트 중 1 이상의 질문정보를 지원자단말기에 송신하고, 상기 지원자단말기로부터 상기 질문정보에 응답을 수행한 면접영상을 수신하여 저장한다.The interview image storage unit 1200 transmits one or more question information of a preset question set to an applicant terminal, and receives and stores an interview image in which a response to the question information is performed from the applicant terminal.

상기 질문정보는 질문텍스트, 질문음성, 및 질문영상 중 1 이상의 형태로 구현될 수 있다.The question information may be implemented in the form of one or more of a question text, a question voice, and a question image.

구체적으로, 상기 면접영상저장부(1200)는 지원자단말기에서는 질문정보에 따른 질문이 단말기에서 표시 혹은 재생이 되는 인터페이스를 제공하고, 지원자단말기에 구비된 카메라 및 마이크에 의하여 촬영된 면접영상을 지원자단말기로부터 수신하여, 해당 면접영상에 대한 식별자와 함께 DB(1600)에 저장한다.Specifically, the interview image storage unit 1200 provides an interface in which a question according to the question information is displayed or reproduced in the terminal in the applicant terminal, and the interview image captured by the camera and microphone provided in the applicant terminal is stored in the applicant terminal. Received from, and stored in the DB (1600) together with the identifier for the interview image.

본 발명의 바람직한 실시예에서는, 상기 지원자단말기에서 자신이 지원하고자 하는 기관의 질문세트를 선택하고, 이에 대한 면접영상 촬영 입력을 함에 따라, 상기 면접영상저장부(1200)이 실행되는 경우에는, 상기 기관에서 상기 서비스서버에 제공 혹은 업로드한 해당 기관에 대한 설명자료, 구체적으로 설명텍스트, 설명음성, 및 설명영상 중 1 이상이 디스플레이된 후에, 지원자단말기에 질문이 표시 혹은 재생이 된다. 바람직하게는, 설명영상의 경우에는 지원한 기관의 근무환경을 보여주는 영상 혹은 고용자, 상사가 촬영한 영상에 해당할 수 있다. 이와 같은 방식으로, 보다 지원자는 해당 기관의 세부 사항을 파악할 수 있으며 해당 면접의 문맥 및 맥락을 파악한 후에, 질문에 대한 영상을 촬영할 수 있다.In a preferred embodiment of the present invention, when the interview image storage unit 1200 is executed, the interview image storage unit 1200 is executed as the applicant terminal selects a question set of an institution to which he/she wants to apply, and inputs an interview image for it. After at least one of the explanatory data, specifically explanatory text, explanatory voice, and explanatory video, about the institution provided or uploaded by the institution to the service server is displayed, the question is displayed or reproduced on the applicant terminal. Preferably, in the case of the explanatory image, it may correspond to an image showing the working environment of the applied institution, or an image taken by the employer or the boss. In this way, Bobo applicants can grasp the details of the institution and, after grasping the context and context of the interview, film the question.

상기 면접영상평가부(1300)는 기계학습을 이용한 평가모델을 통하여 상기 면접영상에 대한 자동평가정보를 생성한다.The interview image evaluation unit 1300 generates automatic evaluation information for the interview image through an evaluation model using machine learning.

즉, 서비스서버(1000)는 상기 면접영상을 수신한 후에, 평가모델을 이용하여 자동적으로 평가를 수행하고, 이를 통하여 자동평가정보를 생성한다. 자동평가정보는 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈마주침, 친절함, 습관어 사용여부, 및 유쾌함 중 1 이상을 포함하는 면접과 관련된 종합평가 요소; 및 개방성, 성실성, 외향성, 친화성, 및 신경성 중 1 이상을 포함하는 성격특징; 시선처리, 머리움직임, 음성높낮이, 음성높낮이, 음성크기, 및 감정 중 1 이상의 특징에 대한 정량적 정보 중 1 이상을 포함할 수 있다.That is, after receiving the interview image, the service server 1000 automatically evaluates using the evaluation model, and generates automatic evaluation information through this. The automatic evaluation information includes overall evaluation factors related to the interview, including one or more of favorable sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, kindness, use of habitual words, and pleasantness; and personality traits comprising one or more of openness, conscientiousness, extraversion, affinity, and neuroticism; It may include one or more of quantitative information about one or more features of gaze processing, head movement, voice pitch, voice pitch, voice volume, and emotion.

바람직하게는, 상기 평가모델은 1 이상의 딥러닝 기반의 학습된 인공신경망 모듈을 포함한다. 상기 평가모델은 학습된 인공신경망 모듈뿐만 아니라 기설정된 규칙에 기반한 평가모듈을 복합적으로 이용하는 형태에 해당할 수 있다.Preferably, the evaluation model includes one or more deep learning-based trained artificial neural network modules. The evaluation model may correspond to a form of using not only the learned artificial neural network module but also the evaluation module based on a preset rule in a complex manner.

상기 평가결과제공부(1400)는 상기 자동평가정보에 기초하여 지원자단말기에 자동평가결과를 제공한다. 구체적으로, 상기 평가결과제공부(1400)는 자동평가정보 혹은 상기 자동평가정보가 가공된 형태의 데이터(자동평가정보가 반영된 인터페이스 구현과 관련된 데이터)를 상기 회원단말기에 전송하고, 회원단말기의 웹브라우져 및 전용애플리케이션에서는 사용자의 선택에 따라 다양한 평가정보가 디스플레이된다.The evaluation result providing unit 1400 provides an automatic evaluation result to the applicant terminal based on the automatic evaluation information. Specifically, the evaluation result providing unit 1400 transmits the automatic evaluation information or the processed data of the automatic evaluation information (data related to the implementation of the interface in which the automatic evaluation information is reflected) to the member terminal, and the member terminal's web In the browser and the dedicated application, various evaluation information is displayed according to the user's selection.

바람직하게는, 상기 평가결과제공부(1400)는 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈마주침, 친절함, 습관어 사용여부, 및 유쾌함 중 1 이상을 포함하는 면접과 관련된 종합평가 요소를 제공하는 종합평가제공부(1410); 개방성, 성실성, 외향성, 친화성, 및 신경성 중 1 이상을 포함하는 성격특징 요소를 제공하는 성격특성제공부(1420); 및 시선처리, 머리움직임, 음성높낮이, 음성높낮이, 음성크기, 및 감정 중 1 이상의 요소를 면접영상의 부분단위 별로 제공하는 프레임별분석제공부(1430)를 포함한다.Preferably, the evaluation result providing unit 1400 is a comprehensive evaluation related to the interview including one or more of favorable sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, kindness, use of habitual words, and pleasantness. Comprehensive evaluation providing unit 1410 that provides the elements; a personality trait providing unit 1420 that provides personality trait elements including at least one of openness, conscientiousness, extraversion, affinity, and neuroticism; and a frame-by-frame analysis providing unit 1430 that provides one or more elements among gaze processing, head movement, voice pitch, voice pitch, voice volume, and emotion for each partial unit of the interview image.

상기 프레임별분석제공부(1430)는 면접영상의 부분단위, 예를 들어 프레임, 프레임구간, 시간, 시간구간별에 따른 특성 평가 정보를 제공할 수 있다. '프레임별분석제공부'의 용어에서 프레임은 단일 프레임을 지칭하는 것이 아니라 면접영상의 부분단위임을 지칭하는 것으로 이해되어야 할 것이다.The frame-by-frame analysis providing unit 1430 may provide characteristic evaluation information according to a partial unit of the interview image, for example, for each frame, frame section, time, and time section. It should be understood that in the term 'frame-by-frame analysis provider', a frame does not refer to a single frame, but to a partial unit of an interview image.

온라인면접부(1500)은 질문세트업데이트부(1510), 지원영상설정부(1520), 및 지원영상제공부(1530)을 포함한다.The online interview unit 1500 includes a question set update unit 1510 , a support image setting unit 1520 , and a support image providing unit 1530 .

질문세트업데이트부(1510)는 기관단말기에서 입력된 정보를 포함하는 정보에 기초하여 질문세트를 업데이트한다. The question set update unit 1510 updates the question set based on information including information input from the institution terminal.

본 발명의 일 실시예에서는, 해당 기관에서 기관단말기로 서비스서버에 로그인을 하여, 자신의 기관에 지원하고자 하는 지원자에 대한 온라인면접에서 표시될 질문들을 입력할 수 있다.In one embodiment of the present invention, by logging into the service server at the corresponding institution using the institution terminal, questions to be displayed in the online interview for the applicant who wants to apply to the institution can be input.

이후, 지원자는 상기 질문세트설정부의 동작에 의하여 해당 기관의 질문세트를 자신이 면접영상을 촬영할 질문세트로 설정하고, 면접영상을 촬영할 수 있다.Thereafter, the applicant may set the question set of the institution as the question set for which he/she will shoot the interview image by the operation of the question set setting unit, and may shoot the interview image.

혹은, 본 발명의 다른 실시예에서는 상기 질문세트업데이트부(1510)는 상기 채용서비스서버로부터 해당 지원자의 지원정보(어느 기관에 지원한 지 여부)를 자동적으로 수신하거나 혹은 상기 서비스서버에서 해당 지원자가 지원하고자 하는 기관에 대한 입력을 수신함으로써, 해당 지원자가 지원하고자 하는 해당 기관에서 설정한 질문세트를 해당 지원자의 계정에 할당 혹은 설정한다. Alternatively, in another embodiment of the present invention, the question set update unit 1510 automatically receives the applicant's application information (which institution he or she has applied to) from the recruitment service server, or receives the applicant's request from the service server. By receiving the input of the institution to which the applicant wishes to apply, the set of questions set by the institution to which the applicant wishes to apply is assigned or set to the applicant's account.

이후, 해당 지원자는 질문세트설정부(1100)의 동작에 의하여 지원하고자 하는 기관의 질문을 확인하고, 이로부터 면접영상을 촬영할 질문들을 선택할 수도 있다.Thereafter, the applicant may check the questions of the institution to be supported by the operation of the question set setting unit 1100 , and select questions for which the interview image is to be taken.

위와 같이, 상기 질문세트업데이트부(1510)는 기관단말기로부터 수신한 정보에 기초하여 해당 기관의 질문세트를 설정하거나, 및/또는 이와 같이 설정된 해당 기관의 질문세트를 지원자의 정보 혹은 입력에 따라 할당하는 기능을 수행한다.As described above, the question set update unit 1510 sets the question set of the corresponding institution based on the information received from the institution terminal, and/or allocates the question set of the corresponding institution set in this way according to the information or input of the applicant. perform the function

지원영상설정부(1520)은 지원자단말기에서의 입력에 기초하여 해당 사용자가 지원하고자 하는 기관에 대한 면접영상에 대한 정보를 설정 혹은 업로드할 수 있다. 이에 대한 자세한 동작에 대해서는 후술하기로 한다.The application image setting unit 1520 may set or upload information on an interview image for an institution to which the user wishes to apply based on an input from the applicant terminal. A detailed operation for this will be described later.

지원영상제공부(1530)은 해당 기관에 대해 지원을 한 지원자의 해당 기관에서 설정한 질문별 면접영상을 상기 기관단말기에 제공한다. 이에 대한 자세한 동작에 대해서는 후술하기로 한다.The support image providing unit 1530 provides an interview image for each question set by the institution of the applicant who applied for the institution to the institution terminal. A detailed operation for this will be described later.

도 2에 도시된 서비스서버(1000)는 도시된 구성요소 외의 다른 요소들을 더 포함할 수 있으나, 편의상 본 발명의 실시예들에 따른 온라인 면접을 제공하는 방법과 관련된 구성요소들만을 표시하였다. The service server 1000 illustrated in FIG. 2 may further include elements other than the illustrated elements, but only elements related to the method of providing an online interview according to embodiments of the present invention are displayed for convenience.

도 3는 본 발명의 일 실시예에 따른 온라인 면접을 제공하는 방법의 전체적인 단계를 개략적으로 도시한다.3 schematically illustrates the overall steps of a method for providing an online interview according to an embodiment of the present invention.

단계 S10에서는, 기관단말기에서 서비스서버에 질문정보를 입력한다. 여기서 질문정보는 해당 기관에서 온라인 면접시 대답을 원하는 질문에 대한 정보이고, 이는 텍스트, 음성, 및 동영상 중 1 이상의 형태에 해당할 수 있다.In step S10, query information is input to the service server in the institution terminal. Here, the question information is information about a question that the institution wants to answer during an online interview, and may correspond to one or more types of text, voice, and video.

단계 S11에서는, 상기 서비스서버는 상기 기관단말기의 입력에 따라서 해당 기관에 대한 질문세트를 설정한다. 이 절차를 통하여, 서비스서버는 상기 서비스서버를 이용하여 온라인면접을 수행하고자 하는 기관들 각각에 대한 질문세트를 저장할 수 있다.In step S11, the service server sets a set of questions for the institution according to the input of the institution terminal. Through this procedure, the service server can store a set of questions for each organization that intends to conduct an online interview using the service server.

단계 S12에서는, 상기 서비스서버는 상기 지원자단말기로부터 질문세트설정정보입력을 수신한다. In step S12, the service server receives the question set setting information input from the applicant terminal.

본 발명의 일 실시예에서는, 지원자의 서비스서버에서의 기관에 대한 지원 입력 혹은 채용서비스서버로부터 수신한 지원자의 지원정보에 기초하여 지원자가 지원을 한 기관의 질문세트를 포함한 다양한 질문세트를 상기 지원자단말기에 제공하고, 이에 대해 지원자단말기에서 선택입력을 수신할 수 있다. 이와 같은 선택입력이 단계 S12에서의 질문세트설정정보에 해당할 수 있다.In one embodiment of the present invention, various question sets including the question set of the institution to which the applicant applied are based on the applicant's support input to the institution in the service server or the applicant's application information received from the recruitment service server. provided to the terminal, and for this, a selection input may be received from the applicant terminal. Such a selection input may correspond to the question set setting information in step S12.

혹은, 단계 S12에서는 1 이상의 기저장된 질문을 지원자에게 제시하고, 지원자의 입력에 따라 선택된 1 이상의 질문을 질문세트로 설정할 수도 있다.Alternatively, in step S12, one or more pre-stored questions may be presented to the applicant, and one or more questions selected according to the applicant's input may be set as a question set.

단계 S13에서는 상기 지원자단말기의 질문세트설정정보에 따라 면접영상을 촬영할 질문세트를 설정한다.In step S13, a set of questions for which an interview image is to be taken is set according to the question set setting information of the applicant terminal.

이와 같이 설정된 질문세트는 1 이상의 질문을 포함할 수 있다.The set question set in this way may include one or more questions.

단계 S14에서는, 상기 서비스서버는 지원자단말기에 질문정보를 제공하고, 단계 S15에서는, 상기 지원자단말기는 해당 질문정보에 대한 면접영상을 촬영하여 이를 서비스서버에 전송한다.In step S14, the service server provides question information to the applicant terminal, and in step S15, the applicant terminal captures an interview image for the question information and transmits it to the service server.

단계 S16에서는 상기 서비스서버는 수신한 면접영상을 저장하고, 단계 S17에서는 수신한 면접영상에 대해 자동화된 평가모델을 이용하여 평가를 수행한다.In step S16, the service server stores the received interview image, and in step S17, the received interview image is evaluated using an automated evaluation model.

단계 S18에서는 사용자의 입력에 따라서, 상기 서비스서버는 평가결과를 제공한다. 이후, 단계 S19에서는 지원자는 자신의 단말기에서 자신이 촬영한 면접영상들에 대한 평가 결과들을 확인할 수 있다. 또한, 평가 결과들을 확인하고, 다시 S14 내지 S19 과정을 거쳐서 새로운 영상의 촬영 및 평가결과 확인을 함으로써 보다 자신의 면접영상을 개선할 수 있다.In step S18, according to the user's input, the service server provides an evaluation result. Thereafter, in step S19, the applicant may check the evaluation results of the interview images taken by the applicant in his/her terminal. In addition, by checking the evaluation results, and again through the processes S14 to S19, shooting a new image and confirming the evaluation result, it is possible to improve one's own interview image.

단계 S20에서는, 지원자단말기에서 자신이 지원하고자 하는 기업에 대하여 자신의 면접영상을 제출할 수 있다. 단계 S20에서의 지원정보는 일 실시예에서는, 자신이 지원하고자 하는 기업 및 자신이 제출하고자 하는 면접영상에 대한 정보를 포함한다. 더욱 바람직하게는 상기 지원정보는 자신이 지원하고자 하는 기업, 기업에서 요구하는 질문 각각에 대한 자신이 제출하고자 하는 면접영상에 대한 정보를 포함할 수 있다.In step S20, the applicant terminal may submit his/her interview video to the company to which he/she wants to apply. The application information in step S20, according to an embodiment, includes information about the company to which the applicant wants to apply and the interview image that the applicant wants to submit. More preferably, the application information may include information on an interview image that the user intends to submit to the company to which he/she wants to apply and each of the questions requested by the company.

단계 S21에서는 지원자단말기로부터 수신한 지원정보에 따라서 지원영상설정과정을 수행한다. 본 발명의 일 실시예에서는 지원자가 상기 서비스서버에 저장된 자신의 면접영상을 해당 기관 혹은 해당 기관의 질문에 대하여 설정, 제출, 혹은 공유를 하는 설정입력을 함으로써(S20), 서비스서버에서는 해당 지원자의 면접영상을 지원한 기관에서 확인할 수 있도록 지원한 영상에 대한 공유 등의 설정을 수행한다(S21).In step S21, a support image setting process is performed according to the support information received from the applicant terminal. In one embodiment of the present invention, the applicant sets, submits, or shares the interview image stored in the service server with respect to the relevant institution or the question of the institution (S20), so that the service server The settings such as sharing of the supported video are performed so that the interview video can be confirmed by the organization that supported the interview video (S21).

혹은, 본 발명의 다른 실시예에서는, 지원자가 자신의 단말기에 저장된 자신의 면접영상을 해당 기관 혹은 해당 기관의 질문에 대하여 실제로 업로드 함으로써(S20), 서비스서버에서는 해당 지원자의 면접영상을 지원한 기관에서 확인할 수 있도록 지원한 영상에 대한 공유 등의 설정을 수행할 수도 있다(S21).Alternatively, in another embodiment of the present invention, when the applicant actually uploads his/her interview image stored in his/her terminal in response to a question of the institution or the institution (S20), the service server supports the interview image of the applicant. It is also possible to perform settings such as sharing of the supported video so that it can be checked in ( S21 ).

상기 단계 S21이 완료된 후, 단계 S22에서는 상기 기관단말기의 요청에 따라서 지원자가 제출한 면접영상인 지원영상을 제공하고, 기관단말기에서는 해당 지원영상을 확인할 수 있다.After the step S21 is completed, in step S22, an interview image submitted by the applicant is provided according to the request of the institution terminal, and the support image can be checked in the institution terminal.

위와 같은 본 발명의 실시예에 따르면, 구직자는 자신의 면접영상을 지원기관에 제출하기 전에 면접영상에 대한 객관적인 평가를 받고, 평가에 기초하여 자신의 면접영상을 개선하는 효과를 발휘할 수 있다. 또한, 복수의 면접영상을 촬영한 후에, 이에 대한 자동평가정보를 확인하고, 이 중 평가정보가 양호한 영상을 선별하여 지원기관에 제출할 수 있기 때문에, 자신의 최상의 상태에서의 면접영상을 지원기관에 제출할 수 있는 효과를 발휘할 수 있다.According to the embodiment of the present invention as described above, the job seeker receives an objective evaluation of the interview image before submitting his/her interview image to the application organization, and can exhibit the effect of improving his interview image based on the evaluation. In addition, after taking a plurality of interview images, automatic evaluation information is checked, and among them, images with good evaluation information can be selected and submitted to the supporting organization. It can have an effect that can be submitted.

또한, 위와 같은 본 발명의 본 발명의 일 실시예에 따르면, 여러 기업을 지원할 때, 각각의 기업에 대한 질문에 대한 각각의 영상을 촬영하는 것이 아닌 유사한 취지의 질문에 대한 기존의 면접영상을 제출함으로써, 기관 지원의 편의성을 도모할 수 있다.In addition, according to an embodiment of the present invention as described above, when supporting multiple companies, an existing interview image for a question with a similar effect is submitted rather than shooting each image for a question about each company By doing so, the convenience of institutional support can be promoted.

도 4는 본 발명의 몇 실시예에 따른 질문세트업데이트부(1510)의 동작을 개략적으로 도시한다.4 schematically shows the operation of the question set update unit 1510 according to some embodiments of the present invention.

도 4의 (A)에서는 기관단말기가 서비스서버의 질문세트업데이트부(1510)에 질문정보를 업데이트하는 과정을 도시한다.4A illustrates a process in which the institutional terminal updates the question information in the question set update unit 1510 of the service server.

여기서 질문정보는 해당 기관이 면접자에게 요구할 수 있는 질문정보로서, 예를 들어, “자기소개를 해보세요”, “자신의 장점은 무엇인가요?”, “과거 유사 직무에 대한 경험을 이야기해주세요” 정도의 질문이 될 수 있고, 이는 텍스트, 음성, 동영상의 형태로도 입력할 수 있다.Here, the question information is the question information that the institution can request from the interviewer, for example, “Tell me about yourself”, “What are your strengths?”, “Tell me about your experiences in similar jobs in the past” It can be a question, and it can be entered in the form of text, voice, or video.

한편, 전술한 바와 같이, 상기 질문정보는 기관의 설명자료, 구체적으로 설명텍스트, 설명음성, 및 설명영상 중 1 이상을 포함할 수 있다. 이와 같은 설명자료는 지원한 기관의 근무환경, 예를 들어 아르바이트인 경우에는 해당 매장의 환경을 보여주는 영상 혹은 고용자, 상사가 촬영한 영상 등에 해당할 수 있다. Meanwhile, as described above, the question information may include at least one of explanatory data of the institution, specifically explanatory text, explanatory voice, and explanatory image. Such explanatory data may correspond to the working environment of the applied institution, for example, in the case of a part-time job, a video showing the environment of the store or a video taken by the employer or boss.

이 경우, 상기 면접지원자가 해당 질문세트에 대한 면접영상을 촬영하는 경우에, 질문이 제공되기 전에, 상기 설명자료가 상기 지원자단말기에서 재생된다.In this case, when the interview applicant takes an interview video for the corresponding question set, the explanatory data is reproduced in the applicant terminal before the question is provided.

이와 같은 방식으로, 보다 지원자는 해당 기관의 세부 사항을 파악할 수 있으며 해당 면접의 문맥 및 맥락을 파악한 후에, 질문에 대한 영상을 촬영할 수 있다.In this way, Bobo applicants can grasp the details of the institution and, after grasping the context and context of the interview, film the question.

도 4의 (A)의 단계를 통하여 각각의 기관별 질문세트가 상기 서비스서버에 저장되게 된다.Through the step (A) of FIG. 4 , a question set for each institution is stored in the service server.

이후, 도 4의 (B)에 도시된 바와 같이, 본 발명의 일 실시예에서는 채용서비스서버로부터 상기 질문세트업데이트부(1510)가 지원정보(해당 지원자가 어느 기관에 지원했는지에 대한 정보)를 직접적 혹은 간접적으로 수신하고, 지원한 기관에 대한 정보 및 도 4의 (A)에서 입력된 기관별 질문세트에 기초하여 지원자별 질문세트를 설정하고, 이후 지원자는 질문세트설정부(1100)에 의한 화면에서 자신이 지원한 기관에 대한 질문세트를 바로 확인할 수 있다. 여기서 사용자는 해당 기관의 질문 전체에 대해 면접영상을 촬영하거나 혹은 일부 질문에 대해서 면접영상을 촬영할 수 있다.Thereafter, as shown in FIG. 4B , in an embodiment of the present invention, the question set update unit 1510 receives application information (information on which institution the applicant has applied to) from the recruitment service server. Directly or indirectly, a question set for each applicant is set based on the information on the institution that has been received and applied and the question set for each institution input in FIG. You can immediately check the set of questions about the institution to which you have applied. Here, the user may shoot an interview video for all questions of the relevant institution or an interview video for some questions.

혹은, 이후 도 4의 (C)에 도시된 바와 같이, 본 발명의 일 실시예에서는 지원자가 상기 서비스서버에 자신이 지원하고자 하는 기관에 대한 정보인 지원기관정보를 입력하고, 지원한 기관에 대한 정보 및 도 4의 (A)에서 입력된 기관별 질문세트에 기초하여 지원자별 질문세트를 설정하고, 이후 지원자는 질문세트설정부(1100)에 의한 화면에서 자신이 지원한 기관에 대한 질문세트를 바로 확인할 수 있다. 여기서 사용자는 해당 기관의 질문 전체에 대해 면접영상을 촬영하거나 혹은 일부 질문에 대해서 면접영상을 촬영할 수 있다.Alternatively, as shown in FIG. 4(C), in an embodiment of the present invention, the applicant inputs support organization information, which is information about the institution to which he or she wishes to apply, to the service server, A question set for each applicant is set based on the information and the question set for each institution input in FIG. can be checked Here, the user may shoot an interview video for all questions of the relevant institution or an interview video for some questions.

즉, 상기 질문세트업데이트부는, That is, the question set update unit,

도 4의 (A)에 도시된 바와 같이, 기관으로 로그인한 기관단말기로부터 해당 기관에 대한 질문정보를 수신하는 단계;를 수행하고,As shown in (A) of Figure 4, receiving the question information about the institution from the institution terminal logged in to the institution; performing;

도 4의 (B) 혹은 (C)에 도시된 바와 같이, 외부의 채용지원서버로부터 해당 지원자 및 해당 지원자가 지원한 기관에 대한 지원정보를 직접적 혹은 간접적으로 로드하는 단계; 및 상기 질문정보 및 상기 지원정보에 기초하여 해당 지원자에 대한 질문세트를 업데이트하는 단계를 수행한다.As shown in (B) or (C) of FIG. 4 , directly or indirectly loading application information on the applicant and the institution to which the applicant has applied from an external recruitment support server; and updating a question set for a corresponding applicant based on the question information and the application information.

도 5은 본 발명의 일 실시예에 따른 질문세트설정부(1100)의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.5 schematically shows a display screen in the applicant terminal according to the execution of the question set setting unit 1100 according to an embodiment of the present invention.

바람직하게는, 질문세트는 회원의 계정 마다 생성, 및 관리될 수 있다. 도 5의 (A)는 질문세트설정부(1100)에 의한 초기 회원단말기의 표시화면을 도시한다.Preferably, the questionnaire set may be created and managed for each member's account. FIG. 5A shows a display screen of the initial member terminal by the question set setting unit 1100 .

구체적으로, 상기 질문세트설정부(1100)은 외부의 채용지원서버로부터 직접적 혹은 간접적으로 수신한 해당 지원자 및 해당 지원자가 지원한 기관에 대한 지원정보 혹은 서비스서버에서의 지원자의 기관에 대한 지원정보에 기초하여 결정된 해당 지원자의 지원기관별 질문을 포함하는 질문세트에 대한 정보를 해당 지원자의 지원자단말기에 송신하고, 상기 지원자단말기의 입력에 따라 면접영상을 촬영할 질문세트를 설정할 수 있다.Specifically, the question set setting unit 1100 provides information about the applicant directly or indirectly received from an external recruitment support server, support information about the applicant and the institution to which the applicant has applied, or the support information on the applicant's institution from the service server. Information on a question set including a question for each application organization of the applicant determined based on the information may be transmitted to the applicant terminal of the applicant, and the question set for photographing the interview image may be set according to the input of the applicant terminal.

도 5의 (A)에서는 해당 계정의 사용자의 이미 생성되거나 혹은 초기에 주어지는 질문세트의 정보를 디스플레이 한다. 도 5의 (A)의 1번째 박스는 사용자가 질문세트를 생성하기 위한 선택박스에 해당하고, 2번째 박스는 사용자에게 무작위로 질문을 추출하여 이에 대한 질문세트를 생성하기 위한 선택박스에 해당하고, 3번째 박스 및 4번째 박스는 공통적으로 사용자에게 초기에 주어지는 질문세트에 해당할 수 있다.In FIG. 5A , information on a question set already created or initially given to the user of the corresponding account is displayed. The first box in FIG. 5A corresponds to a selection box for the user to create a question set, and the second box corresponds to a selection box for generating a question set by randomly extracting a question from the user, , the third box and the fourth box may correspond to a set of questions initially given to the user in common.

한편, 도 5의 (A)의 5번째 및 6번째 질문세트는 채용서비스서버로부터 수신하거나 혹은 지원자단말기로부터 수신한 정보에 기초하여 생성된 지원기관에 대한 질문세트에 해당한다.On the other hand, the fifth and sixth question sets in FIG. 5A correspond to the question sets for the support organization generated based on information received from the recruitment service server or received from the applicant terminal.

사용자는 채용서비스서버 혹은 서비스서버에 자신이 지원하고자 하는 기관의 정보를 입력하는 경우에, 상기 질문세트업데이트부(1510)는 해당정보에 기초하여 지원자 별로 질문세트를 생성하고, 이를 질문세트설정부(1100)의 동작에 의하여 디스플레이한다.When a user inputs information of an institution to which he or she wishes to apply to the recruitment service server or the service server, the question set update unit 1510 generates a question set for each applicant based on the information, and uses the same as the question set setting unit. Displayed by the operation of (1100).

사용자는 각각의 질문세트 박스를 클릭하여 자신이 면접영상을 촬영하고자 하는 질문을 선택하고, 이에 따른 면접영상저장부(1200)의 동작을 수행할 수 있다.The user may click each question set box to select a question for which he/she wants to shoot an interview image, and may perform the operation of the interview image storage unit 1200 accordingly.

상기 질문세트의 정보는 해당 질문세트의 질문, 질문세트의 식별정보, 및 질문세트의 생성일자를 포함할 수 있다. 또한, 첫 번째 박스에서와 같이 사용자가 질문세트를 생성할 수 있는 인터페이스 요소가 디스플레이될 수 있고, 두 번째 박스에서와 같이 무작위로 질문세트를 생성하고, 바로 면접영상저장부(1200)가 실행되는 인터페이스 요소가 디스플레이될 수 있다.The information of the question set may include a question of the corresponding question set, identification information of the question set, and a creation date of the question set. In addition, as in the first box, an interface element through which the user can create a question set may be displayed, and as in the second box, a question set is randomly generated, and the interview image storage unit 1200 is immediately executed. An interface element may be displayed.

도 5의 (B)는 상기 질문세트설정부(1100)에 의하여 제공되는 회원단말기의 (A)의 화면에서 사용자가 첫 번째 박스를 입력했을 때의 화면을 도시한다.FIG. 5B shows a screen when the user inputs the first box on the screen (A) of the member terminal provided by the question set setting unit 1100 .

도 5의 (B)의 상단레이어에서와 같이, 사용자는 대분류(기관 종류), 중분류(기관의 명칭), 및 소분류(기관에서의 직군)을 선택할 수 있다.As in the upper layer of FIG. 5B , the user can select a major category (organization type), a medium category (organization name), and a small category (job group in the institution).

이후, 도 5의 (B)의 중단레이어에서는 질문은행 및 내가 만든 질문을 선택할 수 있고, 질문은행을 선택하는 경우에, 사용자가 선택한 대분류, 중분류, 및 소분류에 따른 서비스서버(1000)에 기저장된 질문들이 디스플레이된다.Thereafter, in the middle layer of FIG. 5B, the question bank and the question I made can be selected, and when the question bank is selected, the service server 1000 according to the large category, the middle category, and the small category selected by the user is stored in advance. Questions are displayed.

여기서 사용자는 질문들에 대해 입력(예를 들어 클릭)을 하면서, 현재 설정하고자 하는 질문세트에 질문을 추가할 수 있고, 이와 같이 추가된 질문은 좌측레이어에 표시됨으로써, 사용자에게 자신이 연습하고자 하는 질문들을 포함하는 질문세트를 편리하게 설정할 수 있다.Here, the user can add a question to the question set to be set currently while inputting (for example, clicking) the questions, and the added question is displayed on the left layer, thereby giving the user the information he or she wants to practice. You can conveniently set up a question set containing questions.

도 6는 본 발명의 일 실시예에 따른 면접영상저장부(1200)의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.6 schematically shows a display screen in the applicant's terminal according to the execution of the interview image storage unit 1200 according to an embodiment of the present invention.

구체적으로, 사용자의 입력에 따라 상기 면접영상저장부(1200)는 사용자가 선택한 질문세트 혹은 질문세트에 포함된 질문을 회원단말기에 전송하고, 회원단말기에서는 도 6의 (A), (B)의 과정이 수행된 이후에, 촬영된 면접영상을 서비스서버(1000)에 전송하고, 이후 서비스서버(1000)는 수신한 면접영상을 저장한다.Specifically, according to the user's input, the interview image storage unit 1200 transmits to the member terminal the question set selected by the user or the question included in the question set, and in the member terminal, After the process is performed, the captured interview image is transmitted to the service server 1000 , and then the service server 1000 stores the received interview image.

도 6의 (A)에서는 현재 촬영 영상에서 질문이 표시되면서, 카운트다운을 하는 디스플레이요소가 표시된다. 구체적으로 도 6의 (A)의 '7'은 7초 후에 영상촬영이 진행됨을 사용자에게 알리는 표시이다.In FIG. 6A , a display element for counting down is displayed while a question is displayed in the currently captured image. Specifically, '7' in FIG. 6(A) is a display notifying the user that image shooting is in progress after 7 seconds.

도 6의 (B)에서는 도 6의 (A) 화면이 끝나고 영상촬영이 진행되는 화면을 도시한다. 도 6의 (B)에서는 사용자는 이전 화면에서의 질문에 대한 대답을 수행하고, 회원단말기에서는 이에 대한 영상을 촬영하여 서비스서버(1000)로 전송한다.In (B) of FIG. 6, the screen of FIG. 6 (A) is finished and image capturing is in progress. In (B) of FIG. 6 , the user answers the question on the previous screen, and the member terminal takes an image and transmits it to the service server 1000 .

도 7는 본 발명의 일 실시예에 따른 면접영상평가부(1300)의 동작을 개략적으로 도시한다.7 schematically shows the operation of the interview image evaluation unit 1300 according to an embodiment of the present invention.

면접영상평가부(1300)는 학습된 평가모델을 이용하여 해당 면접영상에 대한 분석을 수행한다. The interview image evaluation unit 1300 analyzes the interview image using the learned evaluation model.

면접영상평가부(1300)는 면접영상에 대한 평가를 수행하는 다양한 평가모듈을 포함할 수 있다. 상기 평가모듈은 딥러닝 기반의 학습된 평가모델에 기초하여 평가를 수행할 수 있는 평가모듈에 해당하거나 혹은 학습이 아닌 기설정된 루틴 혹은 알고리즘에 따라 특징정보(예를 들어 시선의 위치)를 도출하고, 도출된 특징정보에 대한 평가를 수행하는 평가모듈에 해당될 수 있다.The interview image evaluation unit 1300 may include various evaluation modules for evaluating the interview image. The evaluation module corresponds to an evaluation module that can perform evaluation based on a deep learning-based learned evaluation model, or derives feature information (eg, gaze position) according to a preset routine or algorithm rather than learning, and , may correspond to an evaluation module that evaluates the derived characteristic information.

이와 같은 영상으로부터 태도, 감정 등을 학습된 딥러닝 기반 모델을 통하여 도출하는 기술에 대해서는 다수의 논문 및 특허들이 존재하고, 본 발명의 면접영상평가부(1300)는 평가방법에 있어서 특정한 방법에 제한되지는 않는다.A number of papers and patents exist for a technique for deriving attitudes and emotions from such images through a learned deep learning-based model, and the interview image evaluation unit 1300 of the present invention is limited to a specific method in the evaluation method. it doesn't happen

. .

본 발명의 일 실시예에서는 상기 면접영상평가부(1300)는 기본적으로 영상 정보 및 음성 정보를 포함하는 면접영상을 입력받고 딥러닝과 같은 기계학습기술을 통한 학습된 평가모델을 통하여 자동평가정보를 도출한다. In an embodiment of the present invention, the interview image evaluation unit 1300 basically receives an interview image including image information and audio information and automatically evaluates information through an evaluation model learned through machine learning technology such as deep learning. derive

또한, 이에 추가적으로, 상기 면접영상평가부(1300)는 기계학습이 아닌 기설정된 규칙에 따라 영상을 분석하고, 특정 평가값들을 도출할 수도 있다.Also, in addition to this, the interview image evaluation unit 1300 may analyze the image according to a preset rule rather than machine learning and derive specific evaluation values.

상기 면접영상평가부(1300)를 구성하는 평가모듈들은 동영상인 면접영상으로부터 음성 및 영상 정보를 추출하여 이를 각각 평가모듈에 입력하여 결과값을 도출하거나 혹은 음성 및 영상 정보를 종합하여 평가모듈에 입력하여 결과값을 도출할 수도 있다.The evaluation modules constituting the interview image evaluation unit 1300 extract audio and image information from the interview image, which is a moving picture, and input it to the evaluation module, respectively, to derive a result value or synthesize audio and image information and input it into the evaluation module It is also possible to derive the result.

바람직하게는, 본 발명의 일 실시예에 따른 평가모델을 이용한 면접영상평가부(1300)의 평가모듈은 입모양을 통한 말하는 상태 여부를 추론하고, 이를 고려하여 면접영상의 피평가자를 평가하는 모델을 포함할 수도 있다. 구체적으로 상기 편접영상평가부의 특정 평가모듈은 면접영상에 포함된 얼굴 중에 입모양 부분을 별도로 검출하고 RNN, LSTM, GRU와 같은 시간적 개념이 포함된 인공 신경망 기술을 이용하여 말을 하고 있는 상태인지 아닌지를 구분하는 모델을 포함하고, 이러한 정보를 기초하여 영상 정보와 음성 정보에 대해 어느 정도로 가중치로 평가에 영향을 줄 것인지를 자동으로 조절할 수 있도록 구성할 수도 있고, 이와 같은 가중치에 대해서도 학습하도록 모델을 구성할 수 있다.Preferably, the evaluation module of the interview image evaluation unit 1300 using the evaluation model according to an embodiment of the present invention infers whether the speaking state through the shape of the mouth, and takes this into account, a model for evaluating the subject of the interview image may include Specifically, the specific evaluation module of the biased image evaluation unit separately detects the mouth-shaped part of the face included in the interview image and uses artificial neural network technology that includes temporal concepts such as RNN, LSTM, and GRU to determine whether or not a person is speaking. It can be configured to include a model that distinguishes between configurable.

즉, 이와 같은 구성에서 면접영상에서 입모양을 통해 피평가자 혹은 화자가 말하는 상태가 아닌 경우 자동으로 영상 정보를 좀 더 중요하게 처리(일반 상태보다 상대적으로 높은 가중치를 부여)하고 음성 정보를 덜 중요하게 처리(일반 상태보다 상대적으로 낮은 가중치를 부여)할 수 있다.That is, in this configuration, if the subject or the speaker is not speaking through the mouth shape in the interview image in this configuration, the image information is automatically treated as more important (a relatively high weight is given than in the normal state) and the voice information is given less importance. It can be processed (weighed relatively lower than the normal state).

바람직하게는, 상기 면접영상평가부(1300)는 면접영상의 복수의 프레임에서의 사용자의 시선의 복수의 위치정보를 추출하는 모듈을 포함할 수 있고, 이를 통하여 상기 평가결과제공부(1400)에 의하여 회원단말기에서 시선의 위치현황 및 시선의 이동현황에 대한 정보를 제공할 수 있다.Preferably, the interview image evaluation unit 1300 may include a module for extracting a plurality of location information of the user's gaze from a plurality of frames of the interview image, and through this, the evaluation result providing unit 1400 In this way, it is possible to provide information on the position status of the gaze and the status of movement of the gaze from the member terminal.

바람직하게는, 상기 면접영상평가부(1300)는 면접영상의 복수의 프레임에서의 사용자의 머리 움직임을 추출하는 모듈을 포함할 수 있고, 이를 통하여 상기 평가결과제공부(1400)에 의하여 회원단말기에서 머리 움직임에 대한 정보를 제공할 수 있다.Preferably, the interview image evaluation unit 1300 may include a module for extracting the user's head movement from a plurality of frames of the interview image, and through this, the evaluation result providing unit 1400 performs the evaluation in the member terminal. It can provide information about head movements.

바람직하게는, 상기 면접영상평가부(1300)는 면접영상의 복수의 프레임에서의 음성높낮이, 음성크기 등의 음성의 소리적 특성값을 추출하는 모듈을 포함할 수 있고, 이를 통하여 평가결과제공부(1400)에 의하여 회원단말기에서 음성에 대한 정보를 제공할 수 있다.Preferably, the interview image evaluation unit 1300 may include a module for extracting sound characteristic values of voices such as voice pitch and voice volume in a plurality of frames of the interview image, and through this, the evaluation result providing unit In step 1400, the member terminal may provide information about the voice.

바람직하게는, 상기 면접영상평가부(1300)는 면접영상의 구간별로 감정요소들의 세기를 추출하는 모듈을 포함할 수 있고, 이를 통하여 평가결과제공부(1400)에 의하여 회원단말기에서 감정에 대한 정보를 제공할 수 있다. 이 경우, 상기 딥러닝으로 학습된 인공신경망에 의한 평가모듈이 이용될 수 있다.Preferably, the interview image evaluation unit 1300 may include a module for extracting the intensity of emotion elements for each section of the interview image, and through this, information on emotions in the member terminal by the evaluation result providing unit 1400 can provide In this case, the evaluation module by the artificial neural network learned by the deep learning may be used.

도 8은 본 발명의 일 실시예에 따른 평가결과제공부(1400)의 종합평가제공부(1410)의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.8 schematically shows a display screen in the applicant terminal according to the performance of the comprehensive evaluation providing unit 1410 of the evaluation result providing unit 1400 according to an embodiment of the present invention.

상기 평가결과제공부(1400)는 회원단말기에서의 입력에 따라서 다양한 평가화면을 회원단말기에 제공할 수 있다. 도 8은 회원단말기에서의 입력에 따라 종합평가를 제공하는 화면(도 8의 L3의 AI 종합을 사용자가 입력한 경우)을 도시한다.The evaluation result providing unit 1400 may provide various evaluation screens to the member terminal according to input from the member terminal. FIG. 8 shows a screen that provides a comprehensive evaluation according to an input from a member terminal (when the user inputs the AI synthesis of L3 of FIG. 8).

*상기 평가결과제공단계에 의하여 제공되는 지원자단말기에서의 디스플레이요소는, 상기 면접영상을 재생할 수 있는 영상레이어(L1); 상기 면접영상에 대한 식별정보, 날짜, 설명정보 등이 표시될 수 있는 영상정보레이어(L2); 2 이상의 평가결과 카테고리를 선택할 수 있는 카테고리레이어(L3); 상기 2 이상의 평가결과 카테고리 중 선택된 평가결과 카테고리에 대한 자동평가결과가 디스플레이되는 자동평가결과레이어(L4, L5, L6)를 포함한다.* The display element in the applicant terminal provided by the evaluation result providing step includes: an image layer (L1) capable of reproducing the interview image; an image information layer (L2) on which identification information, date, and explanatory information for the interview image can be displayed; a category layer (L3) capable of selecting two or more evaluation result categories; and automatic evaluation result layers L4, L5, and L6 in which automatic evaluation results for the selected evaluation result category are displayed among the two or more evaluation result categories.

상기 영상레이어(L1)에서는 사용자의 입력에 따라서 면접영상이 플레이될 수 있다. In the image layer L1, an interview image may be played according to a user's input.

상기 카테고리레이어(L3)에서는 사용자의 입력에 따라서 평가결과 카테고리가 변경되면서, 제공화면이 전환된다. 카테고리레이어(L3)의 'AI종합'은 종합평가제공부(1410)에 의한 평가결과를 제공하는 것을 지칭하고, '성격특성'은 성격특성제공부(1420)에 의한 평가결과를 제공하는 것을 지칭하고, '프레임별분석'은 프레임별분석제공부(1430)에 의한 평가결과를 제공하는 것을 지칭한다.In the category layer (L3), as the evaluation result category is changed according to the user's input, the provided screen is switched. 'AI synthesis' of the category layer (L3) refers to providing the evaluation result by the comprehensive evaluation providing unit 1410, and 'personality characteristics' refers to providing the evaluation result by the personality characteristics providing unit 1420, and , 'frame-by-frame analysis' refers to providing an evaluation result by the frame-by-frame analysis providing unit 1430 .

즉, 상기 평가결과제공단계에 의하여 제공되는 지원자단말기에서의 화면은, 상기 면접영상 전체에 대한 평가에 대한 요소를 디스플레이하는 제1화면(종합평가제공부(1410) 혹은 성격특성제공부(1420)에 의하여 디스플레이되는 도 8, 7의 화면) 및 상기 면접영상의 부분단위의 평가에 대한 요소를 디스플레이하는 제2화면(프레임별분석제공부(1430)에 의하여 디스플레이되는 도 10 내지 도 13의 화면)을 포함한다.That is, the screen in the applicant's terminal provided by the evaluation result providing step is displayed on the first screen (comprehensive evaluation providing unit 1410 or personality characteristic providing unit 1420) that displays elements for evaluation of the entire interview image. 8 and 7 displayed by the screen) and a second screen (the screens of FIGS. 10 to 13 displayed by the frame-by-frame analysis providing unit 1430) for displaying elements for evaluation of the partial units of the interview image include

도 8의 자동평가결과레이어(L4, L5, L6 가 이에 해당할 수 있음)에는 복수의 평가정보가 디스플레이되고, 상기 자동평가정보에 기초한 평가정보가 디스플레이된다. A plurality of evaluation information is displayed in the automatic evaluation result layer (L4, L5, and L6 may correspond to this) of FIG. 8, and evaluation information based on the automatic evaluation information is displayed.

상기 복수의 평가정보는 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈마주침, 친절함, 습관어 사용여부, 및 유쾌함 중 1 이상에 대한 정량화된 수치; 및 상기 정량화된 수치로부터 기초한 종합평가점수, 등급정보, 및 추천지수; 및 상기 평가정보들에 기초하여 자동적으로 작성된 텍스트평가정보를 포함한다.The plurality of evaluation information is a quantified value for one or more of favorable sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, kindness, use of habitual words, and pleasantness; and a comprehensive evaluation score, grade information, and recommendation index based on the quantified numerical value; and text evaluation information automatically created based on the evaluation information.

도 9은 본 발명의 일 실시예에 따른 평가결과제공부(1400)의 성격특성제공부(1420)의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.9 schematically shows a display screen in the applicant's terminal according to the performance of the personality characteristic providing unit 1420 of the evaluation result providing unit 1400 according to an embodiment of the present invention.

상기 평가결과제공부(1400)는 회원단말기에서의 입력에 따라서 다양한 평가화면을 회원단말기에 제공할 수 있다. 도 9은 회원단말기에서의 입력에 따라 성격특성평가를 제공하는 화면(도 9의 L3의 성격특성을 사용자가 입력한 경우)을 도시한다.The evaluation result providing unit 1400 may provide various evaluation screens to the member terminal according to input from the member terminal. 9 shows a screen for providing personality characteristic evaluation according to input from the member terminal (when the user inputs personality characteristic L3 of FIG. 9 ).

상기 평가결과제공단계에 의하여 제공되는 지원자단말기에서의 디스플레이요소는, 상기 면접영상을 재생할 수 있는 영상레이어(L1); 상기 면접영상에 대한 식별정보, 날짜, 설명정보 등이 표시될 수 있는 영상정보레이어(L2); 2 이상의 평가결과 카테고리를 선택할 수 있는 카테고리레이어(L3); 상기 2 이상의 평가결과 카테고리 중 선택된 평가결과 카테고리에 대한 자동평가결과가 디스플레이되는 자동평가결과레이어(L7)을 포함한다.The display element in the applicant terminal provided by the evaluation result providing step includes: an image layer (L1) capable of reproducing the interview image; an image information layer (L2) on which identification information, date, and explanatory information for the interview image can be displayed; a category layer (L3) capable of selecting two or more evaluation result categories; and an automatic evaluation result layer L7 in which an automatic evaluation result for a selected evaluation result category among the two or more evaluation result categories is displayed.

도 9의 자동평가결과레이어(L7)에는 복수의 평가정보가 디스플레이되고, 상기 자동평가정보에 기초한 평가정보가 디스플레이된다. A plurality of evaluation information is displayed in the automatic evaluation result layer L7 of FIG. 9, and evaluation information based on the automatic evaluation information is displayed.

상기 복수의 평가정보는 개방성, 성실성, 외향성, 친화성, 및 신경성 중 1 이상의 성격특성에 대한 정량 혹은 등급적 정보를 포함할 수 있다.The plurality of evaluation information may include quantitative or grading information on one or more personality characteristics among openness, conscientiousness, extraversion, affinity, and neuroticism.

도 10은 본 발명의 일 실시예에 따른 평가결과제공부(1400)의 프레임별분석제공부(1430)의 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.10 schematically illustrates a display screen in the applicant terminal according to the execution of the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 according to an embodiment of the present invention.

사용자의 입력에 따른 상기 평가결과제공부(1400)의 프레임별분석제공부(1430)에 의하여 표시되는 지원자단말기의 화면의 일 실시예에서의 디스플레이요소는, 상기 면접영상을 재생할 수 있는 영상레이어(L1); 상기 면접영상에 대한 식별정보, 날짜, 설명정보 등이 표시될 수 있는 영상정보레이어(L2); 2 이상의 평가결과 카테고리를 선택할 수 있는 카테고리레이어(L3); 및 상기 면접영상의 부분단위의 평가에 대한 요소를 디스플레이하는 자동평가결과레이어(L7)를 포함한다.The display element in an embodiment of the screen of the applicant terminal displayed by the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 according to the user's input is an image layer ( L1); an image information layer (L2) on which identification information, date, and explanatory information for the interview image can be displayed; a category layer (L3) capable of selecting two or more evaluation result categories; And it includes an automatic evaluation result layer (L7) for displaying the elements for the evaluation of the partial unit of the interview image.

도 10에 도시된 바와 같이 상기 영상레이어(L1)에는 면접영상, 및 면접영상의 시간 혹은 프레임의 위치를 표시하는 영상타이밍요소(E1)가 디스플레이되고, 상기 자동평가레이어(L7)에는 면접영상의 시간 혹은 프레임에 따른 평가요소에 대한 정량화된 수치를 그래프로 표시하는 그래프요소, 및 상기 그래프요소의 시간 혹은 프레임위치를 표시하는 그래프타이밍요소(E2)이 디스플레이된다.As shown in FIG. 10 , an interview image and an image timing element E1 indicating the time or frame position of the interview image are displayed on the image layer L1, and the automatic evaluation layer L7 contains the interview image. A graph element displaying a quantified numerical value for an evaluation element according to time or frame as a graph, and a graph timing element E2 indicating a time or frame position of the graph element are displayed.

도 10의 자동평가레이어(L7)에는 시간 혹은 프레임의 흐름에 따른 평가지표의 그래프가 도시된다. 이를 통하여 자신이 전체적으로 해당 평가지표를 일관되게 유지하였는지 혹은 어느 타이밍에 문제가 있었는지 혹은 어느 타이밍에 잘 했는지 여부를 판단할 수 있다.In the automatic evaluation layer L7 of FIG. 10, a graph of the evaluation index according to the flow of time or frame is shown. Through this, it is possible to determine whether the person consistently maintained the corresponding evaluation index as a whole, at what timing there was a problem, or at what timing he did well.

여기서, 지원자단말기에서의 입력에 따라 상기 영상타이밍요소가 변하는 경우에, 예를 들어, 영상타이밍요소(E1)을 사용자가 클릭하여 드래그하는 경우에, 상기 영상타이밍요소(E1)의 변화에 상응하여 상기 그래프타이밍요소(E2)가 변화할 수 있다.Here, when the image timing element changes according to the input from the applicant terminal, for example, when the user clicks and drags the image timing element E1, corresponding to the change of the image timing element E1 The graph timing element E2 may be changed.

혹은, 지원자단말기에서의 입력에 따라 상기 그래프타이밍요소(E2)가 변하는 경우에, 상기 그래프타이밍요소(E2)의 변화에 상응하여 상기 영상타이밍요소(E1)가 변화할 수 있다.Alternatively, when the graph timing element E2 is changed according to an input from the supporter terminal, the image timing element E1 may change according to the change of the graph timing element E2 .

예를 들어, 사용자가 자동평가레이어(L7)에서 특정 구간에서 해당 평가지표가 낮거나 불안하게 나오는 경우에, 해당 구간으로 그래프타이밍요소(E2)를 이동시킨다. 이 경우, 상기 영상레이어에서의 영상타이밍요소(E1)이 이동한 상기 그래프타이밍요소(E2)의 위치에 상응하는 타이밍 혹은 프레임 위치로 이동하게 되고, 사용자는 이 상태에서 영상의 플레이 입력을 함으로써, 해당 구간에서의 자신의 영상을 바로 파악할 수 있다.For example, when the user has a low or unstable evaluation index in a specific section in the automatic evaluation layer L7, the graph timing element E2 is moved to the corresponding section. In this case, the image timing element (E1) in the image layer moves to a timing or frame position corresponding to the position of the moved graph timing element (E2), and the user inputs the image play in this state, You can immediately see your own video in the corresponding section.

도 10의 (A) 및 (B)는 위와 같은 그래프타이밍요소(E2)와 영상타이밍요소(E1)의 연동과정을 예시적으로 도시한다. 도 10의 (B)에서와 같이 그래프타이밍요소(E2)를 특정 위치로 이동하는 경우에, 상기 영상타이밍요소(E1)이 상기 그래프타이밍요소(E2)의 위치에 상응하는 위치로 이동하게 된다.10(A) and (B) exemplarily show the interworking process of the graph timing element E2 and the image timing element E1 as described above. When the graph timing element E2 is moved to a specific position as shown in FIG. 10B , the image timing element E1 is moved to a position corresponding to the position of the graph timing element E2 .

도 11는 본 발명의 일 실시예에 따른 평가결과제공부(1400)의 프레임별분석제공부(1430)의 시선처리 결과제공 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.11 schematically shows a display screen in the applicant terminal according to the execution of the gaze processing result provision by the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 according to an embodiment of the present invention.

전술한 면접영상평가부(1300)에 의하여 도출된 상기 자동평가정보는 면접영상의 복수의 프레임에서의 사용자의 시선의 복수의 위치정보를 포함할 수 있다.The automatic evaluation information derived by the above-described interview image evaluation unit 1300 may include a plurality of location information of the user's gaze in a plurality of frames of the interview image.

즉, 상기 면접영상평가부(1300)는 사용자의 눈의 이미지 정보 등을 고려하여 프레임별 혹은 특정 시간구간별 시선의 위치에 대한 정보를 도출한다. That is, the interview image evaluation unit 1300 derives information on the position of the gaze for each frame or for each specific time period in consideration of image information of the user's eyes, and the like.

이후, 사용자의 입력에 따라 평가결과제공부(1400)의 프레임별분석제공부(1430)는 시선처리 결과제공을 수행할 수 있고, 이에 따라 제공되는 지원자단말기에서의 디스플레이요소는 자동평가레이어(L7)에서 도시되는 시간구간 혹은 프레임구간에 따른 시선의 위치, 변동량, 혹은 시선처리의 적합성 정도를 포함할 수 있다.Thereafter, according to the user's input, the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 may provide the gaze processing result, and the display element in the applicant terminal provided accordingly is an automatic evaluation layer (L7). ) may include the position of the gaze according to the time section or frame section shown in ), the amount of variation, or the degree of suitability of gaze processing.

바람직하게는, 상기 시선처리 결과제공에 의하여 디스플레이되는 화면은 시선처리의 누적결과를 디스플레이하는 시선정보레이어(L8) 및 시선처리 결과에 대한 설명을 디스플레이하는 시선정보설명레이어(L9)을 포함할 수 있다.Preferably, the screen displayed by providing the gaze processing result may include a gaze information layer (L8) for displaying the cumulative result of gaze processing and a gaze information description layer (L9) for displaying a description of the gaze processing result. there is.

도 11에 도시된 바와 같이, 상기 시선정보레이어(L8)에는 시선의 중심을 직접적 혹은 간접적으로 표시하는 배경레이어에서 상기 사용자의 시선의 복수의 위치정보에 따라 상기 배경레이어에서의 위치가 결정되는 복수의 그래픽엘리먼트가 중첩되어 표시될 수 있다.11, in the gaze information layer L8, a plurality of positions in the background layer are determined according to a plurality of position information of the user's gaze in a background layer that directly or indirectly displays the center of the gaze. Graphic elements of can be displayed overlapping.

이와 같은 방식으로 사용자는 자동평가레이어(L7)을 통하여 시간에 따른 시선의 변화 정보를 확인하면서, 동시에 시선정보레이어(L8)을 통하여 자신의 시선이 평균적으로 어디에 위치하는 지를 확인할 수 있다. 또한, 사용자는 자동평가레이어(L7)에서 시선변동이 심한 프레임 혹은 타이밍을 확인하고, 이에 따라 그래프타이밍요소(E2)를 해당 타이밍으로 위치시키면, 영상레이어(L1)에서의 영상타이밍요소(E1)이 상응하는 위치로 자동적으로 이동하고, 사용자는 단순히 영상재생 버튼을 클릭함으로써, 시선변동이 심할 때의 자신의 모습을 신속하게 파악할 수 있는 효과를 발휘할 수 있다.In this way, the user can check the gaze change information over time through the automatic evaluation layer L7, and at the same time, check where his gaze is located on average through the gaze information layer L8. In addition, if the user confirms the frame or timing with severe gaze fluctuation in the automatic evaluation layer (L7) and places the graph timing element (E2) at the corresponding timing accordingly, the image timing element (E1) in the image layer (L1) It automatically moves to the corresponding position, and by simply clicking the image play button, the user can exert the effect of quickly grasping his/her own appearance when the gaze change is severe.

도 12은 본 발명의 일 실시예에 따른 평가결과제공부(1400)의 프레임별분석제공부(1430)의 머리움직임결과제공 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.12 schematically shows a display screen in the applicant terminal according to the execution of the head movement result provision by the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 according to an embodiment of the present invention.

전술한 면접영상평가부(1300)에 의하여 도출된 상기 자동평가정보는 면접영상의 복수의 프레임에서의 사용자의 머리움직임의 정도에 대한 정보를 포함할 수 있다.The automatic evaluation information derived by the above-described interview image evaluation unit 1300 may include information on the degree of the user's head movement in a plurality of frames of the interview image.

즉, 상기 면접영상평가부(1300)는 사용자의 머리 이미지 정보 등을 고려하여 프레임별 혹은 특정 시간구간별 머리움직임의 정도에 대한 정보를 도출한다.That is, the interview image evaluation unit 1300 derives information on the degree of head movement for each frame or for each specific time period in consideration of the user's head image information and the like.

이후, 사용자의 입력에 따라 평가결과제공부(1400)의 프레임별분석제공부(1430)는 머리움직임 결과제공을 수행할 수 있고, 이에 따라 제공되는 지원자단말기에서의 디스플레이요소는 자동평가레이어(L10)에서 도시되는 시간구간 혹은 프레임구간에 따른 머리의 평균 위치, 머리의 평균 높이, 혹은 머리움직임의 정도를 포함할 수 있다.Thereafter, according to the user's input, the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 may provide the head movement result, and accordingly, the display element in the applicant terminal provided is an automatic evaluation layer (L10). ) may include the average position of the head, the average height of the head, or the degree of head movement according to the time section or frame section shown in FIG.

이와 같은 방식으로 사용자는 자동평가레이어(L10)을 통하여 시간에 따른 머리움직임과 관련된 정보를 확인할 수 있다. 또한, 사용자는 자동평가레이어(L10)에서 머리움직임이 심한 프레임 혹은 타이밍을 확인하고, 이에 따라 그래프타이밍요소(E2)를 해당 타이밍으로 위치시키면, 영상레이어(L1)에서의 영상타이밍요소(E1)이 상응하는 위치로 자동적으로 이동하고, 사용자는 단순히 영상재생 버튼을 클릭함으로써, 머리움직임이 심할 때의 자신의 모습을 신속하게 파악할 수 있는 효과를 발휘할 수 있다.In this way, the user can check information related to the head movement over time through the automatic evaluation layer L10. In addition, when the user checks the frame or timing with heavy head movement in the automatic evaluation layer (L10) and places the graph timing element (E2) at the corresponding timing accordingly, the image timing element (E1) in the image layer (L1) It automatically moves to the corresponding position, and the user simply clicks the image play button, thereby exhibiting the effect of quickly grasping his/her own appearance when the head moves violently.

도 13은 본 발명의 일 실시예에 따른 평가결과제공부(1400)의 프레임별분석제공부(1430)의 감정결과제공 수행에 따른 지원자단말기에서의 표시화면을 개략적으로 도시한다.13 schematically shows a display screen in the applicant's terminal according to the execution of the analysis result provision by the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 according to an embodiment of the present invention.

사용자의 입력에 따라 평가결과제공부(1400)의 프레임별분석제공부(1430)는 감정 변화에 대한 결과제공을 수행할 수 있고, 이에 따라 제공되는 지원자단말기에서의 디스플레이요소는 시간구간 혹은 프레임구간에 따른 감정의 그래프를 포함하는 감정레이어(L11)를 포함할 수 있다.According to the user's input, the frame-by-frame analysis providing unit 1430 of the evaluation result providing unit 1400 may provide the result for the emotional change, and the display element in the applicant terminal provided accordingly is a time section or a frame section. It may include an emotion layer L11 including a graph of emotions according to

상기 감정레이어(L11)에는 시간구간 혹은 프레임구간에 따라 각각의 감정, 예를 들어, 화남, 두려움, 놀람 등의 정도가 도시될 수 있다Each emotion, for example, anger, fear, surprise, etc., may be shown in the emotion layer L11 according to a time section or a frame section.

바람직하게는, 감정레이어(L11)에는 각각의 감정에 대한 색상을 달리하여 그래프를 도시하고, 각각의 감정의 색상이 표시되는 것이 바람직하다.Preferably, in the emotion layer (L11), the graph is shown with different colors for each emotion, and the color of each emotion is preferably displayed.

감정종합레이어(L12)에는 영상 전체의 감정요소에 대한 정보가 도시되고, 바람직하게는 도 13에서와 같이 그래픽 요소에 의하여 각각의 감정요소의 비율을 도시한다. Information on the emotional elements of the entire image is shown in the emotion synthesis layer L12, and preferably, the ratio of each emotional element is shown by graphic elements as shown in FIG. 13 .

위와 같은 사용자인터페이스를 통하여, 사용자는 면접 동안 타인에게 자신이 어떤 감정을 가지고 있는 것처럼 보였는지를 확인할 수 있고, 마찬가지로, 사용자는 감정레이어(L11)에서 특정 감정이 강하거나 약했던 프레임 혹은 타이밍을 확인하고, 이에 따라 그래프타이밍요소(E2)를 해당 타이밍으로 위치시키면, 영상레이어(L1)에서의 영상타이밍요소(E1)이 상응하는 위치로 자동적으로 이동하고, 사용자는 단순히 영상재생 버튼을 클릭함으로써, 특정 감정이 강하거나 약했던 때의 자신의 모습을 신속하게 파악할 수 있는 효과를 발휘할 수 있다.Through the user interface as above, the user can check what kind of emotion he has to others during the interview, and similarly, the user checks the frame or timing in which a specific emotion was strong or weak in the emotion layer (L11), Accordingly, when the graph timing element E2 is positioned at the corresponding timing, the image timing element E1 in the image layer L1 automatically moves to the corresponding position, and the user simply clicks the image play button, It can exert the effect of quickly grasping the appearance of oneself when this strong or weak time.

도 14는 본 발명의 일 실시예에 따른 지원영상설정부의 수행단계들을 개략적으로 도시한다.14 schematically shows the performing steps of the support image setting unit according to an embodiment of the present invention.

본 발명에서는 상기 서비스서버에서 지원자는 자신의 면접영상에 대한 평가를 확인하고, 자신이 지원하고자 하는 기관에 대해 자신의 면접영상을 기관에서 볼 수 있도록 제출 혹은 설정을 함으로써, 온라인면접을 수행할 수 있다.In the present invention, the applicant confirms the evaluation of his/her own interview video in the service server, and submits or sets the interview video to be viewed at the institution to which he/she wants to apply, thereby performing an online interview. there is.

본 발명에서는 상기 면접영상저장부(1200) 및 면접영상평가부(1300)의 동작에 따라서, 지원자는 면접영상을 복수개 촬영하고, 이에 대한 자동평가를 보고 다시 자신의 면접방식을 개선하고, 다시 면접영상을 촬영함으로써 자신의 면접역량을 강화하면서, 개선된 면접영상을 확보할 수 있다.In the present invention, according to the operation of the interview image storage unit 1200 and the interview image evaluation unit 1300, the applicant shoots a plurality of interview images, sees the automatic evaluation for this, improves his interview method again, and performs an interview again By filming a video, you can secure an improved interview video while strengthening your interview skills.

이후, 지원자는 자신이 지원하고자 하는 기관에 대하여 자신의 면접영상을 제공, 제출 혹은 공유할 수 있다.Thereafter, the applicant may provide, submit, or share his/her interview video with the institution to which he/she wishes to apply.

본 발명의 일 실시예에서는 지원하고자 하는 기관에서 특별히 요청하는 질문세트가 없는 경우에는 자신의 면접영상만을 지원하고자 하는 기관에 제출할 수도 있다.In one embodiment of the present invention, if there is no question set specifically requested by the institution to be supported, only one's own interview video may be submitted to the institution to support.

바람직하게는, 본 발명의 일 실시예에서는 지원자는 자신이 지원하고자 하는 기관에서 요구하는 질문 각각에 대하여 면접영상을 제출함으로써 온라인면접을 수행할 수 있다.Preferably, in one embodiment of the present invention, the applicant can conduct an online interview by submitting an interview video for each question requested by an institution to which he or she wishes to apply.

이와 같은 과정과 관련하여, 상기 지원영상설정부는 해당 지원자단말기로부터 지원기관에 대한 입력을 수신하는 단계(S30); 해당 지원자단말기에 대하여 지원기관에서 등록한 1 이상의 질문사항에 대한 정보를 제공하는 단계(S31); 지원자단말기로부터 해당 지원기관에서 등록한 1 이상의 질문사항 각각에 대한 해당 지원자의 면접영상 선택정보를 수신하는 단계(S32); 및 해당 지원자단말기의 지원자의 해당 기관에 대한 지원정보를 업데이트하는 단계(S33);를 수행한다.In relation to the above process, the support image setting unit receiving an input for a support organization from the corresponding applicant terminal (S30); providing information on one or more questions registered by the support organization to the applicant terminal (S31); Receiving interview image selection information of the applicant for each of the one or more questions registered by the support organization from the applicant terminal (S32); and updating the support information for the applicant's corresponding institution in the applicant's terminal (S33); is performed.

상기 단계 S33에서 업데이트 되는 지원정보는 해당 지원자가 해당 기관에 대하여 서비스서버에서 지원을 했다는 취지의 정보, 및 해당 기관에서 요청한 질문들 각각에 대하여 지원자가 제출한 면접영상에 대한 정보를 포함한다.The application information updated in step S33 includes information to the effect that the applicant has applied for the relevant institution from the service server, and information about the interview video submitted by the applicant for each of the questions requested by the institution.

도 15는 본 발명의 일 실시예에 따른 지원영상설정부의 동작에 따른 지원자단말기의 표시화면의 일 예를 개략적으로 도시한다.15 schematically illustrates an example of a display screen of a supporter terminal according to an operation of a support image setting unit according to an embodiment of the present invention.

상기 지원영상설정단계에 의하여 표시되는 지원자단말기의 화면은, 지원하고자 하는 기관의 목록을 표시하는 기관목록레이어(L100); 선택된 기관의 1 이상의 질문사항을 표시하는 질문사항레이어(L110); 및 해당 지원자가 저장한 면접영상을 표시하는 면접영상레이어(L120);을 포함한다.The screen of the applicant terminal displayed by the support image setting step includes: an institution list layer (L100) displaying a list of institutions to be supported; a question layer (L110) displaying one or more questions of the selected institution; and an interview image layer (L120) for displaying the interview image stored by the applicant.

여기서, 지원자단말기에서의 조작에 의하여 상기 면접영상레이어의 면접영상 중 어느 1 이상을 상기 질문사항레이어의 각각의 질문사항에 입력할 수 있다.Here, any one or more of the interview images of the interview image layer may be input to each question of the question layer by operation in the applicant's terminal.

기관목록레이어(L100)에는 지원자가 서비스서버 혹은 채용서비스서버에서 지원을 입력한 기관들의 목록이 표시된다. 사용자는 자신이 면접영상을 제출할 기관을 기관목록레이어(L100)에서 선택할 수 있다.In the institution list layer L100, a list of institutions for which the applicant has inputted an application from the service server or the recruitment service server is displayed. The user may select an institution to which he or she will submit an interview image from the institution list layer (L100).

질문사항레이어(L110)에는 지원자가 지원하고자 선택을 한 기관에서 상기 도 4의 (A)에서와 같은 절차를 통하여 업데이트한 질문사항들이 디스플레이된다. 지원자는 각각의 질문사항들에 대하여 자신의 면접영상들을 제출함으로써, 온라인면접을 수행할 수 있다.In the question layer L110, questions updated through the same procedure as in (A) of FIG. 4 are displayed at the institution where the applicant has selected to apply. Applicants can conduct an online interview by submitting their own interview videos for each question.

면접영상레이어(L120)에는 사용자가 면접영상평가부(1300)에 의하여 촬영을 하고, 평가결과제공부(1400)에 의하여 평가결과를 확인할 수 있는 1 이상의 면접영상들을 표시한다. 즉, 면접영상레이어(L120)에는 지원자가 이전에 촬영한 면접영상들의 목록 혹은 요약디스플레이요소들이 표시되고, 사용자는 면접영상레이어(L120)에 표시되는 면접영상을 상기 질문사항레이어(L110)의 각각의 질문에 대해 입력할 수 있다.In the interview image layer (L120), one or more interview images in which the user can take a picture by the interview image evaluation unit 1300 and check the evaluation result by the evaluation result providing unit 1400 are displayed. That is, a list or summary display elements of the interview images previously taken by the applicant are displayed on the interview image layer (L120), and the user selects the interview image displayed on the interview image layer (L120) in each of the questions layer (L110). You can type in your question.

바람직하게는, 상기 면접영상레이어(L120)은 자신이 촬영한 면접영상들에 대한 검색을 수행할 수 있는 검색레이어(L121) 및 면접영상의 클립들을 표시하는 클립레이어(L122)를 포함한다. Preferably, the interview image layer (L120) includes a search layer (L121) capable of performing a search for the interview images taken by the interview image layer (L120) and a clip layer (L122) displaying clips of the interview image.

각각의 기관에서는 지원자들에게 요구하는 질문사항이 완전히 동일하지는 않을 수 있다. 그러나, 예를 들어 “자기소개를 해보세요”, “자신에 대해 설명을 해보세요”, “자기의 특징에 대해서 설명해보세요”, “자신의 성격에 대해서 설명해보세요” 와 같은 질문의 경우에는 동일한 면접영상이 이에 대한 응답으로 제출되더라도 기관측에서 문제는 없다.Each institution may not have exactly the same questions asked of its applicants. However, in the case of questions such as “Tell me about yourself”, “Tell me about yourself”, “Tell me about your characteristics”, and “Please explain your personality”, the same interview video is not available. Even if it is submitted as a response to this, there is no problem on the part of the institution.

따라서, 본 발명의 도 15에서와 같은 인터페이스는 지원자가 복수의 기관에 지원하고자 하는 경우 해당 기관에서 제시하는 복수의 질문 각각에 대해 영상을 촬영하는 것이 아니라, 이전에 촬영한 유사한 질문에 대한 영상을 업로드할 수 있게 함으로써, 지원자로 하여금 본 발명의 서비스서버에서 수행되는 온라인 면접지원에 대한 이용편의성을 대폭적으로 향상시킬 수 있다.Therefore, in the interface as shown in FIG. 15 of the present invention, when an applicant wants to apply to a plurality of institutions, an image is not taken for each of a plurality of questions presented by the institution, but an image for a similar question taken before is displayed. By enabling the upload, it is possible for applicants to significantly improve the convenience of using the online interview support performed in the service server of the present invention.

또한, 본 발명의 서비스서버의 면접영상저장부(1200), 면접결과제공부(1400)는 사용자로 하여금 자신의 면접영상에 대하여 코멘트 혹은 설명을 추가할 수 있는 인터페이스를 제공함으로써, 사용자는 복수의 면접영상을 촬영하고 이에 대한 코멘트 혹은 설명을 추가하고, 상기 검색레이어(L121)을 이용하여 자신이 원하는 영상을 바로 검색하여 지원하고자 하는 기관의 세부 질문사항에 대한 면접영상을 입력할 수 있다.In addition, the interview image storage unit 1200 and the interview result providing unit 1400 of the service server of the present invention provide an interface that allows the user to add a comment or explanation to his or her interview image, so that the user can use a plurality of You can take an interview video, add a comment or explanation thereto, directly search for a video you want using the search layer L121, and enter an interview video for detailed questions about an organization you want to apply for.

도 16은 본 발명의 일 실시예에 따른 지원영상제공부의 동작에 따른 기관단말기의 표시화면의 일 예를 개략적으로 도시한다.16 schematically illustrates an example of a display screen of an institution terminal according to an operation of a support image providing unit according to an embodiment of the present invention.

기관단말기는 상기 질문세트업데이트부(1510)을 통하여 해당 기관에 지원하고자 하는 지원자에게 제시하는 질문사항들을 입력할 수 있다.The institution terminal may input questions presented to applicants who wish to apply to the institution through the question set update unit 1510 .

이후, 지원자들은 상기 기관단말기에서 업데이트한 질문사항을 상기 질문세트설정부(1100)에서 확인하고, 이를 기반으로 질문세트를 설정하여 면접영상저장부(1200)에 의한 면접영상의 촬영을 수행하고, 평가결과제공부(1400)에 의한 피드백 정보를 확인하고, 이후, 지원영상설정부(1520)의 동작에 따라 지원하고자 하는 기관에서 제시하는 질문 별로 자신의 면접영상을 설정할 수 있다.After that, the applicants check the questions updated by the institution terminal in the question set setting unit 1100, set a question set based on this, and shoot the interview image by the interview image storage unit 1200, After checking the feedback information by the evaluation result providing unit 1400 , afterward, according to the operation of the supporting image setting unit 1520 , it is possible to set the own interview image for each question presented by the institution to be supported.

이후, 기관의 사용자는 기관단말기를 통하여 서비스서버에 기관으로 로그인을 수행하고, 지원영상제공부(1530)는 상기 지원영상제공단계는 해당 기관에 대해 지원을 한 지원자의 해당 기관에서 설정한 질문별 면접영상을 상기 기관단말기에 제공한다.Thereafter, the user of the institution logs in to the service server through the institution terminal as an institution, and the support image providing unit 1530 provides an interview for each question set by the institution of the applicant who applied for the institution in the support image providing step. An image is provided to the engine terminal.

상기 지원영상제공부(1530)에 의하여 표시되는 기관단말기의 화면은, 지원자의 목록을 표시하는 지원자목록레이어(L200); 선택된 지원자의 1 이상의 질문사항 및 이에 대해 지원자가 제출한 면접영상을 표시하는 지원영상레이어(L210); 및 해당 지원자의 상기 면접영상평가부(1300)에 의하여 수행된 자동평가결과 자체 혹은 일부를 표시하거나 및/또는 자동평가결과를 확인하기 위한 선택입력 아이콘을 제공하는 자동평가결과레이어(L220)을 포함한다.The screen of the institutional terminal displayed by the support image providing unit 1530 includes: an applicant list layer (L200) displaying a list of applicants; a supporting image layer (L210) for displaying one or more questions of the selected applicant and an interview image submitted by the applicant for this; and an automatic evaluation result layer (L220) that displays or part of the automatic evaluation result performed by the interview image evaluation unit 1300 of the applicant and/or provides a selection input icon for confirming the automatic evaluation result do.

바람직하게는, 상기 지원영상제공부(1530)에 의하여 표시되는 기관단말기의 화면은, 기관단말기의 사용자가 상기 지원자목록레이어(L200)에 표시되는 지원자의 순서를 달리하여 표시하거나 혹은 일부만 표시하도록 하는 기준을 설정하는 메뉴를 포함할 수 있다. 도 16에서는 '정렬기준' 은 순서를 달리하는 메뉴를 입력하기 위한 표시엘리먼트에 해당한다.Preferably, the screen of the institutional terminal displayed by the support image providing unit 1530 is a criterion for the user of the institution terminal to display the applicants displayed in the applicant list layer L200 in a different order or to display only a part It may include a menu for setting the . In FIG. 16, the 'sort criterion' corresponds to a display element for inputting a menu in a different order.

바람직하게는, 상기 지원자의 순서를 달리하여 표시하거나 혹은 일부만 표시하도록 하는 기준은 상기 면접영상평가부(1300)에서 평가하는 요소에 해당할 수 있다. 예를 들어, 상기 면접영상평가부(1300)에서 도출하는 자동평가정보가 호감도, 집중도, 신뢰감, 활기참, 침착성, 소통능력, 눈마주침, 및 친절함를 포함하는 경우에, 기관단말기에서는 예를 들어, 활기참을 기준으로 지원자들의 순서를 정렬 혹은 소팅할 수 있다. 혹은 기관단말기에서는 예를 들어, 활기참이 기설정된 수치 혹은 단계 이상인 지원자들만을 상기 지원자목록레이어(L200)에서 표시할 수 있도록 할 수도 있다.Preferably, the criteria for displaying the applicants in a different order or displaying only a part may correspond to the factors evaluated by the interview image evaluation unit 1300 . For example, when the automatic evaluation information derived from the interview image evaluation unit 1300 includes good sensitivity, concentration, trust, liveliness, composure, communication ability, eye contact, and kindness, in the institutional terminal, for example, You can sort or sort the order of applicants based on their vitality. Alternatively, in the institutional terminal, for example, only applicants whose vitality is a predetermined value or level or higher may be displayed on the applicant list layer L200.

이와 같은 방식으로 기관 입장에서도 면접영상에 대한 자동평가결과를 이용하여 자신이 원하는 지원자의 면접영상을 빠르게 접근할 수 있는 효과를 발휘할 수 있다.In this way, even from the perspective of the institution, the automatic evaluation result of the interview video can be used to quickly access the interview video of the applicant desired.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령 어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module to be executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and includes any information delivery media.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (5)

서비스서버에서 수행되는 기계학습을 이용한 온라인 면접을 제공하는 방법으로서,
상기 서비스서버는, 면접영상저장부 및 지원영상설정부를 포함하고,
상기 면접영상저장부에 의하여, 질문정보를 지원자단말기에 송신하고, 상기 지원자단말기로부터 상기 질문정보 각각에 응답을 수행한 면접영상을 수신하여 저장하는 면접영상저장단계; 및
상기 지원영상설정부에 의하여, 지원자단말기에서의 입력에 기초하여 해당 사용자가 지원하고자 하는 기관에서 상기 면접영상을 볼 수 있도록 설정하는 지원영상설정단계;를 포함하고,
상기 지원영상설정단계는,
해당 지원자단말기로부터 지원기관에 대한 입력을 수신하는 단계;
해당 지원자단말기로부터 해당 지원기관에서 등록한 1 이상의 질문사항 각각에 대한 해당 지원자의 상기 면접영상저장단계에서 저장된 면접영상 중에서의 선택정보를 수신하는 단계; 및
해당 지원자단말기의 지원자의 해당 기관에 대한 지원정보를 업데이트하는 단계;를 포함하고,
상기 지원영상설정단계에 의하여 표시되는 지원자단말기의 화면은,
선택된 기관의 1 이상의 질문사항을 표시하는 질문사항레이어; 및
해당 지원자가 상기 면접영상저장단계에서 저장한 면접영상의 목록 혹은 요약디스플레이요소를 표시하는 면접영상레이어;를 포함하고,
지원자단말기에서의 조작에 의하여 상기 면접영상레이어의 면접영상 중 어느 1 이상을 상기 질문사항레이어의 각각의 질문사항에 입력할 수 있는, 기계학습을 이용한 온라인 면접을 제공하는 방법.
As a method of providing an online interview using machine learning performed in a service server,
The service server includes an interview image storage unit and a support image setting unit,
an interview image storage step of transmitting, by the interview image storage unit, question information to an applicant terminal, and receiving and storing an interview image in which a response to each of the question information is performed from the applicant terminal; and
a support image setting step of setting, by the support image setting unit, to view the interview image at an institution to which the user is to apply based on an input from the applicant terminal;
The support image setting step is,
receiving an input for a support organization from a corresponding applicant terminal;
receiving, from the applicant terminal, selection information from among the interview images stored in the interview image storage step of the corresponding applicant for each of the one or more questions registered by the support institution; and
Updating the applicant's application information for the applicant's corresponding institution in the applicant's terminal; including;
The screen of the applicant terminal displayed by the support image setting step is,
a questionnaire layer displaying one or more questions of the selected institution; and
and an interview image layer that displays a list or summary display element of the interview image stored by the applicant in the interview image storage step;
A method of providing an online interview using machine learning, in which any one or more of the interview images of the interview image layer can be input to each question item of the question question layer by operation in the applicant's terminal.
삭제delete 청구항 1에 있어서,
상기 기계학습을 이용한 온라인 면접을 제공하는 방법은,
지원영상제공단계를 더 포함하고,
상기 지원영상제공단계는 해당 기관에 대해 지원을 한 지원자의 해당 기관에서 설정한 질문별 면접영상을 기관단말기에 제공하는, 기계학습을 이용한 온라인 면접을 제공하는 방법.
The method according to claim 1,
The method of providing an online interview using the machine learning is,
Further comprising the step of providing a support image,
The method of providing an online interview using machine learning, wherein the support image providing step provides an interview image for each question set by the institution of the applicant who applied for the institution to the institution terminal.
서비스서버에 의하여 구현되는 기계학습을 이용한 온라인 면접을 제공하는 시스템으로서,
질문정보를 지원자단말기에 송신하고, 상기 지원자단말기로부터 상기 질문정보 각각에 응답을 수행한 면접영상을 수신하여 저장하는 면접영상저장부; 및
지원자단말기에서의 입력에 기초하여 해당 사용자가 지원하고자 하는 기관에서 상기 면접영상을 볼 수 있도록 설정하는 지원영상설정부;를 포함하고,
상기 지원영상설정부는,
해당 지원자단말기로부터 지원기관에 대한 입력을 수신하는 단계;
해당 지원자단말기로부터 해당 지원기관에서 등록한 1 이상의 질문사항 각각에 대한 해당 지원자의 상기 면접영상저장부에서 저장된 면접영상 중에서의 선택정보를 수신하는 단계; 및
해당 지원자단말기의 지원자의 해당 기관에 대한 지원정보를 업데이트하는 단계;를 수행하고,
상기 지원영상설정부의 동작에 의하여 표시되는 지원자단말기의 화면은,
선택된 기관의 1 이상의 질문사항을 표시하는 질문사항레이어; 및
상기 면접영상저장부에서 저장한 해당 지원자의 면접영상의 목록 혹은 요약디스플레이요소를 표시하는 면접영상레이어;를 포함하고,
지원자단말기에서의 조작에 의하여 상기 면접영상레이어의 면접영상 중 어느 1 이상을 상기 질문사항레이어의 각각의 질문사항에 입력할 수 있는, 기계학습을 이용한 온라인 면접을 제공하는 시스템.
A system that provides an online interview using machine learning implemented by a service server,
an interview image storage unit for transmitting question information to the applicant terminal and receiving and storing an interview image in which a response to each of the question information is performed from the applicant terminal; and
and a support image setting unit configured to set the user to view the interview image at an institution to which the user wishes to apply based on an input from the applicant terminal; and
The support image setting unit,
receiving an input for a support organization from a corresponding applicant terminal;
receiving, from the applicant terminal, selection information from among the interview images stored in the interview image storage unit of the applicant for each of the one or more questions registered by the support organization; and
Updating the applicant's application information for the relevant institution in the applicant's terminal; performing;
The screen of the support terminal displayed by the operation of the support video setting unit is,
a questionnaire layer displaying one or more questions of the selected institution; and
Including; an interview image layer for displaying a list or summary display element of the interview image of the applicant stored in the interview image storage unit;
A system for providing an online interview using machine learning, in which any one or more of the interview images of the interview image layer can be input to each question item of the question question layer by operation in the applicant's terminal.
청구항 1에 따르는 기계학습을 이용한 온라인 면접을 제공하는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.
A computer-readable recording medium in which a program for performing the method of providing an online interview using machine learning according to claim 1 is recorded.
KR1020210060087A 2019-01-15 2021-05-10 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning KR102381572B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210060087A KR102381572B1 (en) 2019-01-15 2021-05-10 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190005319A KR102255836B1 (en) 2019-01-15 2019-01-15 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning
KR1020210060087A KR102381572B1 (en) 2019-01-15 2021-05-10 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190005319A Division KR102255836B1 (en) 2019-01-15 2019-01-15 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning

Publications (2)

Publication Number Publication Date
KR20210055666A KR20210055666A (en) 2021-05-17
KR102381572B1 true KR102381572B1 (en) 2022-04-01

Family

ID=72048667

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190005319A KR102255836B1 (en) 2019-01-15 2019-01-15 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning
KR1020210060087A KR102381572B1 (en) 2019-01-15 2021-05-10 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190005319A KR102255836B1 (en) 2019-01-15 2019-01-15 Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning

Country Status (1)

Country Link
KR (2) KR102255836B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102523808B1 (en) * 2020-12-07 2023-04-21 이상록 Methord and device of performing ai interview for foreigners
KR20220095482A (en) 2020-12-30 2022-07-07 주식회사 글루리 Method and apparatus for recommending a job position in a virtual interview using deep learning
KR102513645B1 (en) * 2021-01-05 2023-03-27 주식회사 제네시스랩 Methods, Systems and Computer-Readable Medium for Providing Preliminary Depression Diagnosis Information With Machine Learning Model
KR102585693B1 (en) * 2022-01-10 2023-10-06 김병복 System for providing non face-to-face recruitment communcation platform service
KR20240051499A (en) * 2022-10-13 2024-04-22 유한책임회사 블루바이저시스템즈 artificial intelligence-based professional human resource platform service method that provides non-face-to-face recruitment services
KR20240052104A (en) * 2022-10-13 2024-04-23 유한책임회사 블루바이저시스템즈 Method for contact free interviewing employing Artificial Algorithm
KR102584078B1 (en) * 2022-12-15 2023-10-04 에이블제이 주식회사 Apparatus and method for providing interview's feedback

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050123377A (en) 2004-06-25 2005-12-29 (주)퍼스트 엠 Digital image transmission device having on-line interview system
KR101198445B1 (en) * 2011-08-26 2012-11-06 (주) 나인원 An Apparatus for analyzing image of interview and a method thereof
KR20130055833A (en) * 2011-11-21 2013-05-29 배창수 Job interview brokerage system using terminal
KR20170071144A (en) * 2015-12-15 2017-06-23 조나솜 Simulated employment interview system for test as applicants who are preparing for kindergarten teachers
JP6042015B1 (en) * 2016-06-07 2016-12-14 株式会社採用と育成研究社 Online interview evaluation apparatus, method and program

Also Published As

Publication number Publication date
KR102255836B1 (en) 2021-05-25
KR20200092512A (en) 2020-08-04
KR20210055666A (en) 2021-05-17

Similar Documents

Publication Publication Date Title
KR102381572B1 (en) Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning
US11494736B2 (en) Internet-based method and apparatus for career and professional development via structured feedback loop
US20210279668A1 (en) Method of preparing recommendations for taking decisions on the basis of a computerized assessment of the capabilities of users
US20180268341A1 (en) Methods, systems and networks for automated assessment, development, and management of the selling intelligence and sales performance of individuals competing in a field
US20140120511A1 (en) TeachAtCafe - TeaChatCafe, Transparent Digital and Social Media as an Open Network Communication and Collaboration Tool with User Driven Content and Internet Content Submission Capability for Educators and Their Students
US20120265770A1 (en) Computer implemented system and method for automated job search, recruitment and placement
JP7333404B2 (en) Methods, Systems, and Computer-Readable Media for Managing Interview Video Automated Rating Models
US20150154564A1 (en) Weighted evaluation comparison
KR102297947B1 (en) Online Interview Providing Method, System and Computer-readable Medium
US20140180943A1 (en) System and Methods for Identifying Possible Associations and Monitoring Impacts of Actual Associations Between Synergistic Persons, Opportunities and Organizations
US8751540B2 (en) Dynamic assessment system
US20210279688A1 (en) Ai platform with real-time analytics and social incentive referrals
JP6582149B1 (en) Recruitment selection system
AU2013205850A1 (en) Assessment method and apparatus
WO2013066868A1 (en) Student retention method and system
KR102236720B1 (en) Interview Preparation Service Providing Method, System and Computer-readable Medium Using Machine Learning
KR102397112B1 (en) Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model
KR102242484B1 (en) Method for Providing College Early Admission Preparing Service and System Thereof
KR102258636B1 (en) Interview Automatic Evaluation Model Learning Method, System and Computer-readable Medium
KR102261673B1 (en) Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof
US20150134426A1 (en) System and method for a connection platform
Mullen et al. Use of online or traditional job search tools: Which do sales students prefer when searching to begin their post-college graduate careers-A study revisited
KR102310135B1 (en) Method, System and Computer-readable Medium for Conducting Recruitment Processes for Applicants Using Machine Learning Model
US20230334539A1 (en) System and method for online reputation management system
WO2023118911A1 (en) Video platform with smart recruitment features

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant