JP2017219989A - Online interview evaluation device, method and program - Google Patents
Online interview evaluation device, method and program Download PDFInfo
- Publication number
- JP2017219989A JP2017219989A JP2016113270A JP2016113270A JP2017219989A JP 2017219989 A JP2017219989 A JP 2017219989A JP 2016113270 A JP2016113270 A JP 2016113270A JP 2016113270 A JP2016113270 A JP 2016113270A JP 2017219989 A JP2017219989 A JP 2017219989A
- Authority
- JP
- Japan
- Prior art keywords
- interview
- unit
- evaluation
- participant
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 300
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000014509 gene expression Effects 0.000 claims abstract description 154
- 238000007405 data analysis Methods 0.000 claims abstract description 87
- 238000004891 communication Methods 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000004458 analytical method Methods 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims description 45
- 238000003860 storage Methods 0.000 claims description 44
- 230000008921 facial expression Effects 0.000 claims description 31
- 238000000926 separation method Methods 0.000 claims description 29
- 230000006399 behavior Effects 0.000 claims description 9
- 238000012854 evaluation process Methods 0.000 claims description 6
- 210000001747 pupil Anatomy 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 8
- 238000010195 expression analysis Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 230000008451 emotion Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000007115 recruitment Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、オンライン面接により面接参加者の評価を行うオンライン面接評価装置、方法およびプログラムに関する。 The present invention relates to an on-line interview evaluation apparatus, method, and program for evaluating interview participants by online interview.
求人企業の採用試験(特に面接試験)を受ける場合、求職者は、求人企業から通知された情報(試験会場、集合時間など)にしたがって、試験会場に行く必要がある。 When taking a recruitment examination for a recruiting company (especially an interview examination), the job seeker needs to go to the examination hall according to the information notified from the recruiting company (examination hall, meeting time, etc.).
かかる採用試験は、地理的または時間的な制約があり、求職者にとって非常に負担が大きい。特に、多くの企業が集中している首都圏の会社に地方に在住している求職者が採用試験を受けに行く場合などにおいて、移動などの負担が大きい。一方、求人企業にとっても、試験会場や面接官以外の誘導員などの人員を確保しなければならず、負担が大きい。 Such recruitment tests are geographically or time-constrained and are very burdensome for job seekers. In particular, when a job seeker residing in a rural area of a company in the Tokyo metropolitan area, where many companies are concentrated, is going to take a recruitment examination, the burden of moving is heavy. On the other hand, for recruiting companies, it is necessary to secure personnel other than the test site and interviewers, which is a heavy burden.
そこで、最近は、ネットワークを利用して面接を行うオンライン面接が脚光を浴びている。オンライン面接を利用すれば、求職者にとっては、地理的、時間的な制約が解消されるメリットがあり、求人企業にとっては、試験会場を確保する手間とコストを削減でき、かつ、人員も削減できるなどのメリットがある。 So, recently, online interviews that use network interviews are in the spotlight. Using online interviews has the advantage of eliminating the geographical and time constraints for job seekers, and for recruiting companies, it can reduce the labor and cost of securing test venues, as well as the number of personnel. There are merits such as.
例えば、特許文献1では、ネットワークを介して求職者と求人企業との仲介サービスを行なうサーバコンピュータの人材仲介プログラムにおいて、そのコンピュータに、求職者側端末装置と求人企業側端末装置とをネットワークを介して接続することにより、オンライン面接を行う技術が開示されている。さらに、特許文献1では、オンライン面接により面接記録情報を取得し、この面接記録情報を解析し、予め設定したキーワードが出現した出現回数を算出し、この出現回数に基づいて、求人企業の判定基準に合致するか否かを判定し、この判定の結果を求人企業に通知処理する技術が開示されている。
For example, in
しかし、特許文献1による技術では、単に、面接記録情報を解析し、予め設定されているキーワードの出現回数に基づいて求人企業の判定基準に合致しているか否かの判定を行っているだけであり、機械的な判定に過ぎず、優秀な人材を確保することが困難な可能性がある。
However, in the technique according to
一方、オンライン面接を利用して、面接官自身が求職者を評価する場合、通常の対面式の面接と同様に、求職者の熱意や人間性に基づいた評価を行うことが可能であるが、求職者の評価に対面式の面接と同様の人材およびコストがかかってしまう。また、求職者の評価が面接官の主観によって行われ、科学的客観性が低くなる可能性がある。 On the other hand, when interviewers themselves evaluate job seekers using online interviews, it is possible to conduct evaluations based on the job seeker's enthusiasm and humanity, just like regular face-to-face interviews. Job seekers' evaluation takes the same human resources and costs as face-to-face interviews. In addition, job seekers are evaluated by the interviewer's subjectivity, which can reduce scientific objectivity.
そこで、本願発明では、オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができるオンライン面接評価装置、方法およびプログラムを提供することを目的とする。 Therefore, the present invention has an object to provide an on-line interview evaluation apparatus, method, and program capable of performing, at a low cost, highly scientific objectivity evaluation for an interview participant who has participated in an on-line interview.
上記目的を達成するために、本発明の一態様におけるオンライン面接評価装置は、ネットワークを介してオンライン面接を行い、面接参加者 を評価するオンライン面接評価装置において、ユーザ端末装置から面接のリクエストを受け付ける受付部と、前記受付部により受け付けたユーザの認証を行う認証部と、前記認証部により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信部と、前記通信部により送受信されるデータに基づいて、面接データを生成する面接データ生成部と、前記面接データにかかる映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析部と、前記面接データにかかる音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析部と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価部とを備える。 In order to achieve the above object, an online interview evaluation apparatus according to an aspect of the present invention receives an interview request from a user terminal device in an online interview evaluation apparatus that performs an online interview via a network and evaluates an interview participant. A receiving unit, an authenticating unit that authenticates a user received by the receiving unit, a communication unit that transmits and receives data to and from a user terminal device when the user is authenticated by the authenticating unit, and the communication Interview data generation unit that generates interview data based on data transmitted and received by the unit, and video that analyzes the video data related to the interview data and obtains expression information based on the face or attitude of the interview participant Analyzing the voice data related to the interview data with the data analysis unit, and based on the speech content or sound of the interview participant Interview participants are evaluated based on the voice data analysis unit that obtains the expression, the expression information based on the face or attitude of the interview participant, and the expression based on the speech content or sound of the interview participant And an evaluation unit.
また、本発明の一態様におけるオンライン面接評価装置では、評価基準を記憶する記憶部と、前記評価部による評価結果が前記記憶部に記憶されている評価基準を満たしているか否かを判断する判断部とを備える構成でもよい。 In the online interview evaluation apparatus according to one aspect of the present invention, a storage unit that stores an evaluation criterion, and a determination that determines whether an evaluation result by the evaluation unit satisfies an evaluation criterion that is stored in the storage unit The structure provided with a part may be sufficient.
また、本発明の一態様におけるオンライン面接評価装置では、前記評価基準を設定する設定部を備える構成でもよい。 Moreover, the structure provided with the setting part which sets the said evaluation reference | standard may be sufficient in the online interview evaluation apparatus in 1 aspect of this invention.
また、本発明の一態様におけるオンライン面接評価装置では、前記評価部による過去の評価結果の中から、前記判断部により前記評価基準を満たしていると判断された評価結果に基づいて、前記評価基準を生成する生成部を備える構成でもよい。 Moreover, in the online interview evaluation apparatus according to one aspect of the present invention, the evaluation criterion is based on an evaluation result determined by the determination unit as satisfying the evaluation criterion from past evaluation results by the evaluation unit. The structure provided with the production | generation part which produces | generates may be sufficient.
また、本発明の一態様におけるオンライン面接評価装置では、前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されてもよい。 In the on-line interview evaluation apparatus according to one aspect of the present invention, the evaluation criterion may be composed of at least a semantic feature of a word, a voice feature, a facial feature, and an artificial feature.
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、面接参加者の表情または瞳を解析することにより前記面接参加者の顔に基づく表出情報を取得し、面接参加者の所作を解析することにより前記面接参加者の態度に基づく表出表現を取得し、前記音声データ解析部は、音声データをテキストデータに変換し、変換したテキストデータを解析することにより前記面接参加者の発言内容に基づく表出表現を取得し、音声データの音響成分を解析することにより前記面接参加者の音響に基づく表出表現を取得する構成でもよい。 Further, in the online interview evaluation apparatus according to one aspect of the present invention, the video data analysis unit acquires expression information based on the face of the interview participant by analyzing the facial expression or pupil of the interview participant, and participates in the interview The expression of expression based on the interviewee's attitude is obtained by analyzing the interviewee's actions, and the voice data analysis unit converts the voice data into text data and analyzes the converted text data to analyze the interview. It may be configured to acquire an expression based on the speech content of the participant and acquire the expression based on the sound of the interview participant by analyzing the acoustic component of the audio data.
また、本発明の一態様におけるオンライン面接評価装置では、前記面接データには、複数の質問と当該質問に対する回答が含まれており、当該質問の先頭または後尾に区切りを示す区切信号が挿入されており、前記映像データ解析部は、前記区切信号に基づいて、前記映像データを解析処理し、質問ごとに面接参加者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記区切信号に基づいて、前記音声データを解析処理し、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとに面接参加者を評価する構成でもよい。 In the online interview evaluation apparatus according to one aspect of the present invention, the interview data includes a plurality of questions and answers to the questions, and a delimiter signal indicating a delimiter is inserted at the head or tail of the question. The video data analysis unit analyzes the video data based on the separation signal, acquires expression information based on the interview participant's face or attitude for each question, and the audio data analysis unit Based on the delimiter signal, the voice data is analyzed and an expression expression based on the speech content or sound of the interview participant is obtained for each question, and the evaluation unit is based on the face or attitude of the interview participant The configuration may be such that the interview participant is evaluated for each question based on the expression information and the expression of the interview participant's utterance or sound.
また、本発明の一態様におけるオンライン面接評価装置では、前記記憶部には、質問ごとの評価基準が記憶されており、前記判断部は、前記評価部による質問ごとの評価結果が前記記憶部に記憶されている質問ごとの評価基準を満たしているか否かによって面接参加者の合否を判断する構成でもよい。 In the online interview evaluation device according to one aspect of the present invention, the storage unit stores an evaluation criterion for each question, and the determination unit stores the evaluation result for each question by the evaluation unit in the storage unit. The configuration may be such that the pass / fail of the interview participant is determined based on whether or not the evaluation criteria for each stored question are satisfied.
また、本発明の一態様におけるオンライン面接評価装置では、前記受付部は、前記面接参加者である被面接者のユーザ端末装置と、前記面接参加者である面接官のユーザ端末装置とから面接のリクエストを受け付け、前記認証部は、前記受付部により受け付けた被面接者と面接官の認証を行い、前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置から受信したデータを面接官のユーザ端末装置に送信し、面接官のユーザ端末装置から受信したデータを被面接者のユーザ端末装置に送信する構成でもよい。 Further, in the online interview evaluation apparatus according to one aspect of the present invention, the reception unit performs an interview from a user terminal device of the interviewee who is the interview participant and a user terminal device of the interviewer who is the interview participant. The request is received, the authentication unit authenticates the interviewee and the interviewer received by the reception unit, and the communication unit is authenticated by the authentication unit, and when the interview is started, the user of the interviewee The data received from the terminal device may be transmitted to the user terminal device of the interviewer, and the data received from the user terminal device of the interviewer may be transmitted to the user terminal device of the interviewee.
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、前記分離部で分離された映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記分離部で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する構成でもよい。 In the online interview evaluation apparatus according to one aspect of the present invention, the video data analysis unit analyzes the video data separated by the separation unit, and is based on the face or attitude of the interviewee who is the interview participant. The voice data analysis unit obtains the expression information based on the speech content or sound of the interviewee who is the interview participant by analyzing the voice data separated by the separation unit. The evaluation unit performs the interview based on the expression information based on the face or attitude of the interviewee who is the interview participant, and the expression based on the speech content or sound of the interviewee who is the interview participant. The structure which evaluates the interviewee who is a participant may be sufficient.
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、前記分離部で分離された映像データを解析処理して、面接参加者である面接官の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記分離部で分離された音声データを解析処理して、面接参加者である面接官の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である面接官の顔または態度に基づく表出情報と、前記面接参加者である面接官の発言内容または音響に基づく表出表現とに基づいて面接参加者である面接官を評価する構成でもよい。 Further, in the online interview evaluation apparatus according to one aspect of the present invention, the video data analysis unit analyzes the video data separated by the separation unit, and displays a table based on the face or attitude of the interviewer who is the interview participant. Obtaining speech information, the speech data analysis unit analyzes the speech data separated by the separation unit, obtains a speech expression of the interviewer who is an interview participant or an expression based on sound, and The evaluation unit is an interview participant based on the expression information based on the face or attitude of the interviewer who is the interview participant and the content expressed by the interviewer who is the interview participant or the expression based on the sound. It may be configured to evaluate the interviewer.
また、本発明の一態様におけるオンライン面接評価装置では、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとにリアルタイムに面接参加者を評価し、前記通信部は、前記評価部による質問ごとの評価結果を面接官のユーザ端末装置に送信する構成でもよい。 Moreover, in the online interview evaluation apparatus according to one aspect of the present invention, the evaluation unit is based on expression information based on the interview participant's face or attitude, and expression expressed based on the interview participant's speech content or sound. The interviewer may be evaluated in real time for each question, and the communication unit may transmit an evaluation result for each question by the evaluation unit to the user terminal device of the interviewer.
また、本発明の一態様におけるオンライン面接評価装置では、前記受付部は、前記面接参加者である被面接者のユーザ端末装置から面接のリクエストを受け付け、前記認証部は、前記受付部により受け付けた被面接者の認証を行い、前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置からデータを受信し、面接にかかるデータを被面接者のユーザ端末装置に送信し、前記映像データ解析部は、前記分離部で分離された映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記分離部で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する構成でもよい。 In the online interview evaluation apparatus according to one aspect of the present invention, the reception unit receives an interview request from the user terminal device of the interviewee who is the interview participant, and the authentication unit receives the request by the reception unit. When the interviewer is authenticated by the authentication unit and receives the data from the user terminal device of the interviewee, the communication unit receives the data of the interviewee, and the interviewee user is authenticated. Transmitted to the terminal device, the video data analysis unit performs analysis processing on the video data separated by the separation unit, to obtain the expression information based on the face or attitude of the interviewee who is the interview participant, The voice data analysis unit performs analysis processing on the voice data separated by the separation unit, and obtains an expression based on the content or sound of the interviewee who is the interview participant, and the evaluation unit The interviewee who is the interviewer based on the expression information based on the face or attitude of the interviewee who is the participant and the expression content or sound expression of the interviewee who is the interviewee The structure to evaluate may be sufficient.
また、本発明の一態様におけるオンライン面接評価装置では、前記通信部は、語学に関するリスニング用のデータをユーザ端末装置に送信し、前記面接データ生成部は、前記通信部によりユーザ端末装置から受信した前記語学に関するリスニング用のデータに対するユーザの受け答えのデータに基づいて、面接データを生成し、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者の語学力を評価する構成でもよい。 Moreover, in the online interview evaluation apparatus according to an aspect of the present invention, the communication unit transmits language-related listening data to the user terminal device, and the interview data generation unit is received from the user terminal device by the communication unit. The interview data is generated based on the user's answer data for the listening data related to the language, and the evaluation unit displays information based on the face or attitude of the interview participant and the content of the interview participant Or the structure which evaluates the language ability of an interview participant based on the expression based on sound may be sufficient.
また、本発明の一態様におけるオンライン面接評価装置では、前記認証部は、ユーザ端末装置から送信されてくる面接参加者の顔データに基づく顔認証によりユーザの認証を行う構成でもよい。 In the online interview evaluation apparatus according to one aspect of the present invention, the authentication unit may be configured to authenticate a user by face authentication based on face data of an interview participant transmitted from a user terminal device.
また、本発明の一態様におけるオンライン面接評価装置では、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とを組み合わせ、前記面接参加者の自信と論理性から説得力を評価する構成でもよい。 Further, in the online interview evaluation apparatus according to one aspect of the present invention, the evaluation unit includes the expression information based on the interview participant's face or attitude, and the expression based on the speech content or sound of the interview participant. A combination and a configuration in which persuasive power is evaluated based on the confidence and logic of the interview participant may be used.
上記目的を達成するために、本発明の一態様におけるオンライン面接評価方法は、ネットワークを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価方法において、ユーザ端末装置から面接のリクエストを受け付ける受付工程と、前記受付工程により受け付けたユーザの認証を行う認証工程と、前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、前記通信工程により送受信されるデータに基づいて、面接データを生成する面接データ生成工程と、前記面接データにかかる映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、前記面接データにかかる音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価工程とを備える。 In order to achieve the above object, an online interview evaluation method according to an aspect of the present invention is an online interview evaluation method for performing an online interview via a network and evaluating an interview participant, and accepts an interview request from a user terminal device. A receiving step, an authenticating step for authenticating a user accepted in the accepting step, a communication step for transmitting / receiving data to / from a user terminal device when authenticated by the authenticating step and an interview is started, and the communication Interview data generation step for generating interview data based on data transmitted and received in the process, and video for analyzing the video data related to the interview data and obtaining expression information based on the face or attitude of the interview participant Analyzing the data analysis process and the audio data related to the interview data, the content of the interview participant's remarks Is based on an audio data analysis step for obtaining an expression based on sound, an expression information based on the face or attitude of the interview participant, and an expression based on the speech content or sound of the interview participant. And an evaluation process for evaluating participants.
上記目的を達成するために、本発明の一態様におけるオンライン面接評価プログラムは、ネットワークを介してオンライン面接を行い、面接参加者を評価するプログラムにおいて、コンピュータに、ユーザ端末装置から面接のリクエストを受け付ける受付工程と、前記受付工程により受け付けたユーザの認証を行う認証工程と、前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、前記通信工程により送受信されるデータに基づいて、面接データを生成する面接データ生成工程と、前記面接データにかかる映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、前記面接データにかかる音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価工程と、を実行させるためのものである。 In order to achieve the above object, an online interview evaluation program according to an aspect of the present invention performs an online interview via a network and accepts an interview request from a user terminal device to a computer in a program for evaluating an interview participant. A receiving step, an authenticating step for authenticating a user accepted in the accepting step, a communication step for transmitting / receiving data to / from a user terminal device when authenticated by the authenticating step and an interview is started, and the communication Interview data generation step for generating interview data based on data transmitted and received in the process, and video for analyzing the video data related to the interview data and obtaining expression information based on the face or attitude of the interview participant Analyzing the audio data for the data analysis process and the interview data, Based on speech data analysis step of obtaining a representation expression based on speech content or sound, representation information based on the face or attitude of the interview participant, and representation representation based on the speech content or sound of the interview participant And an evaluation process for evaluating the interview participants.
オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができる。 For interviewees who participated in online interviews, highly scientific objective evaluation can be performed at low cost.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
なお、以下の実施形態は、ネットワークNを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価装置、方法およびプログラムの動作と構成について説明する。なお、面接参加者とは、オンライン面接に参加する被面接者と、面接官をいう。被面接者とは、求職者や受験生などの面接を受ける者をいう。 In the following embodiment, the operation and configuration of an online interview evaluation apparatus, method, and program for conducting an online interview through the network N and evaluating interview participants will be described. Interview participants are interviewees who participate in online interviews and interviewers. Interviewees are those who are interviewed, such as job seekers and examinees.
オンライン面接評価装置1は、図1に示すように、ネットワークNを介して、面接参加者が利用する複数のユーザ端末装置2a,2b・・・2n(以下、ユーザ端末装置2という。)とが接続されている。ユーザ端末装置2は、LANなどのネットワークNを介してオンライン面接評価装置1に接続可能な通信部と、面接参加者の顔などを撮像するカメラと、面接参加者の声を集音するマイクと、オンライン面接評価装置1から送信されてきた映像を表示するディスプレイと、オンライン面接評価装置1から送信されてきた音声を出力するマイクとを備える装置であり、例えば、スマートフォン、携帯電話、タブレット、パーソナルコンピュータ(PC)などの情報処理装置である。
As shown in FIG. 1, the online
オンライン面接は、Webブラウザを利用して提供されてもよいし、専用のアプリケーション(以下、専用アプリという)を利用して提供されてもよい。本実施例では、専用アプリを利用してオンライン面接を行うものとして説明するが、Webブラウザを利用してオンライン面接を行ってもよい。 The online interview may be provided using a Web browser, or may be provided using a dedicated application (hereinafter referred to as a dedicated application). In this embodiment, the online interview is performed using a dedicated application. However, the online interview may be performed using a Web browser.
Webブラウザを利用する場合、面接参加者は、ユーザ端末装置2にインストールされているWebブラウザを起動し、Webブラウザによりオンライン面接評価装置1にアクセスする。そして、Webブラウザに表示される表示画面に対して所定の操作を行うことにより、オンライン面接を行う。
When using the Web browser, the interview participant starts the Web browser installed in the
また、専用アプリを利用する場合、面接参加者は、予めユーザ端末装置2にダウンロードされている専用アプリを起動し、専用アプリによりオンライン面接評価装置1にアクセスする。そして、専用アプリに表示される表示画面に対して所定の操作することにより、オンライン面接を行う。
Moreover, when using a dedicated application, the interview participant starts the dedicated application downloaded in advance to the
オンライン面接評価装置1は、図2に示すように、受付部11と、認証部12と、通信部13と、面接データ生成部14と、分離部15と、映像データ解析部16と、音声データ解析部17と、評価部18とを備える。
As illustrated in FIG. 2, the online
受付部11は、ユーザ端末装置2から面接のリクエストを受け付ける。具体的には、ユーザ端末装置2は、面接参加者の操作に応じて、専用アプリを起動する。また、ユーザ端末装置2は、専用アプリに表示される表示画面に対して所定の操作が行われ、オンライン面接評価装置1の受付部11に対して面接のリクエストを行う。受付部11は、当該リクエストを受け付ける。
The accepting
認証部12は、受付部11により受け付けたユーザの認証を行う。具体的には、受付部11は、ユーザ端末装置2から面接のリクエストとともにユーザIDとパスワードを受け付ける。ユーザ情報記憶部19には、ユーザ登録により、予め面接参加者の登録情報(IDとパスワードなど)が記憶されている。認証部12は、ユーザ情報記憶部19を参照し、送信されてきたユーザIDとパスワードが記憶されている登録情報に一致するものがあるかどうかを判断し、一致した場合に認証を完了する。
The
通信部13は、認証部12により認証されて面接が開始された場合、ユーザ端末装置2との間でデータを送受信する。通信部13は、ユーザ端末装置2から送信されてきたデータをデータ記憶部20に記憶する。データは、例えば、映像データと音声データが多重化されてユーザ端末装置2から送信されてくる。また、通信部13は、データが圧縮されている場合には、データを伸張する。なお、通信部13と受付部11は、同一の構成であってもよい。
The
面接データ生成部14は、通信部13により送受信されるデータに基づいて、面接データを生成する。例えば、面接が、複数のパート(例えば、「挨拶パート」、「第1質問パート」、「第2質問パート」、「第3質問パート」など)に分かれている場合には、面接データ生成部14は、通信部13により送受信されるデータ(図3中のD1)を各パートに分割することにより、面接データ(図3中のD2)を生成する。「挨拶パート」とは、例えば、被面接者の名前の確認などを行うパートである。「第1質問パート」とは、例えば、自己PRや志望動機などを確認するパートである。「第2質問パート」とは、例えば、「第1質問パート」の回答に基づいて、質問するパートである。「第3質問パート」とは、例えば、エントリーシートなどに書かれている内容に基づいて行われるパートである。
The interview
分離部15は、面接データを映像データと音声データに分離する。なお、通信部13で受信したデータが映像データと音声データとに多重化されていない場合には、分離部15は不要である。
The
映像データ解析部16は、映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する。
The video
ここで、面接参加者の顔に基づく表出情報の取得について説明する。映像データ解析部16は、面接参加者の表情または瞳を解析することにより面接参加者の顔に基づく表出情報を取得する。面接参加者の顔に基づく表出情報とは、面接参加者の表情の変化を示す情報である。映像データ解析部16は、ある質問を行ったときに面接参加者の顔が、真顔から笑顔に変化したり、まったく変化しなかったときなどの表情の変化を分析する。また、映像データ解析部16は、例えば、ある質問を行ったときの面接参加者の瞳の大きさ、色、輝き、形などの要素を分析する。
Here, acquisition of the expression information based on the face of the interview participant will be described. The video
つぎに、面接参加者の態度に基づく表出情報の取得について説明する。映像データ解析部16は、面接参加者の所作を解析することにより面接参加者の態度に基づく表出表現を取得する。面接参加者の態度に基づく表出情報とは、面接参加者の顔以外の体の動きや手の動きの変化を示す情報である。映像データ解析部16は、ある質問を行ったときに面接参加者の身振りや手振りが大きいか小さいかや、頷く回数などを分析する。
Next, the acquisition of the presentation information based on the attitude of the interview participant will be described. The video
音声データ解析部17は、音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する。
The voice
ここで、面接参加者の発言内容に基づく表出表現の取得について説明する。音声データ解析部17は、音声データをテキストデータに変換し、変換したテキストデータを解析することにより面接参加者の発言内容に基づく表出表現を取得する。面接参加者の発言内容に基づく表出表現とは、発言された言葉の意味を分析処理して得られる情報であり、例えば、論理性(論理構造)、発言量、語彙の豊かさ、発言された語彙の難易度などを示す情報である。
Here, acquisition of the expression based on the content of the interview participant's remarks will be described. The voice
つぎに、面接参加者の音響に基づく表出表現の取得について説明する。音声データ解析部17は、音声データの音響成分(音のテンポや強弱)を解析することにより面接参加者の音響に基づく表出表現を取得する。面接参加者の音響に基づく表出表現とは、発言された音声を分析処理して得られる情報であり、例えば、話す速度、声の大きさ、声の抑揚、声の音域、感情分析、ドッグワードなどを示す情報である。ドッグワードとは、「えー」、「あー」、「あのー」、「そのー」などの意味を有さない言葉のことである。
Next, acquisition of an expression based on the sound of an interview participant will be described. The voice
評価部18は、映像データ解析部16から送信されてくる面接参加者の顔または態度に基づく表出情報と、音声データ解析部17から送信されてくる面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する。
The
具体的には、評価部18は、面接参加者の顔に基づく表出情報の評価と、面接参加者の態度に基づく表出情報の評価と、面接参加者の発言内容に基づく表出表現の評価と、面接参加者の音響に基づく表出表現の評価とを行う。
Specifically, the
また、評価部18は、各表出情報を組み合わせた評価を行ってもよい。例えば、評価部18は、面接参加者の顔に基づく表出情報と、面接参加者の発言内容に基づく表出表現とを組み合わせることにより、ある質問に対する面接参加者の回答時における顔の変化と、発言内容とから、自信のある顔で論理性のある回答を行っているのか、自信のない表情で論理性のある回答を行っているのかを評価することができ、説得力の有無などの評価を行うことができる。
Moreover, the
評価部18は、例えば、面接参加者Aが質問Xに対して、自信のある顔(5段階評価で「5」)で論理性の高い回答(5段階評価で「5」)を行っている場合には、図4中の線Aに示すような描画を行う。線Aが面接参加者Aの評価になる。また、評価部18は、例えば、面接参加者Bが質問Xに対して、自信のない顔(5段階評価で「1」)で論理性の高い回答(5段階評価で「5」)を行っている場合には、図4中の線Bに示すよう描画を行う。線Bが面接参加者Bの評価になる。企業側において、評価部18による評価(図4)を一見するだけで、面接参加者Aの説得力と面接参加者Bの説得力を把握することができる。また、同じ面接参加者Aの中でも、質問に対する回答ごとに、自信と論理性の高さを評価して可視化することもできる。当該評価を見ることで、どの質問に対する回答に自信を持っているか、論理性の高い回答が出来ているかを把握することができる。なお、上述では、横軸の評価項目を「論理性」にし、縦軸の評価項目を「自信」にしたが、これは一例であり、さまざまな評価項目を適用することができる。また、評価は、縦軸と横軸に限らず複数の軸により表現してもよい。
For example, the
また、評価部18は、例えば、5段階評価などで評価を行ってもよい。具体的には、評価部18は、ある質問を行ったときに面接参加者の顔が、真顔から笑顔に変化している場合には、5点の評価を行い、一方、まったく変化しなかった場合には、1点の評価を行う。また、評価部18は、ある質問を行ったときの面接参加者の瞳の大きさ、色、輝き、形などの要素に基づいて、質問に対する興味の度合などを分析し、評価(数値化)を行う。
Moreover, the
このような構成によれば、オンライン面接評価装置1は、オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができる。なお、評価部18で評価された結果は、通信部13を介して外部に送信される。
According to such a configuration, the online
また、オンライン面接評価装置1は、図2に示すように、評価基準記憶部21と、判断部22とを備える構成でもよい。
Further, as shown in FIG. 2, the online
評価基準記憶部21は、評価基準を記憶する。評価基準は、合否の基準であり、図5に示すように、項目に対する評価が示されており、例えば、論理性の評価が5段階で3以上、発言量の評価が5段階評価で2以上などと示されている。
The evaluation
判断部22は、評価部18による評価結果が評価基準記憶部21に記憶されている評価基準を満たしているか否かを判断する。
The
このような構成によれば、オンライン面接評価装置1は、客観的な基準である評価基準に基づいて面接参加者を評価することができる。なお、判断部22で評価された結果は、通信部13を介して外部に送信される。
According to such a configuration, the online
また、オンライン面接評価装置1は、図2に示すように、評価基準を設定する設定部23を備える構成でもよい。設定部23は、設定した評価基準を評価基準記憶部21に記憶させる。
Moreover, as shown in FIG. 2, the online
例えば、企業の人事部の職員がオンライン面接評価装置1にアクセスし、設定部23により企業独自の評価基準を設定することができる。
For example, a staff member of a company's human resources department can access the online
よって、オンライン面接評価装置1は、設定部23により評価基準を自在に設定や変更を行うことができ、評価基準のカスタマイズ性が高いメリットがある。
Therefore, the online
また、オンライン面接評価装置1は、図2に示すように、判断部22により評価基準を満たしていると判断された評価部18により評価された評価結果に基づいて、評価基準を生成する生成部24を備える構成でもよい。
In addition, as shown in FIG. 2, the online
生成部24は、例えば、過去に優秀だと評価された一または複数の面接参加者の評価結果の平均値を算出し、算出した平均値により評価基準を生成する。生成部24は、生成した評価基準を評価基準記憶部21に記憶させる。また、生成部24は、人工知能としての機能を発揮し、過去に優秀だと評価された一または複数の面接参加者の評価結果(以下、過去の評価結果という)を分析し、学習を繰り返しながら評価基準を生成してもよい。なお、生成部24の学習方法は、教師データを用いる教師付き学習でもよいし、教師なし学習でもよい。
For example, the
よって、オンライン面接評価装置1は、過去の面接参加者の評価結果に基づいて面接参加者を評価することができ、偏りのない評価を行うことができる。なお、オンライン面接評価装置1は、生成部24により生成された評価基準の一部を変更できる機能を有していてもよい。
Therefore, the online
ここで、面接データの構成と、映像データ解析部16、音声データ解析部17および評価部18の動作について説明する。
Here, the configuration of the interview data and the operations of the video
面接データには、複数の質問と当該質問に対する回答が含まれており、当該質問の先頭または後尾に区切りを示す区切信号が挿入されている。例えば、図3中のD2に示す例では、挨拶パートの先頭に区切信号S1が挿入され、第1質問パートの先頭に区切信号S2が挿入され、第2質問パートの先頭に区切信号S3が挿入され、第3質問パートの先頭に区切信号S4が挿入されている。なお、区切信号は、面接参加者である面接官によるユーザ端末装置2の操作(例えば、キーボードのエンターキーを操作)に基づいて、区切信号が挿入されてもよいし、面接参加者である面接官の所定の言葉(例えば、「では、次の質問に移ります」など)に基づいて、区切信号が挿入されてもよい。
The interview data includes a plurality of questions and answers to the questions, and a delimiter signal indicating a delimiter is inserted at the head or tail of the question. For example, in the example shown by D2 in FIG. 3, the delimiter signal S1 is inserted at the head of the greeting part, the delimiter signal S2 is inserted at the head of the first question part, and the delimiter signal S3 is inserted at the head of the second question part. The delimiter signal S4 is inserted at the beginning of the third question part. The separation signal may be inserted based on the operation of the
映像データ解析部16は、区切信号に基づいて、映像データを解析処理し、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する。例えば、映像データ解析部16は、挨拶パート、第1質問パート、第2質問パートおよび第3質問パートごとに、面接参加者の顔または態度に基づく表出情報を取得する。
The video
音声データ解析部17は、区切信号に基づいて、音声データを解析処理し、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する。例えば、音声データ解析部17は、挨拶パート、第1質問パート、第2質問パートおよび第3質問パートごとに、面接参加者の発言内容または音響に基づく表出表現を取得する。
The voice
評価部18は、面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとに面接参加者を評価する。例えば、評価部18は、挨拶パート、第1質問パート、第2質問パートおよび第3質問パートごとに、面接参加者を評価する。
The
よって、オンライン面接評価装置1は、区切信号が挿入されている単位で面接参加者の評価を行うことができるので、例えば、質問単位で面接参加者の評価を知ることができる。
Therefore, since the online
また、評価基準記憶部21には、質問ごとの評価基準が記憶される構成でもよい。当該構成の場合には、判断部22は、評価部18による質問ごとの評価結果が評価基準記憶部21に記憶されている質問ごとの評価基準を満たしているか否かによって面接参加者の合否を判断する。
The evaluation
よって、オンライン面接評価装置1は、区切信号が挿入されている単位で面接参加者の評価に基づく判断を行うことができる。
Therefore, the online
<面接参加者が被面接者と面接官である場合>
ここで、面接参加者が被面接者と面接官である場合について説明する。以下では、ユーザ端末装置2aは、被面接者が利用する端末装置であり、ユーザ端末装置2bは、面接官が利用する端末装置である。
<If interviewee is interviewee and interviewer>
Here, the case where an interview participant is an interviewee and an interviewer will be described. Hereinafter, the
受付部11は、被面接者のユーザ端末装置2aと面接官のユーザ端末装置2とから面接のリクエストを受け付ける。
The
認証部12は、受付部11により受け付けた被面接者と面接官の認証を行う。具体的には、受付部11は、ユーザ端末装置2aおよびユーザ端末装置2bから面接のリクエストとともにユーザIDとパスワードを受け付ける。ユーザ情報記憶部19には、予め面接参加者によりユーザ登録が行われたときに入力された登録情報(IDとパスワードなど)が記憶されている。認証部12は、ユーザ情報記憶部19を参照し、送信されてきたユーザIDとパスワードが記憶されている登録情報に一致するものがあるかどうかを判断し、一致した場合に認証を完了する。このとき認証部12は、ユーザ端末装置2aが被面接者の端末装置であり、ユーザ端末装置2bが面接官の端末装置であることを認識する。
The authenticating
通信部13は、認証部12により認証されて面接が開始された場合、被面接者のユーザ端末装置2aから受信したデータを面接官のユーザ端末装置2bに送信し、面接官のユーザ端末装置2bから受信したデータを被面接者のユーザ端末装置2aに送信する。なお、送受信するデータには、映像データと音声データとが含まれている。
When the
被面接者のユーザ端末装置2aにおいては、ディスプレイに面接官の画像が表示され、スピーカから面接官の音声が出力される。なお、ユーザ端末装置2aでは、図6(a)に示すように、面接官のみが表示されるビューや、図6(b)に示すように、面接官と被面接者本人が並んで表示されるビューなどを選択することができる。
In the
同様に、面接官のユーザ端末装置2bにおいては、ディスプレイに被面接者の画像が表示され、スピーカから被面接者の音声が出力される。なお、ユーザ端末装置2bでは、図7(a)に示すように、被面接者のみが表示されるビューや、図7(b)に示すように、面接官自身と被面接者が並んで表示されるビューなどを選択することができる。
Similarly, in the
映像データ解析部16は、分離部15で分離された映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得する。
The video
音声データ解析部17は、分離部15で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得する。
The voice
評価部18は、面接参加者である被面接者の顔または態度に基づく表出情報と、面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する。
The
また、映像データ解析部16は、分離部15で分離された映像データを解析処理して、面接参加者である面接官の顔または態度に基づく表出情報を取得する。面接官の顔に基づく表出情報とは、面接官の表情の変化を示す情報である。映像データ解析部16は、ある質問を行うときや被面接者と会話を行うときなどの面接官の顔が、真顔から笑顔に変化したり、まったく変化しなかったときなどの表情の変化を分析する。また、映像データ解析部16は、例えば、ある質問を行うときや被面接者と会話を行うときなどの面接官の瞳の大きさ、色、輝き、形などの要素を分析する。
In addition, the video
また、面接官の態度に基づく表出情報とは、面接官の顔以外の体の動きや手の動きの変化を示す情報である。映像データ解析部16は、ある質問を行うときや被面接者と会話を行うときなどの面接官の身振りや手振りが大きいか小さいかや、頷く回数などを分析する。
The expression information based on the interviewer's attitude is information indicating changes in body movements and hand movements other than the interviewer's face. The video
音声データ解析部17は、分離部15で分離された音声データを解析処理して、面接参加者である面接官の発言内容または音響に基づく表出表現を取得する。面接官の発言内容に基づく表出表現とは、発言された言葉の意味を分析処理して得られる情報であり、例えば、論理性(論理構造)、発言量、語彙の豊かさ、発言された語彙の難易度などを示す情報である。面接官の音響に基づく表出表現とは、発言された音声を分析処理して得られる情報であり、例えば、話す速度、声の大きさ、声の抑揚、声の音域、感情分析、ドッグワードなどを示す情報である。
The voice
評価部18は、面接参加者である面接官の顔または態度に基づく表出情報と、面接参加者である面接官の発言内容または音響に基づく表出表現とに基づいて面接参加者である面接官を評価する。評価部18は、例えば、面接官による面接が圧迫面接になっていないかや、被面接者とよいコミュニケーションを図れているかなどを評価する。
The
よって、オンライン面接評価装置1は、面接参加者である被面接者のみならず、面接官についても、科学的客観性の高い評価を低コストに行うことができる。
Therefore, the online
ここで、被面接者と面接官との間で行われるオンライン面接の具体例について、図8を用いて説明する。なお、図8中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、参照データ11cは、主に評価基準記憶部21に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。また、参照データ11cは、例えば、企業側の優秀人材の特徴として、言葉の意味的特徴、音声的特徴、表情的特徴および所作的特徴が含まれている。
Here, a specific example of the online interview conducted between the interviewee and the interviewer will be described with reference to FIG. The processing
所定対象アーカイブデータ11aには、オンライン面接によってユーザ端末装置2aとユーザ端末装置2bとの間で送受信されるデータに基づいて、被面接者の発言内容、音声、表情、所作(ふるまい)等のデータと、面接官の発言内容、音声、表情、所作(ふるまい)等のデータとが蓄積される。
The predetermined
処理11bは、参照データ11cを参照し、音声データに基づいて、言葉の意味分析処理と音声分析処理を行い、映像データに基づいて、表情分析処理を行う。
The
言葉の意味分析処理は、参照データ11cの言葉の意味的特徴を参照して、論理性(論理構造)の評価、発言量の評価、語彙の豊かさの評価、語彙の難易度の評価などを行う。
The semantic analysis processing of words refers to semantic characteristics of words in the
音声分析処理は、参照データ11cの音声的特徴を参照して、早さの評価、大きさの評価、抑揚の評価、音域の評価、感情分析の評価、ドッグワードの評価などを行う。
The voice analysis process refers to the voice characteristics of the
表情分析処理は、参照データ11cの表情的特徴を参照して、表情の変化の評価、表情の表出の評価などを行う。また、参照データ11cの所作的特徴を参照して、所作の分析処理も行うことができる。
The facial expression analysis processing refers to facial expression features of the
出力結果11dは、処理11bによる被面接者の処理に基づいて、被面接者が合格する人材か否かなどの判定情報を作成し、企業側に提出する。
Based on the process of the interviewee by the
また、出力結果11dは、処理11bによる面接官の処理に基づいて、面接官の面接が圧迫面接になっていないかや、被面接者とよいコミュニケーションを図れているかなどレポートを作成し、企業側に提出する。
The
よって、オンライン面接評価装置1は、旧来は面接官の主観で行われていた被面接者に対する評価を科学的客観性に基づいて評価することができ、かつ、評価にかかる人的工数を削減することができる。
Therefore, the online
<リアルタイム判定>
つぎに、リアルタイム判定について説明する。評価部18は、面接参加者である被面接者の顔または態度に基づく表出情報と、面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて、質問ごとにリアルタイムに面接参加者を評価する。
<Real time judgment>
Next, real-time determination will be described. The
通信部13は、評価部18による質問ごとの評価結果を面接官のユーザ端末装置2bに送信する。
The
よって、オンライン面接評価装置1は、質問ごとの評価結果をリアルタイムに面接官に通知するので、面接の進行を適応的に変更することができる。例えば、面接官は、評価結果に基づいて、質問の内容を変えたり、面接時間を縮めたり伸ばしたりできる。
Therefore, since the online
ここで、被面接者と面接官との間で行われるオンライン面接において、リアルタイム判定を取り入れた場合の具体例について、図9を用いて説明する。なお、図9中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、参照データ11cは、主に評価基準記憶部21に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。また、参照データ11cは、例えば、優秀人材の標準的特徴として、リアルタイム判定に利用される音声的特徴および表情的特徴が含まれている。
Here, a specific example in which real-time determination is introduced in the online interview performed between the interviewee and the interviewer will be described with reference to FIG. The processing
所定対象アーカイブデータ11aには、オンライン面接によってユーザ端末装置2aとユーザ端末装置2bとの間で送受信されるデータに基づいて、被面接者の発言内容、音声、表情、所作(ふるまい)等のデータが蓄積される。
The predetermined
処理11bは、参照データ11cを参照し、音声データに基づいて、音声分析処理を行行い、映像データに基づいて、表情分析処理を行う。
The
音声分析処理は、参照データ11cの音声的特徴を参照して、早さの評価、大きさの評価、抑揚の評価、音域の評価、感情分析の評価、ドッグワードの評価などを行う。
The voice analysis process refers to the voice characteristics of the
表情分析処理は、参照データ11cの表情的特徴を参照して、表情の変化の評価、表情の表出の評価などを行う。
The facial expression analysis processing refers to facial expression features of the
出力結果11dは、処理11bに基づいて、合否判定の補助となる情報を面接官のユーザ端末装置2bに送信する。
Based on the
よって、オンライン面接評価装置1は、旧来は面接官の主観で行われていた被面接者に対する評価を科学的客観性に基づいて、質問単位でリアルタイムに評価することができ、面接をスムーズに進行させることができる。
Therefore, the online
<面接参加者が被面接者のみである場合(セルフ面接)>
ここで、面接参加者が被面接者のみである場合(セルフ面接)について説明する。セルフ面接とは、流れてくる音声付動画にしたがって回答を行う形式の面接である。なお、被面接者は、セルフ面接をした様子をユーザ端末装置2の録画機能を利用して録画することもできる。被面接者は、録画した内容を再生することにより、次回以降の面接に役立てることができる。
<If the interviewee is the only interviewee (self-interview)>
Here, the case where the interview participant is only the interviewee (self-interview) will be described. The self-interview is an interview in the form of answering according to a moving video with sound. The interviewee can also record the state of the self interview using the recording function of the
受付部11は、被面接者のユーザ端末装置2aから面接のリクエストを受け付ける。認証部12は、受付部11により受け付けた被面接者の認証を行う。通信部13は、認証部12により認証されて面接が開始された場合、被面接者のユーザ端末装置2aからデータを受信し、面接にかかるデータを被面接者のユーザ端末装置2aに送信する。面接にかかるデータとは、予め用意されている質問の映像データと音声データである。
The accepting
映像データ解析部16は、分離部15で分離された映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得する。
The video
音声データ解析部17は、分離部15で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得する。
The voice
評価部18は、面接参加者である被面接者の顔または態度に基づく表出情報と、面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する。
The
よって、オンライン面接評価装置1は、セルフ面接において、科学的客観性の高い評価を低コストに行うことができる。
Therefore, the online
ここで、オンラインのセルフ面接の具体例について、図10を用いて説明する。なお、図10中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、参照データ11cは、主に評価基準記憶部21に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。また、参照データ11cは、例えば、企業側の優秀人材の特徴として、言葉の意味的特徴、音声的特徴、表情的特徴および所作的特徴が含まれている。
Here, a specific example of online self-interview will be described with reference to FIG. The processing
所定対象アーカイブデータ11aには、セルフ面接によってユーザ端末装置2aから送信されてくるデータに基づいて、被面接者の発言内容、音声、表情、所作(ふるまい)等のデータと、面接官の発言内容、音声、表情、所作(ふるまい)等のデータとが蓄積される。
In the predetermined
処理11bは、参照データ11cを参照し、音声データに基づいて、言葉の意味分析処理と音声分析処理を行い、映像データに基づいて、表情分析処理を行う。
The
言葉の意味分析処理は、参照データ11cの言葉の意味的特徴を参照して、論理性(論理構造)の評価、発言量の評価、語彙の豊かさの評価、語彙の難易度の評価などを行う。
The semantic analysis processing of words refers to semantic characteristics of words in the
音声分析処理は、参照データ11cの音声的特徴を参照して、早さの評価、大きさの評価、抑揚の評価、音域の評価、感情分析の評価、ドッグワードの評価などを行う。
The voice analysis process refers to the voice characteristics of the
表情分析処理は、参照データ11cの表情的特徴を参照して、表情の変化の評価、表情の表出の評価などを行う。また、参照データ11cの所作的特徴を参照して、所作の分析処理も行うことができる。
The facial expression analysis processing refers to facial expression features of the
出力結果11dは、処理11bによる被面接者の処理に基づいて、被面接者が合格する人材か否かなどの判定情報を作成し、企業側に提出する。
Based on the process of the interviewee by the
よって、オンライン面接評価装置1は、セルフ面接の結果を科学的客観性に基づいて評価することができ、かつ、評価にかかる人的工数を削減することができる。
Therefore, the online
<語学に関するテストの評価>
オンライン面接評価装置1は、英語などの語学に関するテストの評価に利用することができる。
<Evaluation of language tests>
The online
通信部13は、語学に関するリスニング用のデータを応募者のユーザ端末装置2aに送信する。
The
面接データ生成部14は、通信部13によりユーザ端末装置2aから受信した語学に関するリスニング用のデータに対する応募者の受け答えのデータに基づいて、面接データを生成する。
The interview
映像データ解析部16は、分離部15で分離された映像データを解析処理して、応募者の顔または態度に基づく表出情報を取得する。
The video
音声データ解析部17は、分離部15で分離された音声データを解析処理して、応募者の発言内容または音響に基づく表出表現を取得する。
The voice
評価部18は、応募者の顔または態度に基づく表出情報と、応募者の発言内容または音響に基づく表出表現とに基づいて応募者の語学力を評価する。
The
よって、オンライン面接評価装置1は、発言内容だけでなく、応募者の顔または態度に基づく表出情報と、応募者の発言内容または音響に基づく表出表現とに基づいて面接参加者の語学力を評価するので、声の強弱や、ジェスチャや、顔の表情など、多面的な語学力の評価を行うことができる。
Therefore, the online
ここで、語学に関するテストの評価の具体例について、図11を用いて説明する。なお、図11中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。
Here, a specific example of language test evaluation will be described with reference to FIG. The processing
所定対象アーカイブデータ11aには、応募者のユーザ端末装置2aから送信されてくるデータに基づいて、横暴者の発言内容、音声、表情、所作(ふるまい)等のデータが蓄積される。
Based on the data transmitted from the
処理11bは、音声データに基づいて、音声認識処理を行う。音声認識処理は、応募者がリスニング用のデータを聞いてどのくらい認識しているかを示す認識率の評価、文法の評価、語彙の豊かさの評価、語彙の難易度の評価などを行う。また、処理11bは、映像データに基づいて、表情分析処理などを行ってもよい。
The
出力結果11dは、処理11bによる処理に基づいて、応募者の総合的な語学力の判定結果を作成し、企業側に提出する。
The
よって、オンライン面接評価装置1は、総合的な語学力を有しているか否かについて科学的客観性に基づいて評価することができ、かつ、評価にかかる人的工数を削減することができる。
Therefore, the online
<なりすまし防止機能>
オンライン面接評価装置1は、オンライン面接(特に、セルフ面接や、語学に関するテストなど)を受ける面接参加者の成りすましを防止する機能を有している。
<Spoofing prevention function>
The online
ユーザ情報記憶部19には、ユーザ登録により、予め面接参加者の登録情報(IDとパスワードなど)と顔画像が記憶されている。
In the user
認証部12は、ユーザ情報記憶部19を参照し、ユーザ端末装置2から送信されてくる面接参加者の顔画像に基づく顔認証を行い、一致する顔画像がユーザ情報記憶部19に記憶されている場合、ユーザの認証を行う。
The
よって、オンライン面接評価装置1は、顔認証を行うことにより、オンライン面接による面接参加者の成りすましを防止することができる。
Therefore, the online
つぎに、オンライン面接評価装置1の動作について、図12に示すフローチャートを参照しながら説明する。
Next, the operation of the online
ステップS1において、受付部11は、ユーザ端末装置2から面接のリクエストを受け付ける。
In step S <b> 1, the
ステップS2において、認証部12は、ステップS1の工程により受け付けたユーザの認証を行う。
In step S2, the
ステップS3において、通信部13は、ステップS2の工程により認証されて面接が開始された場合、ユーザ端末装置2との間でデータを送受信する。
In step S <b> 3, the
ステップS4において、ステップS3の工程により送受信されるデータに基づいて、面接データを生成する。 In step S4, interview data is generated based on the data transmitted and received in the process of step S3.
ステップS5において、分離部15は、面接データを映像データと音声データに分離する。
In step S5, the
ステップS6において、映像データ解析部16は、映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する。
In step S <b> 6, the video
ステップS7において、音声データ解析部17は、音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する。
In step S <b> 7, the voice
ステップS8において、評価部18は、面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する。
In step S8, the
よって、オンライン面接評価装置1は、オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができる。
Therefore, the online
また、図13は、ネットワークNを介してオンライン面接を行い、面接参加者を評価するプログラムを実行するコンピュータ500の構成を示すブロック図である。コンピュータ500は、CPU501、主記憶装置502、補助記憶装置503、インタフェース504を備える。
FIG. 13 is a block diagram showing a configuration of a
上述したオンライン面接評価装置1の各構成要素の動作は、プログラムの形式で補助記憶装置503に記憶されている。CPU501は、プログラムを補助記憶装置503から読み出して主記憶装置502に展開し、当該プログラムに従って上記処理を実行する。また、CPU501は、プログラムに従って、上述した記憶部に対応する記憶領域を主記憶装置502に確保する。
The operation of each component of the online
当該プログラムは、具体的には、コンピュータ500に、ユーザ端末装置2から面接のリクエストを受け付ける受付工程と、受付工程により受け付けたユーザの認証を行う認証工程と、認証工程により認証されて面接が開始された場合、ユーザ端末装置2との間でデータを送受信する通信工程と、通信工程により送受信されるデータに基づいて、面接データを生成する面接データ生成工程と、面接データを映像データと音声データに分離する分離工程と、映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価工程と、を実行させるためのプログラムである。
Specifically, the program is received by the
なお、補助記憶装置503は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース504を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムがネットワークNを介してコンピュータ500に配信される場合、配信を受けたコンピュータ500が当該プログラムを主記憶装置502に展開し、上記処理を実行してもよい。
The
また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能を補助記憶装置503に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)
であってもよい。
Further, the program may be for realizing a part of the functions described above. Further, the program realizes the above-described function in combination with another program already stored in the
It may be.
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。 As mentioned above, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof, as long as they are included in the scope and gist of the invention.
1 オンライン面接評価装置、2 ユーザ端末装置、11 受付部、12 認証部、13 通信部、14 面接データ生成部、15 分離部、16 映像データ解析部、17 音声データ解析部、18 評価部、19 ユーザ情報記憶部、20データ記憶部、21 評価基準記憶部、22 判断部、23 設定部、24 生成部、500 コンピュータ、501 CPU、502 主記憶装置、503 補助記憶装置、504 インタフェース、N ネットワーク
DESCRIPTION OF
上記目的を達成するために、本発明の一態様におけるオンライン面接評価装置は、ネットワークを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価装置において、ユーザ端末装置から面接のリクエストを受け付ける受付部と、前記受付部により受け付けたユーザの認証を行う認証部と、前記認証部により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信部と、前記通信部により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成部と、前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析部と、前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析部と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価部と、評価基準を記憶する記憶部と、前記評価部による評価結果が前記記憶部に記憶されている評価基準を満たしているか否かを判断する判断部とを備え、前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されている。 To achieve the above object, an online interview evaluation apparatus according to an aspect of the present invention receives an interview request from a user terminal device in an online interview evaluation apparatus that performs an online interview via a network and evaluates interview participants. A receiving unit, an authenticating unit that authenticates a user received by the receiving unit, a communication unit that transmits and receives data to and from a user terminal device when the user is authenticated by the authenticating unit, and the communication An interview data generation unit that generates interview data for each question based on data transmitted and received by the unit, and an analysis process of the video data related to the interview data, and a table based on the face or attitude of the interview participant for each question and the video data analysis unit for acquiring the output information, and analyzing and processing audio data according to the interview data, interview participants for each question A speech data analysis unit that obtains an expression based on the speech content or sound, an expression information based on the face or attitude of the interview participant, and an expression based on the speech content or sound of the interview participant Based on the semantic features of words, phonetic features, facial features, and evaluation features that evaluate interview participants for each item related to the sculptural features, a storage portion that stores evaluation criteria, and the evaluation portion A determination unit that determines whether or not the evaluation result satisfies an evaluation criterion stored in the storage unit, and the evaluation criterion includes at least a semantic feature, a speech feature, and a facial feature. And the characteristic features .
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する構成でもよい。 Further, in the online interview evaluation apparatus according to one aspect of the present invention, the video data analysis unit performs an analysis process on the video data related to the interview data, and displays based on the face or attitude of the interviewee who is the interview participant. The information is acquired, and the voice data analysis unit analyzes the voice data related to the interview data, acquires a speech expression of the interviewee who is the interview participant or an expression based on sound, and the evaluation unit Is an interview participant based on the expression information based on the face or attitude of the interviewee who is the interview participant and the expression or expression based on the speech content or sound of the interviewee who is the interview participant The structure which evaluates an interviewee may be sufficient.
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である面接官の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である面接官の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である面接官の顔または態度に基づく表出情報と、前記面接参加者である面接官の発言内容または音響に基づく表出表現とに基づいて面接参加者である面接官を評価する構成でもよい。 Further, in the online interview evaluation apparatus according to one aspect of the present invention, the video data analysis unit analyzes the video data related to the interview data and displays information based on the face or attitude of the interviewer who is the interview participant The voice data analysis unit analyzes the voice data related to the interview data, acquires the speech expression of the interviewer who is the interview participant or the expression based on the sound, the evaluation unit, The interviewer who is the interviewer is evaluated based on the expression information based on the face or attitude of the interviewer who is the interview participant and the expression or expression based on the sound of the interviewer who is the interview participant The structure to do may be sufficient.
また、本発明の一態様におけるオンライン面接評価装置では、前記受付部は、前記面接参加者である被面接者のユーザ端末装置から面接のリクエストを受け付け、前記認証部は、前記受付部により受け付けた被面接者の認証を行い、前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置からデータを受信し、面接にかかるデータを被面接者のユーザ端末装置に送信し、前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する構成でもよい。 In the online interview evaluation apparatus according to one aspect of the present invention, the reception unit receives an interview request from the user terminal device of the interviewee who is the interview participant, and the authentication unit receives the request by the reception unit. When the interviewer is authenticated by the authentication unit and receives the data from the user terminal device of the interviewee, the communication unit receives the data of the interviewee, and the interviewee user is authenticated. The video data analysis unit analyzes the video data relating to the interview data, obtains expression information based on the face or attitude of the interviewee who is the interview participant, and transmits the audio data analysis unit, the interview data by analyzing and processing audio data according to obtain the expression based representation the interviewer's speech content or sound an interviewer participants, the evaluation unit, the surface The interviewee who is the interviewer based on the expression information based on the face or attitude of the interviewee who is the participant and the expression content or sound expression of the interviewee who is the interviewee The structure to evaluate may be sufficient.
上記目的を達成するために、本発明の一態様におけるオンライン面接評価方法は、ネットワークを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価方法において、ユーザ端末装置から面接のリクエストを受け付ける受付工程と、前記受付工程により受け付けたユーザの認証を行う認証工程と、前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、前記通信工程により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成工程と、前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価工程と、前記評価工程による評価結果が記憶部に記憶されている評価基準を満たしているか否かを判断する判断工程とを備え、前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されている。 In order to achieve the above object, an online interview evaluation method according to an aspect of the present invention is an online interview evaluation method for performing an online interview via a network and evaluating an interview participant, and accepts an interview request from a user terminal device. A receiving step, an authenticating step for authenticating a user accepted in the accepting step, a communication step for transmitting / receiving data to / from a user terminal device when authenticated by the authenticating step and an interview is started, and the communication An interview data generation step for generating interview data for each question based on data transmitted and received in the process, and a table based on the face or attitude of the interview participant for each question by analyzing the video data related to the interview data a video data analyzing step of acquiring output information, analyzes processing audio data according to the interview data, quality And voice data analysis step of acquiring the expressive representation based on speech content or sound of the interview participants in each, and expression information based on the face or the attitude of the interview participants, based on speech content or sound of the interview participants Based on the expressed expression, an evaluation process for evaluating the interview participant for each item related to the semantic characteristics, speech characteristics, facial expression characteristics, and aesthetic features of the words, and the evaluation results by the evaluation process are stored. A judgment step for judging whether or not the evaluation criteria stored in the section are satisfied , wherein the evaluation criteria include at least a semantic feature of words, a voice feature, a facial feature, and an artistic feature. It consists of and .
上記目的を達成するために、本発明の一態様におけるオンライン面接評価プログラムは、ネットワークを介してオンライン面接を行い、面接参加者を評価するプログラムにおいて、コンピュータに、ユーザ端末装置から面接のリクエストを受け付ける受付工程と、前記受付工程により受け付けたユーザの認証を行う認証工程と、前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、前記通信工程により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成工程と、前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価工程と、前記評価工程による評価結果が記憶部に記憶されている評価基準を満たしているか否かを判断する判断工程と、実行させるためのプログラムであって、前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されている。 In order to achieve the above object, an online interview evaluation program according to an aspect of the present invention performs an online interview via a network and accepts an interview request from a user terminal device to a computer in a program for evaluating an interview participant. A receiving step, an authenticating step for authenticating a user accepted in the accepting step, a communication step for transmitting / receiving data to / from a user terminal device when authenticated by the authenticating step and an interview is started, and the communication An interview data generation step for generating interview data for each question based on data transmitted and received in the process, and a table based on the face or attitude of the interview participant for each question by analyzing the video data related to the interview data A video data analysis process for obtaining the output information, and an audio process for the interview data. To, and voice data analysis step of acquiring the expressive representation based on speech content or sound of the interview participants for each question, and expression information based on the face or the attitude of the interview participants, the speech content of the interview participants Or an evaluation process for evaluating interviewees for each item relating to semantic features, phonetic features, facial features, and artistic features of words based on expression based on sound, and the evaluation step A determination step for determining whether or not an evaluation result satisfies an evaluation criterion stored in a storage unit, and a program for executing the evaluation method, wherein the evaluation criterion includes at least a semantic feature of a word, an audio It consists of features, facial features, and artistic features .
Claims (18)
ユーザ端末装置から面接のリクエストを受け付ける受付部と、
前記受付部により受け付けたユーザの認証を行う認証部と、
前記認証部により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信部と、
前記通信部により送受信されるデータに基づいて、面接データを生成する面接データ生成部と、
前記面接データにかかる映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析部と、
前記面接データにかかる音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析部と、
前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価部とを備えるオンライン面接評価装置。 In an online interview evaluation device that conducts online interviews via a network and evaluates interview participants,
A reception unit that receives an interview request from the user terminal device;
An authentication unit for authenticating a user received by the reception unit;
When the interview is started after being authenticated by the authentication unit, a communication unit that transmits and receives data to and from the user terminal device;
An interview data generation unit that generates interview data based on data transmitted and received by the communication unit;
Analyzing the video data related to the interview data, and obtaining the expression information based on the face or attitude of the interview participant,
An audio data analysis unit that performs analysis processing on audio data related to the interview data, and obtains an expression expressed based on the speech content or sound of the interview participant;
An online interview evaluation apparatus comprising: an evaluation unit that evaluates an interview participant based on expression information based on the face or attitude of the interview participant and an expression based on the content of the interview participant's speech or sound.
前記評価部による評価結果が前記記憶部に記憶されている評価基準を満たしているか否かを判断する判断部とを備える請求項1記載のオンライン面接評価装置。 A storage unit for storing evaluation criteria;
The online interview evaluation apparatus according to claim 1, further comprising: a determination unit that determines whether or not an evaluation result by the evaluation unit satisfies an evaluation criterion stored in the storage unit.
前記音声データ解析部は、音声データをテキストデータに変換し、変換したテキストデータを解析することにより前記面接参加者の発言内容に基づく表出表現を取得し、音声データの音響成分を解析することにより前記面接参加者の音響に基づく表出表現を取得する請求項1から5のいずれか一項に記載のオンライン面接評価装置。 The video data analysis unit obtains expression information based on the interview participant's face by analyzing the facial expression or pupil of the interview participant, and analyzes the interview participant's behavior to analyze the interview participant's attitude. To obtain an expression based on
The voice data analysis unit converts voice data into text data, analyzes the converted text data, obtains an expression based on the content of the interview participant's speech, and analyzes an acoustic component of the voice data The online interview evaluation apparatus according to any one of claims 1 to 5, wherein a representation expression based on the sound of the interview participant is acquired by the method.
前記映像データ解析部は、前記区切信号に基づいて、前記映像データを解析処理し、質問ごとに面接参加者の顔または態度に基づく表出情報を取得し、
前記音声データ解析部は、前記区切信号に基づいて、前記音声データを解析処理し、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得し、
前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとに面接参加者を評価する請求項1から6のいずれか一項に記載のオンライン面接評価装置。 The interview data includes a plurality of questions and answers to the questions, and a delimiter signal indicating a delimiter is inserted at the beginning or tail of the question,
The video data analysis unit performs analysis processing on the video data based on the separation signal, obtains expression information based on the face or attitude of the interview participant for each question,
The voice data analysis unit performs analysis processing on the voice data based on the break signal, and obtains an expression based on the speech content or sound of the interview participant for each question,
The said evaluation part evaluates an interview participant for every question based on the expression information based on the said interview participant's face or attitude, and the expression of expression based on the speech content or sound of the interview participant. The on-line interview evaluation apparatus as described in any one of 1-6.
前記判断部は、前記評価部による質問ごとの評価結果が前記記憶部に記憶されている質問ごとの評価基準を満たしているか否かによって面接参加者の合否を判断する請求項2から7のいずれか一項に記載のオンライン面接評価装置。 The storage unit stores evaluation criteria for each question,
8. The determination unit according to claim 2, wherein the determination unit determines whether the interview participant is accepted or not based on whether an evaluation result for each question by the evaluation unit satisfies an evaluation criterion for each question stored in the storage unit. The online interview evaluation apparatus according to claim 1.
前記認証部は、前記受付部により受け付けた被面接者と面接官の認証を行い、
前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置から受信したデータを面接官のユーザ端末装置に送信し、面接官のユーザ端末装置から受信したデータを被面接者のユーザ端末装置に送信する請求項1から8のいずれか一項に記載のオンライン面接評価装置。 The reception unit receives an interview request from the user terminal device of the interviewee who is the interview participant and the user terminal device of the interviewer who is the interview participant,
The authentication unit authenticates the interviewee and the interviewer received by the reception unit,
The communication unit transmits data received from the user terminal device of the interviewee to the user terminal device of the interviewer and received from the user terminal device of the interviewer when the interview is started after being authenticated by the authentication unit. The online interview evaluation device according to any one of claims 1 to 8, wherein the data is transmitted to a user terminal device of the interviewee.
前記音声データ解析部は、前記分離部で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、
前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する請求項9記載のオンライン面接評価装置。 The video data analysis unit analyzes the video data separated by the separation unit, and obtains display information based on the face or attitude of the interviewee who is the interview participant,
The voice data analysis unit performs an analysis process on the voice data separated by the separation unit, and obtains an expression based on the speech content or sound of the interviewee who is the interview participant,
The evaluation unit participates in the interview based on the expression information based on the face or attitude of the interviewee who is the interview participant, and the expression expressed based on the speech content or sound of the interviewee who is the interview participant. The on-line interview evaluation apparatus according to claim 9, wherein the interviewee who is a person is evaluated.
前記音声データ解析部は、前記分離部で分離された音声データを解析処理して、面接参加者である面接官の発言内容または音響に基づく表出表現を取得し、
前記評価部は、前記面接参加者である面接官の顔または態度に基づく表出情報と、前記面接参加者である面接官の発言内容または音響に基づく表出表現とに基づいて面接参加者である面接官を評価する請求項9または10記載のオンライン面接評価装置。 The video data analysis unit performs analysis processing on the video data separated by the separation unit, and obtains display information based on the face or attitude of the interviewer who is the interview participant,
The voice data analysis unit performs an analysis process on the voice data separated by the separation unit, and obtains an expression based on the speech content or sound of the interviewer who is the interview participant,
The evaluation unit is an interview participant based on the expression information based on the face or attitude of the interviewer who is the interview participant, and the content expressed by the interviewer who is the interview participant or the expression based on the sound. The on-line interview evaluation apparatus according to claim 9 or 10, wherein a certain interviewer is evaluated.
前記通信部は、前記評価部による質問ごとの評価結果を面接官のユーザ端末装置に送信する請求項9記載のオンライン面接評価装置。 The evaluation unit evaluates the interview participant in real time for each question based on the expression information based on the face or attitude of the interview participant and the expression of the interview participant's remarks or sound,
The online interview evaluation device according to claim 9, wherein the communication unit transmits an evaluation result for each question by the evaluation unit to a user terminal device of an interviewer.
前記認証部は、前記受付部により受け付けた被面接者の認証を行い、
前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置からデータを受信し、面接にかかるデータを被面接者のユーザ端末装置に送信し、
前記映像データ解析部は、前記分離部で分離された映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、
前記音声データ解析部は、前記分離部で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、
前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する請求項1から8のいずれか一項に記載のオンライン面接評価装置。 The reception unit receives an interview request from a user terminal device of an interviewee who is the interview participant,
The authentication unit authenticates the interviewee received by the reception unit,
The communication unit receives data from the user terminal device of the interviewee when the interview is started after being authenticated by the authentication unit, and transmits the data related to the interview to the user terminal device of the interviewee,
The video data analysis unit analyzes the video data separated by the separation unit, and obtains display information based on the face or attitude of the interviewee who is the interview participant,
The voice data analysis unit performs an analysis process on the voice data separated by the separation unit, and obtains an expression based on the speech content or sound of the interviewee who is the interview participant,
The evaluation unit participates in the interview based on the expression information based on the face or attitude of the interviewee who is the interview participant, and the expression expressed based on the speech content or sound of the interviewee who is the interview participant. The online interview evaluation apparatus according to any one of claims 1 to 8, wherein an interviewee who is a person is evaluated.
前記面接データ生成部は、前記通信部によりユーザ端末装置から受信した前記語学に関するリスニング用のデータに対するユーザの受け答えのデータに基づいて、面接データを生成し、
前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者の語学力を評価する請求項13記載のオンライン面接評価装置。 The communication unit transmits listening data related to language to the user terminal device,
The interview data generation unit generates interview data based on user's answer data for listening data related to the language received from the user terminal device by the communication unit,
The evaluation unit evaluates the language ability of the interview participant based on the expression information based on the face or attitude of the interview participant and the expression expressed based on the speech content or sound of the interview participant. The online interview evaluation device described.
ユーザ端末装置から面接のリクエストを受け付ける受付工程と、
前記受付工程により受け付けたユーザの認証を行う認証工程と、
前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、
前記通信工程により送受信されるデータに基づいて、面接データを生成する面接データ生成工程と、
前記面接データにかかる映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、
前記面接データにかかる音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、
前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価工程とを備えるオンライン面接評価方法。 In an online interview evaluation method that conducts online interviews via a network and evaluates interview participants,
An accepting step of accepting an interview request from the user terminal device;
An authentication step for authenticating the user received by the reception step;
When the interview is started after being authenticated by the authentication step, a communication step of transmitting / receiving data to / from the user terminal device,
Based on the data transmitted and received in the communication step, an interview data generation step for generating interview data;
Video data analysis step of analyzing the video data related to the interview data to obtain expression information based on the face or attitude of the interview participant;
A voice data analysis step of analyzing voice data related to the interview data and obtaining an expression based on the speech content or sound of the interview participant;
An online interview evaluation method comprising: an evaluation step of evaluating an interview participant based on expression information based on the face or attitude of the interview participant and an expression based on speech content or sound of the interview participant.
コンピュータに、
ユーザ端末装置から面接のリクエストを受け付ける受付工程と、
前記受付工程により受け付けたユーザの認証を行う認証工程と、
前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、
前記通信工程により送受信されるデータに基づいて、面接データを生成する面接データ生成工程と、
前記面接データにかかる映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、
前記面接データにかかる音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、
前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価工程と、を実行させるためのプログラム。 In a program that conducts online interviews over a network and evaluates interview participants,
On the computer,
An accepting step of accepting an interview request from the user terminal device;
An authentication step for authenticating the user received by the reception step;
When the interview is started after being authenticated by the authentication step, a communication step of transmitting / receiving data to / from the user terminal device,
Based on the data transmitted and received in the communication step, an interview data generation step for generating interview data;
Video data analysis step of analyzing the video data related to the interview data to obtain expression information based on the face or attitude of the interview participant;
A voice data analysis step of analyzing voice data related to the interview data and obtaining an expression based on the speech content or sound of the interview participant;
The program for performing the evaluation process which evaluates an interview participant based on the expression information based on the said interview participant's face or attitude, and the expression of the interview participant's utterance content or sound.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016113270A JP6042015B1 (en) | 2016-06-07 | 2016-06-07 | Online interview evaluation apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016113270A JP6042015B1 (en) | 2016-06-07 | 2016-06-07 | Online interview evaluation apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6042015B1 JP6042015B1 (en) | 2016-12-14 |
JP2017219989A true JP2017219989A (en) | 2017-12-14 |
Family
ID=57543794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016113270A Active JP6042015B1 (en) | 2016-06-07 | 2016-06-07 | Online interview evaluation apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6042015B1 (en) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159586A (en) * | 2018-03-09 | 2019-09-19 | 株式会社エヌ・ティ・ティ・データ | Impression derivation system, impression derivation method and impression derivation program |
CN110648104A (en) * | 2019-08-01 | 2020-01-03 | 北京天麦有一网络科技有限公司 | Intelligent human resource screening system and method |
JP2020086984A (en) * | 2018-11-27 | 2020-06-04 | 大日本印刷株式会社 | Selection support device, selection support system, selection support method and program |
JP2020091735A (en) * | 2018-12-06 | 2020-06-11 | 株式会社Agsコンサルティング | Program, information processing device, and information processing method |
KR20200092460A (en) * | 2019-01-07 | 2020-08-04 | 주식회사 제네시스랩 | Interview Preparation Service Providing Method, System and Computer-readable Medium Using Machine Learning |
KR20200092512A (en) * | 2019-01-15 | 2020-08-04 | 주식회사 제네시스랩 | Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning |
JP2020144550A (en) * | 2019-03-05 | 2020-09-10 | 株式会社オープンクラウド | Recruitment selection system |
KR20210012505A (en) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR20210012500A (en) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | Interview Automatic Evaluation Model Learning Method, System and Computer-readable Medium |
JP2021026686A (en) * | 2019-08-08 | 2021-02-22 | 株式会社スタジアム | Character display device, character display method, and program |
KR102261673B1 (en) * | 2020-01-21 | 2021-06-07 | 주식회사 제네시스랩 | Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof |
KR102267086B1 (en) * | 2021-02-03 | 2021-06-18 | (주)한국혁신연구원 | System of suitable job recruiting using artificial intelligence including function of preventing unfair recruitment based on blockchain |
WO2022010255A1 (en) * | 2020-07-10 | 2022-01-13 | 주식회사 제네시스랩 | Method, system, and computer-readable medium for deriving in-depth questions for automated evaluation of interview video by using machine learning model |
KR20220007189A (en) * | 2020-07-10 | 2022-01-18 | 주식회사 제네시스랩 | Methods, Systems and Computer-Readable Medium for Automated Evaluation of Interview Videos using Machine Learning Model |
JP2022517204A (en) * | 2019-01-07 | 2022-03-07 | ジェネシス ラボ インコーポレイテッド | How to manage the interview video automatic evaluation model, system, and computer readable media |
US20220172147A1 (en) * | 2020-11-27 | 2022-06-02 | Talview Inc | System and method for facilitating an interviewing process |
KR20220080401A (en) * | 2020-12-07 | 2022-06-14 | 이상록 | Methord and device of performing ai interview for foreigners |
WO2022201405A1 (en) * | 2021-03-24 | 2022-09-29 | 株式会社Global Ride | Human resources recruitment assistance system |
WO2022230155A1 (en) * | 2021-04-29 | 2022-11-03 | 株式会社I’mbesideyou | Video analysis system |
WO2022230049A1 (en) * | 2021-04-27 | 2022-11-03 | 株式会社I’mbesideyou | Video analysis system |
WO2022230050A1 (en) * | 2021-04-27 | 2022-11-03 | 株式会社I’mbesideyou | Video analysis system |
WO2022254491A1 (en) * | 2021-05-31 | 2022-12-08 | 株式会社I’mbesideyou | Video analysis system |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6927495B2 (en) * | 2017-12-12 | 2021-09-01 | 株式会社テイクアンドシー | Person evaluation equipment, programs, and methods |
CN109948438A (en) * | 2019-02-12 | 2019-06-28 | 平安科技(深圳)有限公司 | Automatic interview methods of marking, device, system, computer equipment and storage medium |
CN112232101A (en) * | 2019-07-15 | 2021-01-15 | 北京正和思齐数据科技有限公司 | User communication state evaluation method, device and system |
CN112418779A (en) * | 2020-10-30 | 2021-02-26 | 济南浪潮高新科技投资发展有限公司 | Online self-service interviewing method based on natural language understanding |
CN115495418A (en) * | 2022-10-11 | 2022-12-20 | 英仕互联(北京)信息技术有限公司 | Data processing method and device for video interview information and electronic equipment |
CN118014545A (en) * | 2024-02-19 | 2024-05-10 | 海安新知人工智能科技有限公司 | Recruitment interview AI scoring algorithm |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4454704B2 (en) * | 1997-02-04 | 2010-04-21 | 株式会社ニコン | Image processing device |
JP2001338106A (en) * | 2000-05-26 | 2001-12-07 | Tokio Marine & Fire Insurance Co Ltd | Employment supporting system |
JP2001350904A (en) * | 2000-06-07 | 2001-12-21 | Canon Inc | Electronic equipment and electronic equipment system for business |
JP2002199364A (en) * | 2000-12-26 | 2002-07-12 | Ines Corp | Explanatory meeting televising method, its system, information managing agent network and its recording medium |
JP2003122890A (en) * | 2001-10-16 | 2003-04-25 | Hochiki Corp | Consultation information processing device, consultation information processing method and program |
JP2004046482A (en) * | 2002-07-11 | 2004-02-12 | Yoichiro Saito | Recruitment system and recruitment method |
JP2004112518A (en) * | 2002-09-19 | 2004-04-08 | Takenaka Komuten Co Ltd | Information providing apparatus |
TW200423696A (en) * | 2003-02-04 | 2004-11-01 | Ginganet Corp | Remote interview system |
JP2006267465A (en) * | 2005-03-23 | 2006-10-05 | Tokyo Electric Power Co Inc:The | Uttering condition evaluating device, uttering condition evaluating program, and program storage medium |
JP4621983B2 (en) * | 2005-10-07 | 2011-02-02 | 株式会社デンソー | Automotive user hospitality system |
JP2008294952A (en) * | 2007-05-28 | 2008-12-04 | Mitsubishi Electric Corp | Digital broadcast receiving apparatus |
JP5171437B2 (en) * | 2008-07-02 | 2013-03-27 | 株式会社ダイセル | Recruitment support system and recruitment support program |
JP2010139695A (en) * | 2008-12-11 | 2010-06-24 | Jagat Kk | Voice examination system |
JP5445981B2 (en) * | 2009-10-09 | 2014-03-19 | 渡 倉島 | Viewer feeling judgment device for visually recognized scene |
JP6132719B2 (en) * | 2013-09-18 | 2017-05-24 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
JPWO2015122195A1 (en) * | 2014-02-17 | 2017-03-30 | Necソリューションイノベータ株式会社 | Impression analysis device, game device, health management device, advertisement support device, impression analysis system, impression analysis method, and program |
-
2016
- 2016-06-07 JP JP2016113270A patent/JP6042015B1/en active Active
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7138456B2 (en) | 2018-03-09 | 2022-09-16 | 株式会社エヌ・ティ・ティ・データ | Impression derivation system, impression derivation method and impression derivation program |
JP2019159586A (en) * | 2018-03-09 | 2019-09-19 | 株式会社エヌ・ティ・ティ・データ | Impression derivation system, impression derivation method and impression derivation program |
JP2020086984A (en) * | 2018-11-27 | 2020-06-04 | 大日本印刷株式会社 | Selection support device, selection support system, selection support method and program |
JP2020091735A (en) * | 2018-12-06 | 2020-06-11 | 株式会社Agsコンサルティング | Program, information processing device, and information processing method |
JP7333404B2 (en) | 2019-01-07 | 2023-08-24 | ジェネシス ラボ インコーポレイテッド | Methods, Systems, and Computer-Readable Media for Managing Interview Video Automated Rating Models |
KR20200092460A (en) * | 2019-01-07 | 2020-08-04 | 주식회사 제네시스랩 | Interview Preparation Service Providing Method, System and Computer-readable Medium Using Machine Learning |
JP2022517204A (en) * | 2019-01-07 | 2022-03-07 | ジェネシス ラボ インコーポレイテッド | How to manage the interview video automatic evaluation model, system, and computer readable media |
KR102236720B1 (en) * | 2019-01-07 | 2021-04-06 | 주식회사 제네시스랩 | Interview Preparation Service Providing Method, System and Computer-readable Medium Using Machine Learning |
KR102255836B1 (en) * | 2019-01-15 | 2021-05-25 | 주식회사 제네시스랩 | Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning |
KR20200092512A (en) * | 2019-01-15 | 2020-08-04 | 주식회사 제네시스랩 | Online Interview Providing Method, System and Computer-readable Medium Using Machine Learning |
JP2020144550A (en) * | 2019-03-05 | 2020-09-10 | 株式会社オープンクラウド | Recruitment selection system |
KR102297948B1 (en) * | 2019-07-25 | 2021-09-03 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR102397112B1 (en) * | 2019-07-25 | 2022-05-12 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR102258636B1 (en) * | 2019-07-25 | 2021-05-31 | 주식회사 제네시스랩 | Interview Automatic Evaluation Model Learning Method, System and Computer-readable Medium |
KR20210012505A (en) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR20210107601A (en) * | 2019-07-25 | 2021-09-01 | 주식회사 제네시스랩 | Managing Method, System and Computer-readable Medium for Interview Automatic Evaluation Model |
KR20210012500A (en) * | 2019-07-25 | 2021-02-03 | 주식회사 제네시스랩 | Interview Automatic Evaluation Model Learning Method, System and Computer-readable Medium |
CN110648104A (en) * | 2019-08-01 | 2020-01-03 | 北京天麦有一网络科技有限公司 | Intelligent human resource screening system and method |
JP2021026686A (en) * | 2019-08-08 | 2021-02-22 | 株式会社スタジアム | Character display device, character display method, and program |
KR102261673B1 (en) * | 2020-01-21 | 2021-06-07 | 주식회사 제네시스랩 | Method for Providing Recruit Information Using Machine Learning Model and Computer-readable Medium Thereof |
WO2022010255A1 (en) * | 2020-07-10 | 2022-01-13 | 주식회사 제네시스랩 | Method, system, and computer-readable medium for deriving in-depth questions for automated evaluation of interview video by using machine learning model |
KR20220007189A (en) * | 2020-07-10 | 2022-01-18 | 주식회사 제네시스랩 | Methods, Systems and Computer-Readable Medium for Automated Evaluation of Interview Videos using Machine Learning Model |
KR20220007193A (en) * | 2020-07-10 | 2022-01-18 | 주식회사 제네시스랩 | Methods, Systems and Computer-Readable Medium for Deriving In-Depth Questions for Automated Evaluation of Interview Videos using Machine Learning Model |
KR102407212B1 (en) | 2020-07-10 | 2022-06-10 | 주식회사 제네시스랩 | Methods, Systems and Computer-Readable Medium for Automated Evaluation of Interview Videos using Machine Learning Model |
KR102475524B1 (en) * | 2020-07-10 | 2022-12-08 | 주식회사 제네시스랩 | Methods, Systems and Computer-Readable Medium for Deriving In-Depth Questions for Automated Evaluation of Interview Videos using Machine Learning Model |
US20220172147A1 (en) * | 2020-11-27 | 2022-06-02 | Talview Inc | System and method for facilitating an interviewing process |
KR20220080401A (en) * | 2020-12-07 | 2022-06-14 | 이상록 | Methord and device of performing ai interview for foreigners |
KR102523808B1 (en) | 2020-12-07 | 2023-04-21 | 이상록 | Methord and device of performing ai interview for foreigners |
KR102267086B1 (en) * | 2021-02-03 | 2021-06-18 | (주)한국혁신연구원 | System of suitable job recruiting using artificial intelligence including function of preventing unfair recruitment based on blockchain |
WO2022201405A1 (en) * | 2021-03-24 | 2022-09-29 | 株式会社Global Ride | Human resources recruitment assistance system |
WO2022230049A1 (en) * | 2021-04-27 | 2022-11-03 | 株式会社I’mbesideyou | Video analysis system |
WO2022230050A1 (en) * | 2021-04-27 | 2022-11-03 | 株式会社I’mbesideyou | Video analysis system |
WO2022230155A1 (en) * | 2021-04-29 | 2022-11-03 | 株式会社I’mbesideyou | Video analysis system |
WO2022254491A1 (en) * | 2021-05-31 | 2022-12-08 | 株式会社I’mbesideyou | Video analysis system |
Also Published As
Publication number | Publication date |
---|---|
JP6042015B1 (en) | 2016-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6042015B1 (en) | Online interview evaluation apparatus, method and program | |
US11216784B2 (en) | Systems and methods for automating validation and quantification of interview question responses | |
US20170270930A1 (en) | Voice tallying system | |
US20040186743A1 (en) | System, method and software for individuals to experience an interview simulation and to develop career and interview skills | |
US20170213190A1 (en) | Method and system for analysing subjects | |
US20220231873A1 (en) | System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation | |
US11699043B2 (en) | Determination of transcription accuracy | |
Braun | You are just a disembodied voice really | |
JP4077656B2 (en) | Speaker specific video device | |
JP7334913B2 (en) | Interview support system | |
JP6570465B2 (en) | Program, apparatus, and method capable of estimating participant's contribution by key words | |
JP2017191531A (en) | Communication system, server, and communication method | |
JP2022531994A (en) | Generation and operation of artificial intelligence-based conversation systems | |
WO2021171613A1 (en) | Server device, conference assistance system, conference assistance method, and program | |
JP2023097789A (en) | Video conference analysis system and video conference analysis program | |
Rasipuram et al. | A comprehensive evaluation of audio-visual behavior in various modes of interviews in the wild | |
Hoegen et al. | Exploring the Function of Expressions in Negotiation: The DyNego-WOZ Corpus | |
JP2018063352A (en) | Frame-selecting apparatus, frame-selecting method, and program | |
US20240202634A1 (en) | Dialogue training device, dialogue training system, dialogue training method, and computer-readable medium | |
JP7163968B2 (en) | SERVER DEVICE, CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD AND PROGRAM | |
JP7440844B2 (en) | Information processing equipment and programs | |
JP7231301B2 (en) | Online meeting support system and online meeting support program | |
JP7313518B1 (en) | Evaluation method, evaluation device, and evaluation program | |
JP2022139436A (en) | Conference support device, conference support system, conference support method, and program | |
US20240029474A1 (en) | Person evaluation information generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6042015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |