JP6042015B1 - オンライン面接評価装置、方法およびプログラム - Google Patents

オンライン面接評価装置、方法およびプログラム Download PDF

Info

Publication number
JP6042015B1
JP6042015B1 JP2016113270A JP2016113270A JP6042015B1 JP 6042015 B1 JP6042015 B1 JP 6042015B1 JP 2016113270 A JP2016113270 A JP 2016113270A JP 2016113270 A JP2016113270 A JP 2016113270A JP 6042015 B1 JP6042015 B1 JP 6042015B1
Authority
JP
Japan
Prior art keywords
interview
evaluation
unit
participant
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016113270A
Other languages
English (en)
Other versions
JP2017219989A (ja
Inventor
健実 小宮
健実 小宮
鈴木 洋平
洋平 鈴木
瑞穂 菊池
瑞穂 菊池
Original Assignee
株式会社採用と育成研究社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社採用と育成研究社 filed Critical 株式会社採用と育成研究社
Priority to JP2016113270A priority Critical patent/JP6042015B1/ja
Application granted granted Critical
Publication of JP6042015B1 publication Critical patent/JP6042015B1/ja
Publication of JP2017219989A publication Critical patent/JP2017219989A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができるオンライン面接評価装置、方法およびプログラムを提供する。【解決手段】ユーザ端末装置2から面接のリクエストを受け付ける受付部11と、ユーザの認証を行う認証部12と、ユーザ端末装置2との間でデータを送受信する通信部13と、通信部13により送受信されるデータに基づいて、面接データを生成する面接データ生成部14と、面接データにかかる映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析部16と、面接データにかかる音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析部17と、面接参加者の表出表現に基づいて面接参加者を評価する評価部18とを備える。【選択図】図2

Description

本発明は、オンライン面接により面接参加者の評価を行うオンライン面接評価装置、方法およびプログラムに関する。
求人企業の採用試験(特に面接試験)を受ける場合、求職者は、求人企業から通知された情報(試験会場、集合時間など)にしたがって、試験会場に行く必要がある。
かかる採用試験は、地理的または時間的な制約があり、求職者にとって非常に負担が大きい。特に、多くの企業が集中している首都圏の会社に地方に在住している求職者が採用試験を受けに行く場合などにおいて、移動などの負担が大きい。一方、求人企業にとっても、試験会場や面接官以外の誘導員などの人員を確保しなければならず、負担が大きい。
そこで、最近は、ネットワークを利用して面接を行うオンライン面接が脚光を浴びている。オンライン面接を利用すれば、求職者にとっては、地理的、時間的な制約が解消されるメリットがあり、求人企業にとっては、試験会場を確保する手間とコストを削減でき、かつ、人員も削減できるなどのメリットがある。
例えば、特許文献1では、ネットワークを介して求職者と求人企業との仲介サービスを行なうサーバコンピュータの人材仲介プログラムにおいて、そのコンピュータに、求職者側端末装置と求人企業側端末装置とをネットワークを介して接続することにより、オンライン面接を行う技術が開示されている。さらに、特許文献1では、オンライン面接により面接記録情報を取得し、この面接記録情報を解析し、予め設定したキーワードが出現した出現回数を算出し、この出現回数に基づいて、求人企業の判定基準に合致するか否かを判定し、この判定の結果を求人企業に通知処理する技術が開示されている。
特開2004−288107号公報
しかし、特許文献1による技術では、単に、面接記録情報を解析し、予め設定されているキーワードの出現回数に基づいて求人企業の判定基準に合致しているか否かの判定を行っているだけであり、機械的な判定に過ぎず、優秀な人材を確保することが困難な可能性がある。
一方、オンライン面接を利用して、面接官自身が求職者を評価する場合、通常の対面式の面接と同様に、求職者の熱意や人間性に基づいた評価を行うことが可能であるが、求職者の評価に対面式の面接と同様の人材およびコストがかかってしまう。また、求職者の評価が面接官の主観によって行われ、科学的客観性が低くなる可能性がある。
そこで、本願発明では、オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができるオンライン面接評価装置、方法およびプログラムを提供することを目的とする。
上記目的を達成するために、本発明の一態様におけるオンライン面接評価装置は、ネットワークを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価装置において、ユーザ端末装置から面接のリクエストを受け付ける受付部と、前記受付部により受け付けたユーザの認証を行う認証部と、前記認証部により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信部と、前記通信部により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成部と、前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析部と、前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析部と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価部と、評価基準を記憶する記憶部と、前記評価部による評価結果が前記記憶部に記憶されている評価基準を満たしているか否かを判断する判断部とを備え、前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されている
また、本発明の一態様におけるオンライン面接評価装置では、前記評価基準を設定する設定部を備える構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記評価部による過去の評価結果の中から、前記判断部により前記評価基準を満たしていると判断された評価結果に基づいて、前記評価基準を生成する生成部を備える構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、面接参加者の表情または瞳を解析することにより前記面接参加者の顔に基づく表出情報を取得し、面接参加者の所作を解析することにより前記面接参加者の態度に基づく表出表現を取得し、前記音声データ解析部は、音声データをテキストデータに変換し、変換したテキストデータを解析することにより前記面接参加者の発言内容に基づく表出表現を取得し、音声データの音響成分を解析することにより前記面接参加者の音響に基づく表出表現を取得する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記面接データには、複数の質問と当該質問に対する回答が含まれており、当該質問の先頭または後尾に区切りを示す区切信号が挿入されており、前記映像データ解析部は、前記区切信号に基づいて、前記映像データを解析処理し、質問ごとに面接参加者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記区切信号に基づいて、前記音声データを解析処理し、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとに面接参加者を評価する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記記憶部には、質問ごとの評価基準が記憶されており、前記判断部は、前記評価部による質問ごとの評価結果が前記記憶部に記憶されている質問ごとの評価基準を満たしているか否かによって面接参加者の合否を判断する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記受付部は、前記面接参加者である被面接者のユーザ端末装置と、前記面接参加者である面接官のユーザ端末装置とから面接のリクエストを受け付け、前記認証部は、前記受付部により受け付けた被面接者と面接官の認証を行い、前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置から受信したデータを面接官のユーザ端末装置に送信し、面接官のユーザ端末装置から受信したデータを被面接者のユーザ端末装置に送信する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である面接官の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である面接官の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である面接官の顔または態度に基づく表出情報と、前記面接参加者である面接官の発言内容または音響に基づく表出表現とに基づいて面接参加者である面接官を評価する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとにリアルタイムに面接参加者を評価し、前記通信部は、前記評価部による質問ごとの評価結果を面接官のユーザ端末装置に送信する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記受付部は、前記面接参加者である被面接者のユーザ端末装置から面接のリクエストを受け付け、前記認証部は、前記受付部により受け付けた被面接者の認証を行い、前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置からデータを受信し、面接にかかるデータを被面接者のユーザ端末装置に送信し、前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記通信部は、語学に関するリスニング用のデータをユーザ端末装置に送信し、前記面接データ生成部は、前記通信部によりユーザ端末装置から受信した前記語学に関するリスニング用のデータに対するユーザの受け答えのデータに基づいて、面接データを生成し、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者の語学力を評価する構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記認証部は、ユーザ端末装置から送信されてくる面接参加者の顔データに基づく顔認証によりユーザの認証を行う構成でもよい。
また、本発明の一態様におけるオンライン面接評価装置では、前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とを組み合わせ、前記面接参加者の自信と論理性から説得力を評価する構成でもよい。
上記目的を達成するために、本発明の一態様におけるオンライン面接評価方法は、ネットワークを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価方法において、ユーザ端末装置から面接のリクエストを受け付ける受付工程と、前記受付工程により受け付けたユーザの認証を行う認証工程と、前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、前記通信工程により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成工程と、前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価工程と、前記評価工程による評価結果が記憶部に記憶されている評価基準を満たしているか否かを判断する判断工程とを備え、前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されている
上記目的を達成するために、本発明の一態様におけるオンライン面接評価プログラムは、ネットワークを介してオンライン面接を行い、面接参加者を評価するプログラムにおいて、コンピュータに、ユーザ端末装置から面接のリクエストを受け付ける受付工程と、前記受付工程により受け付けたユーザの認証を行う認証工程と、前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、前記通信工程により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成工程と、前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価工程と、前記評価工程による評価結果が記憶部に記憶されている評価基準を満たしているか否かを判断する判断工程と、実行させるためのプログラムであって、前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されている
オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができる。
オンライン面接評価装置とユーザ端末装置の接続関係を示す図である。 オンライン面接評価装置の構成を示す概略ブロック図である。 面接データ生成部による面接データの生成についての説明に供する図である。 評価部による評価結果の一例を示す図である。 評価基準記憶部に記憶されている評価基準の一例を示す図である。 被面接者のユーザ端末装置のディスプレイに表示されるオンライン面接の画像の一例を示す図である。 面接官のユーザ端末装置のディスプレイに表示されるオンライン面接の画像の一例を示す図である。 被面接者と面接官との間で行われるオンライン面接の具体例についての説明に供する図である。 オンライン面接においてリアルタイム判定を取り入れた場合の具体例についての説明に供する図である。 セルフ面接の具体例についての説明に供する図である。 語学に関するテストの評価の具体例についての説明に供する図である。 オンライン面接評価装置の動作についての説明に供するフローチャートである。 コンピュータの構成を示すブロック図である。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
なお、以下の実施形態は、ネットワークNを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価装置、方法およびプログラムの動作と構成について説明する。なお、面接参加者とは、オンライン面接に参加する被面接者と、面接官をいう。被面接者とは、求職者や受験生などの面接を受ける者をいう。
オンライン面接評価装置1は、図1に示すように、ネットワークNを介して、面接参加者が利用する複数のユーザ端末装置2a,2b・・・2n(以下、ユーザ端末装置2という。)とが接続されている。ユーザ端末装置2は、LANなどのネットワークNを介してオンライン面接評価装置1に接続可能な通信部と、面接参加者の顔などを撮像するカメラと、面接参加者の声を集音するマイクと、オンライン面接評価装置1から送信されてきた映像を表示するディスプレイと、オンライン面接評価装置1から送信されてきた音声を出力するマイクとを備える装置であり、例えば、スマートフォン、携帯電話、タブレット、パーソナルコンピュータ(PC)などの情報処理装置である。
オンライン面接は、Webブラウザを利用して提供されてもよいし、専用のアプリケーション(以下、専用アプリという)を利用して提供されてもよい。本実施例では、専用アプリを利用してオンライン面接を行うものとして説明するが、Webブラウザを利用してオンライン面接を行ってもよい。
Webブラウザを利用する場合、面接参加者は、ユーザ端末装置2にインストールされているWebブラウザを起動し、Webブラウザによりオンライン面接評価装置1にアクセスする。そして、Webブラウザに表示される表示画面に対して所定の操作を行うことにより、オンライン面接を行う。
また、専用アプリを利用する場合、面接参加者は、予めユーザ端末装置2にダウンロードされている専用アプリを起動し、専用アプリによりオンライン面接評価装置1にアクセスする。そして、専用アプリに表示される表示画面に対して所定の操作することにより、オンライン面接を行う。
オンライン面接評価装置1は、図2に示すように、受付部11と、認証部12と、通信部13と、面接データ生成部14と、分離部15と、映像データ解析部16と、音声データ解析部17と、評価部18とを備える。
受付部11は、ユーザ端末装置2から面接のリクエストを受け付ける。具体的には、ユーザ端末装置2は、面接参加者の操作に応じて、専用アプリを起動する。また、ユーザ端末装置2は、専用アプリに表示される表示画面に対して所定の操作が行われ、オンライン面接評価装置1の受付部11に対して面接のリクエストを行う。受付部11は、当該リクエストを受け付ける。
認証部12は、受付部11により受け付けたユーザの認証を行う。具体的には、受付部11は、ユーザ端末装置2から面接のリクエストとともにユーザIDとパスワードを受け付ける。ユーザ情報記憶部19には、ユーザ登録により、予め面接参加者の登録情報(IDとパスワードなど)が記憶されている。認証部12は、ユーザ情報記憶部19を参照し、送信されてきたユーザIDとパスワードが記憶されている登録情報に一致するものがあるかどうかを判断し、一致した場合に認証を完了する。
通信部13は、認証部12により認証されて面接が開始された場合、ユーザ端末装置2との間でデータを送受信する。通信部13は、ユーザ端末装置2から送信されてきたデータをデータ記憶部20に記憶する。データは、例えば、映像データと音声データが多重化されてユーザ端末装置2から送信されてくる。また、通信部13は、データが圧縮されている場合には、データを伸張する。なお、通信部13と受付部11は、同一の構成であってもよい。
面接データ生成部14は、通信部13により送受信されるデータに基づいて、面接データを生成する。例えば、面接が、複数のパート(例えば、「挨拶パート」、「第1質問パート」、「第2質問パート」、「第3質問パート」など)に分かれている場合には、面接データ生成部14は、通信部13により送受信されるデータ(図3中のD1)を各パートに分割することにより、面接データ(図3中のD2)を生成する。「挨拶パート」とは、例えば、被面接者の名前の確認などを行うパートである。「第1質問パート」とは、例えば、自己PRや志望動機などを確認するパートである。「第2質問パート」とは、例えば、「第1質問パート」の回答に基づいて、質問するパートである。「第3質問パート」とは、例えば、エントリーシートなどに書かれている内容に基づいて行われるパートである。
分離部15は、面接データを映像データと音声データに分離する。なお、通信部13で受信したデータが映像データと音声データとに多重化されていない場合には、分離部15は不要である。
映像データ解析部16は、映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する。
ここで、面接参加者の顔に基づく表出情報の取得について説明する。映像データ解析部16は、面接参加者の表情または瞳を解析することにより面接参加者の顔に基づく表出情報を取得する。面接参加者の顔に基づく表出情報とは、面接参加者の表情の変化を示す情報である。映像データ解析部16は、ある質問を行ったときに面接参加者の顔が、真顔から笑顔に変化したり、まったく変化しなかったときなどの表情の変化を分析する。また、映像データ解析部16は、例えば、ある質問を行ったときの面接参加者の瞳の大きさ、色、輝き、形などの要素を分析する。
つぎに、面接参加者の態度に基づく表出情報の取得について説明する。映像データ解析部16は、面接参加者の所作を解析することにより面接参加者の態度に基づく表出表現を取得する。面接参加者の態度に基づく表出情報とは、面接参加者の顔以外の体の動きや手の動きの変化を示す情報である。映像データ解析部16は、ある質問を行ったときに面接参加者の身振りや手振りが大きいか小さいかや、頷く回数などを分析する。
音声データ解析部17は、音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する。
ここで、面接参加者の発言内容に基づく表出表現の取得について説明する。音声データ解析部17は、音声データをテキストデータに変換し、変換したテキストデータを解析することにより面接参加者の発言内容に基づく表出表現を取得する。面接参加者の発言内容に基づく表出表現とは、発言された言葉の意味を分析処理して得られる情報であり、例えば、論理性(論理構造)、発言量、語彙の豊かさ、発言された語彙の難易度などを示す情報である。
つぎに、面接参加者の音響に基づく表出表現の取得について説明する。音声データ解析部17は、音声データの音響成分(音のテンポや強弱)を解析することにより面接参加者の音響に基づく表出表現を取得する。面接参加者の音響に基づく表出表現とは、発言された音声を分析処理して得られる情報であり、例えば、話す速度、声の大きさ、声の抑揚、声の音域、感情分析、ドッグワードなどを示す情報である。ドッグワードとは、「えー」、「あー」、「あのー」、「そのー」などの意味を有さない言葉のことである。
評価部18は、映像データ解析部16から送信されてくる面接参加者の顔または態度に基づく表出情報と、音声データ解析部17から送信されてくる面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する。
具体的には、評価部18は、面接参加者の顔に基づく表出情報の評価と、面接参加者の態度に基づく表出情報の評価と、面接参加者の発言内容に基づく表出表現の評価と、面接参加者の音響に基づく表出表現の評価とを行う。
また、評価部18は、各表出情報を組み合わせた評価を行ってもよい。例えば、評価部18は、面接参加者の顔に基づく表出情報と、面接参加者の発言内容に基づく表出表現とを組み合わせることにより、ある質問に対する面接参加者の回答時における顔の変化と、発言内容とから、自信のある顔で論理性のある回答を行っているのか、自信のない表情で論理性のある回答を行っているのかを評価することができ、説得力の有無などの評価を行うことができる。
評価部18は、例えば、面接参加者Aが質問Xに対して、自信のある顔(5段階評価で「5」)で論理性の高い回答(5段階評価で「5」)を行っている場合には、図4中の線Aに示すような描画を行う。線Aが面接参加者Aの評価になる。また、評価部18は、例えば、面接参加者Bが質問Xに対して、自信のない顔(5段階評価で「1」)で論理性の高い回答(5段階評価で「5」)を行っている場合には、図4中の線Bに示すよう描画を行う。線Bが面接参加者Bの評価になる。企業側において、評価部18による評価(図4)を一見するだけで、面接参加者Aの説得力と面接参加者Bの説得力を把握することができる。また、同じ面接参加者Aの中でも、質問に対する回答ごとに、自信と論理性の高さを評価して可視化することもできる。当該評価を見ることで、どの質問に対する回答に自信を持っているか、論理性の高い回答が出来ているかを把握することができる。なお、上述では、横軸の評価項目を「論理性」にし、縦軸の評価項目を「自信」にしたが、これは一例であり、さまざまな評価項目を適用することができる。また、評価は、縦軸と横軸に限らず複数の軸により表現してもよい。
また、評価部18は、例えば、5段階評価などで評価を行ってもよい。具体的には、評価部18は、ある質問を行ったときに面接参加者の顔が、真顔から笑顔に変化している場合には、5点の評価を行い、一方、まったく変化しなかった場合には、1点の評価を行う。また、評価部18は、ある質問を行ったときの面接参加者の瞳の大きさ、色、輝き、形などの要素に基づいて、質問に対する興味の度合などを分析し、評価(数値化)を行う。
このような構成によれば、オンライン面接評価装置1は、オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができる。なお、評価部18で評価された結果は、通信部13を介して外部に送信される。
また、オンライン面接評価装置1は、図2に示すように、評価基準記憶部21と、判断部22とを備える構成でもよい。
評価基準記憶部21は、評価基準を記憶する。評価基準は、合否の基準であり、図5に示すように、項目に対する評価が示されており、例えば、論理性の評価が5段階で3以上、発言量の評価が5段階評価で2以上などと示されている。
判断部22は、評価部18による評価結果が評価基準記憶部21に記憶されている評価基準を満たしているか否かを判断する。
このような構成によれば、オンライン面接評価装置1は、客観的な基準である評価基準に基づいて面接参加者を評価することができる。なお、判断部22で評価された結果は、通信部13を介して外部に送信される。
また、オンライン面接評価装置1は、図2に示すように、評価基準を設定する設定部23を備える構成でもよい。設定部23は、設定した評価基準を評価基準記憶部21に記憶させる。
例えば、企業の人事部の職員がオンライン面接評価装置1にアクセスし、設定部23により企業独自の評価基準を設定することができる。
よって、オンライン面接評価装置1は、設定部23により評価基準を自在に設定や変更を行うことができ、評価基準のカスタマイズ性が高いメリットがある。
また、オンライン面接評価装置1は、図2に示すように、判断部22により評価基準を満たしていると判断された評価部18により評価された評価結果に基づいて、評価基準を生成する生成部24を備える構成でもよい。
生成部24は、例えば、過去に優秀だと評価された一または複数の面接参加者の評価結果の平均値を算出し、算出した平均値により評価基準を生成する。生成部24は、生成した評価基準を評価基準記憶部21に記憶させる。また、生成部24は、人工知能としての機能を発揮し、過去に優秀だと評価された一または複数の面接参加者の評価結果(以下、過去の評価結果という)を分析し、学習を繰り返しながら評価基準を生成してもよい。なお、生成部24の学習方法は、教師データを用いる教師付き学習でもよいし、教師なし学習でもよい。
よって、オンライン面接評価装置1は、過去の面接参加者の評価結果に基づいて面接参加者を評価することができ、偏りのない評価を行うことができる。なお、オンライン面接評価装置1は、生成部24により生成された評価基準の一部を変更できる機能を有していてもよい。
ここで、面接データの構成と、映像データ解析部16、音声データ解析部17および評価部18の動作について説明する。
面接データには、複数の質問と当該質問に対する回答が含まれており、当該質問の先頭または後尾に区切りを示す区切信号が挿入されている。例えば、図3中のD2に示す例では、挨拶パートの先頭に区切信号S1が挿入され、第1質問パートの先頭に区切信号S2が挿入され、第2質問パートの先頭に区切信号S3が挿入され、第3質問パートの先頭に区切信号S4が挿入されている。なお、区切信号は、面接参加者である面接官によるユーザ端末装置2の操作(例えば、キーボードのエンターキーを操作)に基づいて、区切信号が挿入されてもよいし、面接参加者である面接官の所定の言葉(例えば、「では、次の質問に移ります」など)に基づいて、区切信号が挿入されてもよい。
映像データ解析部16は、区切信号に基づいて、映像データを解析処理し、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する。例えば、映像データ解析部16は、挨拶パート、第1質問パート、第2質問パートおよび第3質問パートごとに、面接参加者の顔または態度に基づく表出情報を取得する。
音声データ解析部17は、区切信号に基づいて、音声データを解析処理し、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する。例えば、音声データ解析部17は、挨拶パート、第1質問パート、第2質問パートおよび第3質問パートごとに、面接参加者の発言内容または音響に基づく表出表現を取得する。
評価部18は、面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとに面接参加者を評価する。例えば、評価部18は、挨拶パート、第1質問パート、第2質問パートおよび第3質問パートごとに、面接参加者を評価する。
よって、オンライン面接評価装置1は、区切信号が挿入されている単位で面接参加者の評価を行うことができるので、例えば、質問単位で面接参加者の評価を知ることができる。
また、評価基準記憶部21には、質問ごとの評価基準が記憶される構成でもよい。当該構成の場合には、判断部22は、評価部18による質問ごとの評価結果が評価基準記憶部21に記憶されている質問ごとの評価基準を満たしているか否かによって面接参加者の合否を判断する。
よって、オンライン面接評価装置1は、区切信号が挿入されている単位で面接参加者の評価に基づく判断を行うことができる。
<面接参加者が被面接者と面接官である場合>
ここで、面接参加者が被面接者と面接官である場合について説明する。以下では、ユーザ端末装置2aは、被面接者が利用する端末装置であり、ユーザ端末装置2bは、面接官が利用する端末装置である。
受付部11は、被面接者のユーザ端末装置2aと面接官のユーザ端末装置2とから面接のリクエストを受け付ける。
認証部12は、受付部11により受け付けた被面接者と面接官の認証を行う。具体的には、受付部11は、ユーザ端末装置2aおよびユーザ端末装置2bから面接のリクエストとともにユーザIDとパスワードを受け付ける。ユーザ情報記憶部19には、予め面接参加者によりユーザ登録が行われたときに入力された登録情報(IDとパスワードなど)が記憶されている。認証部12は、ユーザ情報記憶部19を参照し、送信されてきたユーザIDとパスワードが記憶されている登録情報に一致するものがあるかどうかを判断し、一致した場合に認証を完了する。このとき認証部12は、ユーザ端末装置2aが被面接者の端末装置であり、ユーザ端末装置2bが面接官の端末装置であることを認識する。
通信部13は、認証部12により認証されて面接が開始された場合、被面接者のユーザ端末装置2aから受信したデータを面接官のユーザ端末装置2bに送信し、面接官のユーザ端末装置2bから受信したデータを被面接者のユーザ端末装置2aに送信する。なお、送受信するデータには、映像データと音声データとが含まれている。
被面接者のユーザ端末装置2aにおいては、ディスプレイに面接官の画像が表示され、スピーカから面接官の音声が出力される。なお、ユーザ端末装置2aでは、図6(a)に示すように、面接官のみが表示されるビューや、図6(b)に示すように、面接官と被面接者本人が並んで表示されるビューなどを選択することができる。
同様に、面接官のユーザ端末装置2bにおいては、ディスプレイに被面接者の画像が表示され、スピーカから被面接者の音声が出力される。なお、ユーザ端末装置2bでは、図7(a)に示すように、被面接者のみが表示されるビューや、図7(b)に示すように、面接官自身と被面接者が並んで表示されるビューなどを選択することができる。
映像データ解析部16は、分離部15で分離された映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得する。
音声データ解析部17は、分離部15で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得する。
評価部18は、面接参加者である被面接者の顔または態度に基づく表出情報と、面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する。
また、映像データ解析部16は、分離部15で分離された映像データを解析処理して、面接参加者である面接官の顔または態度に基づく表出情報を取得する。面接官の顔に基づく表出情報とは、面接官の表情の変化を示す情報である。映像データ解析部16は、ある質問を行うときや被面接者と会話を行うときなどの面接官の顔が、真顔から笑顔に変化したり、まったく変化しなかったときなどの表情の変化を分析する。また、映像データ解析部16は、例えば、ある質問を行うときや被面接者と会話を行うときなどの面接官の瞳の大きさ、色、輝き、形などの要素を分析する。
また、面接官の態度に基づく表出情報とは、面接官の顔以外の体の動きや手の動きの変化を示す情報である。映像データ解析部16は、ある質問を行うときや被面接者と会話を行うときなどの面接官の身振りや手振りが大きいか小さいかや、頷く回数などを分析する。
音声データ解析部17は、分離部15で分離された音声データを解析処理して、面接参加者である面接官の発言内容または音響に基づく表出表現を取得する。面接官の発言内容に基づく表出表現とは、発言された言葉の意味を分析処理して得られる情報であり、例えば、論理性(論理構造)、発言量、語彙の豊かさ、発言された語彙の難易度などを示す情報である。面接官の音響に基づく表出表現とは、発言された音声を分析処理して得られる情報であり、例えば、話す速度、声の大きさ、声の抑揚、声の音域、感情分析、ドッグワードなどを示す情報である。
評価部18は、面接参加者である面接官の顔または態度に基づく表出情報と、面接参加者である面接官の発言内容または音響に基づく表出表現とに基づいて面接参加者である面接官を評価する。評価部18は、例えば、面接官による面接が圧迫面接になっていないかや、被面接者とよいコミュニケーションを図れているかなどを評価する。
よって、オンライン面接評価装置1は、面接参加者である被面接者のみならず、面接官についても、科学的客観性の高い評価を低コストに行うことができる。
ここで、被面接者と面接官との間で行われるオンライン面接の具体例について、図8を用いて説明する。なお、図8中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、参照データ11cは、主に評価基準記憶部21に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。また、参照データ11cは、例えば、企業側の優秀人材の特徴として、言葉の意味的特徴、音声的特徴、表情的特徴および所作的特徴が含まれている。
所定対象アーカイブデータ11aには、オンライン面接によってユーザ端末装置2aとユーザ端末装置2bとの間で送受信されるデータに基づいて、被面接者の発言内容、音声、表情、所作(ふるまい)等のデータと、面接官の発言内容、音声、表情、所作(ふるまい)等のデータとが蓄積される。
処理11bは、参照データ11cを参照し、音声データに基づいて、言葉の意味分析処理と音声分析処理を行い、映像データに基づいて、表情分析処理を行う。
言葉の意味分析処理は、参照データ11cの言葉の意味的特徴を参照して、論理性(論理構造)の評価、発言量の評価、語彙の豊かさの評価、語彙の難易度の評価などを行う。
音声分析処理は、参照データ11cの音声的特徴を参照して、早さの評価、大きさの評価、抑揚の評価、音域の評価、感情分析の評価、ドッグワードの評価などを行う。
表情分析処理は、参照データ11cの表情的特徴を参照して、表情の変化の評価、表情の表出の評価などを行う。また、参照データ11cの所作的特徴を参照して、所作の分析処理も行うことができる。
出力結果11dは、処理11bによる被面接者の処理に基づいて、被面接者が合格する人材か否かなどの判定情報を作成し、企業側に提出する。
また、出力結果11dは、処理11bによる面接官の処理に基づいて、面接官の面接が圧迫面接になっていないかや、被面接者とよいコミュニケーションを図れているかなどレポートを作成し、企業側に提出する。
よって、オンライン面接評価装置1は、旧来は面接官の主観で行われていた被面接者に対する評価を科学的客観性に基づいて評価することができ、かつ、評価にかかる人的工数を削減することができる。
<リアルタイム判定>
つぎに、リアルタイム判定について説明する。評価部18は、面接参加者である被面接者の顔または態度に基づく表出情報と、面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて、質問ごとにリアルタイムに面接参加者を評価する。
通信部13は、評価部18による質問ごとの評価結果を面接官のユーザ端末装置2bに送信する。
よって、オンライン面接評価装置1は、質問ごとの評価結果をリアルタイムに面接官に通知するので、面接の進行を適応的に変更することができる。例えば、面接官は、評価結果に基づいて、質問の内容を変えたり、面接時間を縮めたり伸ばしたりできる。
ここで、被面接者と面接官との間で行われるオンライン面接において、リアルタイム判定を取り入れた場合の具体例について、図9を用いて説明する。なお、図9中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、参照データ11cは、主に評価基準記憶部21に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。また、参照データ11cは、例えば、優秀人材の標準的特徴として、リアルタイム判定に利用される音声的特徴および表情的特徴が含まれている。
所定対象アーカイブデータ11aには、オンライン面接によってユーザ端末装置2aとユーザ端末装置2bとの間で送受信されるデータに基づいて、被面接者の発言内容、音声、表情、所作(ふるまい)等のデータが蓄積される。
処理11bは、参照データ11cを参照し、音声データに基づいて、音声分析処理を行行い、映像データに基づいて、表情分析処理を行う。
音声分析処理は、参照データ11cの音声的特徴を参照して、早さの評価、大きさの評価、抑揚の評価、音域の評価、感情分析の評価、ドッグワードの評価などを行う。
表情分析処理は、参照データ11cの表情的特徴を参照して、表情の変化の評価、表情の表出の評価などを行う。
出力結果11dは、処理11bに基づいて、合否判定の補助となる情報を面接官のユーザ端末装置2bに送信する。
よって、オンライン面接評価装置1は、旧来は面接官の主観で行われていた被面接者に対する評価を科学的客観性に基づいて、質問単位でリアルタイムに評価することができ、面接をスムーズに進行させることができる。
<面接参加者が被面接者のみである場合(セルフ面接)>
ここで、面接参加者が被面接者のみである場合(セルフ面接)について説明する。セルフ面接とは、流れてくる音声付動画にしたがって回答を行う形式の面接である。なお、被面接者は、セルフ面接をした様子をユーザ端末装置2の録画機能を利用して録画することもできる。被面接者は、録画した内容を再生することにより、次回以降の面接に役立てることができる。
受付部11は、被面接者のユーザ端末装置2aから面接のリクエストを受け付ける。認証部12は、受付部11により受け付けた被面接者の認証を行う。通信部13は、認証部12により認証されて面接が開始された場合、被面接者のユーザ端末装置2aからデータを受信し、面接にかかるデータを被面接者のユーザ端末装置2aに送信する。面接にかかるデータとは、予め用意されている質問の映像データと音声データである。
映像データ解析部16は、分離部15で分離された映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得する。
音声データ解析部17は、分離部15で分離された音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得する。
評価部18は、面接参加者である被面接者の顔または態度に基づく表出情報と、面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する。
よって、オンライン面接評価装置1は、セルフ面接において、科学的客観性の高い評価を低コストに行うことができる。
ここで、オンラインのセルフ面接の具体例について、図10を用いて説明する。なお、図10中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、参照データ11cは、主に評価基準記憶部21に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。また、参照データ11cは、例えば、企業側の優秀人材の特徴として、言葉の意味的特徴、音声的特徴、表情的特徴および所作的特徴が含まれている。
所定対象アーカイブデータ11aには、セルフ面接によってユーザ端末装置2aから送信されてくるデータに基づいて、被面接者の発言内容、音声、表情、所作(ふるまい)等のデータと、面接官の発言内容、音声、表情、所作(ふるまい)等のデータとが蓄積される。
処理11bは、参照データ11cを参照し、音声データに基づいて、言葉の意味分析処理と音声分析処理を行い、映像データに基づいて、表情分析処理を行う。
言葉の意味分析処理は、参照データ11cの言葉の意味的特徴を参照して、論理性(論理構造)の評価、発言量の評価、語彙の豊かさの評価、語彙の難易度の評価などを行う。
音声分析処理は、参照データ11cの音声的特徴を参照して、早さの評価、大きさの評価、抑揚の評価、音域の評価、感情分析の評価、ドッグワードの評価などを行う。
表情分析処理は、参照データ11cの表情的特徴を参照して、表情の変化の評価、表情の表出の評価などを行う。また、参照データ11cの所作的特徴を参照して、所作の分析処理も行うことができる。
出力結果11dは、処理11bによる被面接者の処理に基づいて、被面接者が合格する人材か否かなどの判定情報を作成し、企業側に提出する。
よって、オンライン面接評価装置1は、セルフ面接の結果を科学的客観性に基づいて評価することができ、かつ、評価にかかる人的工数を削減することができる。
<語学に関するテストの評価>
オンライン面接評価装置1は、英語などの語学に関するテストの評価に利用することができる。
通信部13は、語学に関するリスニング用のデータを応募者のユーザ端末装置2aに送信する。
面接データ生成部14は、通信部13によりユーザ端末装置2aから受信した語学に関するリスニング用のデータに対する応募者の受け答えのデータに基づいて、面接データを生成する。
映像データ解析部16は、分離部15で分離された映像データを解析処理して、応募者の顔または態度に基づく表出情報を取得する。
音声データ解析部17は、分離部15で分離された音声データを解析処理して、応募者の発言内容または音響に基づく表出表現を取得する。
評価部18は、応募者の顔または態度に基づく表出情報と、応募者の発言内容または音響に基づく表出表現とに基づいて応募者の語学力を評価する。
よって、オンライン面接評価装置1は、発言内容だけでなく、応募者の顔または態度に基づく表出情報と、応募者の発言内容または音響に基づく表出表現とに基づいて面接参加者の語学力を評価するので、声の強弱や、ジェスチャや、顔の表情など、多面的な語学力の評価を行うことができる。
ここで、語学に関するテストの評価の具体例について、図11を用いて説明する。なお、図11中の処理対象アーカイブデータ11aは、主にデータ記憶部20に相当し、処理11bは、主に、映像データ解析部16、音声データ解析部17および評価部18に相当し、出力結果11dは、主に、判断部22および通信部13に相当する。
所定対象アーカイブデータ11aには、応募者のユーザ端末装置2aから送信されてくるデータに基づいて、横暴者の発言内容、音声、表情、所作(ふるまい)等のデータが蓄積される。
処理11bは、音声データに基づいて、音声認識処理を行う。音声認識処理は、応募者がリスニング用のデータを聞いてどのくらい認識しているかを示す認識率の評価、文法の評価、語彙の豊かさの評価、語彙の難易度の評価などを行う。また、処理11bは、映像データに基づいて、表情分析処理などを行ってもよい。
出力結果11dは、処理11bによる処理に基づいて、応募者の総合的な語学力の判定結果を作成し、企業側に提出する。
よって、オンライン面接評価装置1は、総合的な語学力を有しているか否かについて科学的客観性に基づいて評価することができ、かつ、評価にかかる人的工数を削減することができる。
<なりすまし防止機能>
オンライン面接評価装置1は、オンライン面接(特に、セルフ面接や、語学に関するテストなど)を受ける面接参加者の成りすましを防止する機能を有している。
ユーザ情報記憶部19には、ユーザ登録により、予め面接参加者の登録情報(IDとパスワードなど)と顔画像が記憶されている。
認証部12は、ユーザ情報記憶部19を参照し、ユーザ端末装置2から送信されてくる面接参加者の顔画像に基づく顔認証を行い、一致する顔画像がユーザ情報記憶部19に記憶されている場合、ユーザの認証を行う。
よって、オンライン面接評価装置1は、顔認証を行うことにより、オンライン面接による面接参加者の成りすましを防止することができる。
つぎに、オンライン面接評価装置1の動作について、図12に示すフローチャートを参照しながら説明する。
ステップS1において、受付部11は、ユーザ端末装置2から面接のリクエストを受け付ける。
ステップS2において、認証部12は、ステップS1の工程により受け付けたユーザの認証を行う。
ステップS3において、通信部13は、ステップS2の工程により認証されて面接が開始された場合、ユーザ端末装置2との間でデータを送受信する。
ステップS4において、ステップS3の工程により送受信されるデータに基づいて、面接データを生成する。
ステップS5において、分離部15は、面接データを映像データと音声データに分離する。
ステップS6において、映像データ解析部16は、映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する。
ステップS7において、音声データ解析部17は、音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する。
ステップS8において、評価部18は、面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する。
よって、オンライン面接評価装置1は、オンライン面接に参加した面接参加者に対して、科学的客観性の高い評価を低コストに行うことができる。
また、図13は、ネットワークNを介してオンライン面接を行い、面接参加者を評価するプログラムを実行するコンピュータ500の構成を示すブロック図である。コンピュータ500は、CPU501、主記憶装置502、補助記憶装置503、インタフェース504を備える。
上述したオンライン面接評価装置1の各構成要素の動作は、プログラムの形式で補助記憶装置503に記憶されている。CPU501は、プログラムを補助記憶装置503から読み出して主記憶装置502に展開し、当該プログラムに従って上記処理を実行する。また、CPU501は、プログラムに従って、上述した記憶部に対応する記憶領域を主記憶装置502に確保する。
当該プログラムは、具体的には、コンピュータ500に、ユーザ端末装置2から面接のリクエストを受け付ける受付工程と、受付工程により受け付けたユーザの認証を行う認証工程と、認証工程により認証されて面接が開始された場合、ユーザ端末装置2との間でデータを送受信する通信工程と、通信工程により送受信されるデータに基づいて、面接データを生成する面接データ生成工程と、面接データを映像データと音声データに分離する分離工程と、映像データを解析処理して、面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、音声データを解析処理して、面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者を評価する評価工程と、を実行させるためのプログラムである。
なお、補助記憶装置503は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース504を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムがネットワークNを介してコンピュータ500に配信される場合、配信を受けたコンピュータ500が当該プログラムを主記憶装置502に展開し、上記処理を実行してもよい。
また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能を補助記憶装置503に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)
であってもよい。
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
1 オンライン面接評価装置、2 ユーザ端末装置、11 受付部、12 認証部、13 通信部、14 面接データ生成部、15 分離部、16 映像データ解析部、17 音声データ解析部、18 評価部、19 ユーザ情報記憶部、20データ記憶部、21 評価基準記憶部、22 判断部、23 設定部、24 生成部、500 コンピュータ、501 CPU、502 主記憶装置、503 補助記憶装置、504 インタフェース、N ネットワーク

Claims (16)

  1. ネットワークを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価装置において、
    ユーザ端末装置から面接のリクエストを受け付ける受付部と、
    前記受付部により受け付けたユーザの認証を行う認証部と、
    前記認証部により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信部と、
    前記通信部により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成部と、
    前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析部と、
    前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析部と、
    前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価部と
    評価基準を記憶する記憶部と、
    前記評価部による評価結果が前記記憶部に記憶されている評価基準を満たしているか否かを判断する判断部とを備え、
    前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されているオンライン面接評価装置。
  2. 前記評価基準を設定する設定部を備える請求項記載のオンライン面接評価装置。
  3. 前記評価部による過去の評価結果の中から、前記判断部により前記評価基準を満たしていると判断された評価結果に基づいて、前記評価基準を生成する生成部を備える請求項記載のオンライン面接評価装置。
  4. 前記映像データ解析部は、面接参加者の表情または瞳を解析することにより前記面接参加者の顔に基づく表出情報を取得し、面接参加者の所作を解析することにより前記面接参加者の態度に基づく表出表現を取得し、
    前記音声データ解析部は、音声データをテキストデータに変換し、変換したテキストデータを解析することにより前記面接参加者の発言内容に基づく表出表現を取得し、音声データの音響成分を解析することにより前記面接参加者の音響に基づく表出表現を取得する請求項1からのいずれか一項に記載のオンライン面接評価装置。
  5. 前記面接データには、複数の質問と当該質問に対する回答が含まれており、当該質問の先頭または後尾に区切りを示す区切信号が挿入されており、
    前記映像データ解析部は、前記区切信号に基づいて、前記映像データを解析処理し、質問ごとに面接参加者の顔または態度に基づく表出情報を取得し、
    前記音声データ解析部は、前記区切信号に基づいて、前記音声データを解析処理し、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得し、
    前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとに面接参加者を評価する請求項1からのいずれか一項に記載のオンライン面接評価装置。
  6. 前記記憶部には、質問ごとの評価基準が記憶されており、
    前記判断部は、前記評価部による質問ごとの評価結果が前記記憶部に記憶されている質問ごとの評価基準を満たしているか否かによって面接参加者の合否を判断する請求項からのいずれか一項に記載のオンライン面接評価装置。
  7. 前記受付部は、前記面接参加者である被面接者のユーザ端末装置と、前記面接参加者である面接官のユーザ端末装置とから面接のリクエストを受け付け、
    前記認証部は、前記受付部により受け付けた被面接者と面接官の認証を行い、
    前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置から受信したデータを面接官のユーザ端末装置に送信し、面接官のユーザ端末装置から受信したデータを被面接者のユーザ端末装置に送信する請求項1からのいずれか一項に記載のオンライン面接評価装置。
  8. 前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、
    前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、
    前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する請求項記載のオンライン面接評価装置。
  9. 前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である面接官の顔または態度に基づく表出情報を取得し、
    前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である面接官の発言内容または音響に基づく表出表現を取得し、
    前記評価部は、前記面接参加者である面接官の顔または態度に基づく表出情報と、前記面接参加者である面接官の発言内容または音響に基づく表出表現とに基づいて面接参加者である面接官を評価する請求項または記載のオンライン面接評価装置。
  10. 前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、面接参加者の発言内容または音響に基づく表出表現とに基づいて、質問ごとにリアルタイムに面接参加者を評価し、
    前記通信部は、前記評価部による質問ごとの評価結果を面接官のユーザ端末装置に送信する請求項7または8に記載のオンライン面接評価装置。
  11. 前記受付部は、前記面接参加者である被面接者のユーザ端末装置から面接のリクエストを受け付け、
    前記認証部は、前記受付部により受け付けた被面接者の認証を行い、
    前記通信部は、前記認証部により認証されて面接が開始された場合、被面接者のユーザ端末装置からデータを受信し、面接にかかるデータを被面接者のユーザ端末装置に送信し、
    前記映像データ解析部は、前記面接データにかかる映像データを解析処理して、面接参加者である被面接者の顔または態度に基づく表出情報を取得し、
    前記音声データ解析部は、前記面接データにかかる音声データを解析処理して、面接参加者である被面接者の発言内容または音響に基づく表出表現を取得し、
    前記評価部は、前記面接参加者である被面接者の顔または態度に基づく表出情報と、前記面接参加者である被面接者の発言内容または音響に基づく表出表現とに基づいて面接参加者である被面接者を評価する請求項1からのいずれか一項に記載のオンライン面接評価装置。
  12. 前記通信部は、語学に関するリスニング用のデータをユーザ端末装置に送信し、
    前記面接データ生成部は、前記通信部によりユーザ端末装置から受信した前記語学に関するリスニング用のデータに対するユーザの受け答えのデータに基づいて、面接データを生成し、
    前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて面接参加者の語学力を評価する請求項1記載のオンライン面接評価装置。
  13. 前記認証部は、ユーザ端末装置から送信されてくる面接参加者の顔データに基づく顔認証によりユーザの認証を行う請求項1から1のいずれか一項に記載のオンライン面接評価装置。
  14. 前記評価部は、前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とを組み合わせ、前記面接参加者の自信と論理性から説得力を評価する請求項1から1のいずれか一項に記載のオンライン面接評価装置。
  15. ネットワークを介してオンライン面接を行い、面接参加者を評価するオンライン面接評価方法において、
    ユーザ端末装置から面接のリクエストを受け付ける受付工程と、
    前記受付工程により受け付けたユーザの認証を行う認証工程と、
    前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、
    前記通信工程により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成工程と、
    前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、
    前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、
    前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価工程と
    前記評価工程による評価結果が記憶部に記憶されている評価基準を満たしているか否かを判断する判断工程とを備え
    前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されているオンライン面接評価方法。
  16. ネットワークを介してオンライン面接を行い、面接参加者を評価するプログラムにおいて、
    コンピュータに、
    ユーザ端末装置から面接のリクエストを受け付ける受付工程と、
    前記受付工程により受け付けたユーザの認証を行う認証工程と、
    前記認証工程により認証されて面接が開始された場合、ユーザ端末装置との間でデータを送受信する通信工程と、
    前記通信工程により送受信されるデータに基づいて、質問ごとに面接データを生成する面接データ生成工程と、
    前記面接データにかかる映像データを解析処理して、質問ごとに面接参加者の顔または態度に基づく表出情報を取得する映像データ解析工程と、
    前記面接データにかかる音声データを解析処理して、質問ごとに面接参加者の発言内容または音響に基づく表出表現を取得する音声データ解析工程と、
    前記面接参加者の顔または態度に基づく表出情報と、前記面接参加者の発言内容または音響に基づく表出表現とに基づいて、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴に関する項目ごとに面接参加者を評価する評価工程と、
    前記評価工程による評価結果が記憶部に記憶されている評価基準を満たしているか否かを判断する判断工程と、
    を実行させるためのプログラムであって、
    前記評価基準は、少なくとも、言葉の意味的特徴と、音声的特徴と、表情的特徴と、所作的特徴とから構成されているプログラム
JP2016113270A 2016-06-07 2016-06-07 オンライン面接評価装置、方法およびプログラム Active JP6042015B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016113270A JP6042015B1 (ja) 2016-06-07 2016-06-07 オンライン面接評価装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113270A JP6042015B1 (ja) 2016-06-07 2016-06-07 オンライン面接評価装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP6042015B1 true JP6042015B1 (ja) 2016-12-14
JP2017219989A JP2017219989A (ja) 2017-12-14

Family

ID=57543794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113270A Active JP6042015B1 (ja) 2016-06-07 2016-06-07 オンライン面接評価装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6042015B1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105729A (ja) * 2017-12-12 2019-06-27 株式会社テイクアンドシー 人物評価装置、プログラム、及び、方法
CN109948438A (zh) * 2019-02-12 2019-06-28 平安科技(深圳)有限公司 自动面试评分方法、装置、系统、计算机设备及存储介质
CN112232101A (zh) * 2019-07-15 2021-01-15 北京正和思齐数据科技有限公司 一种用户沟通状态的评价方法、装置及系统
CN112418779A (zh) * 2020-10-30 2021-02-26 济南浪潮高新科技投资发展有限公司 一种基于自然语言理解的在线自助面试方法
CN115495418A (zh) * 2022-10-11 2022-12-20 英仕互联(北京)信息技术有限公司 一种视频面试信息的数据处理方法、装置和电子设备
CN118014545A (zh) * 2024-02-19 2024-05-10 海安新知人工智能科技有限公司 一种招聘面试ai评分的算法
US20240161045A1 (en) * 2022-11-14 2024-05-16 Eightfold AI Inc. System, method, and computer program for assisting interviewers

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7138456B2 (ja) * 2018-03-09 2022-09-16 株式会社エヌ・ティ・ティ・データ 印象導出システム、印象導出方法および印象導出プログラム
JP2020086984A (ja) * 2018-11-27 2020-06-04 大日本印刷株式会社 選考支援装置、選考支援システム、選考支援方法およびプログラム
JP6649461B1 (ja) * 2018-12-06 2020-02-19 株式会社Agsコンサルティング プログラム、情報処理装置及び情報処理方法
KR102297948B1 (ko) * 2019-07-25 2021-09-03 주식회사 제네시스랩 면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR102236720B1 (ko) * 2019-01-07 2021-04-06 주식회사 제네시스랩 기계학습을 이용한 면접준비 서비스를 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR102258636B1 (ko) * 2019-07-25 2021-05-31 주식회사 제네시스랩 면접영상 자동평가모델을 학습시키는 방법, 시스템 및 컴퓨터-판독가능 매체
WO2020145571A2 (ko) * 2019-01-07 2020-07-16 주식회사 제네시스랩 면접영상 자동평가모델을 관리하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR102255836B1 (ko) * 2019-01-15 2021-05-25 주식회사 제네시스랩 기계학습을 이용한 온라인 면접을 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체
JP6582149B1 (ja) * 2019-03-05 2019-09-25 株式会社オープンクラウド 採用選考システム
CN110648104A (zh) * 2019-08-01 2020-01-03 北京天麦有一网络科技有限公司 一种智能人力资源筛选系统及方法
JP2021026686A (ja) * 2019-08-08 2021-02-22 株式会社スタジアム 文字表示装置、文字表示方法、及びプログラム
KR102261673B1 (ko) * 2020-01-21 2021-06-07 주식회사 제네시스랩 기계학습 모델을 이용하여 채용정보를 제공하는 방법 및 컴퓨터-판독가능 매체
KR102475524B1 (ko) * 2020-07-10 2022-12-08 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 위한 심층질문을 도출하는 방법, 시스템 및 컴퓨터-판독가능 매체
KR102407212B1 (ko) * 2020-07-10 2022-06-10 주식회사 제네시스랩 기계학습모델을 이용하여 면접영상에 대한 자동화된 평가를 제공하는 방법, 시스템 및 컴퓨터-판독가능 매체
US20220172147A1 (en) * 2020-11-27 2022-06-02 Talview Inc System and method for facilitating an interviewing process
KR102523808B1 (ko) * 2020-12-07 2023-04-21 이상록 외국인을 위한 ai 면접 수행 방법 및 장치
KR102267086B1 (ko) * 2021-02-03 2021-06-18 (주)한국혁신연구원 블록체인에 기반한 부정채용 방지 기능을 포함하는 인공지능을 이용한 맞춤형 인재 채용 시스템
WO2022201405A1 (ja) * 2021-03-24 2022-09-29 株式会社Global Ride 人材採用支援システム
WO2022230050A1 (ja) * 2021-04-27 2022-11-03 株式会社I’mbesideyou 動画像分析システム
JPWO2022230049A1 (ja) * 2021-04-27 2022-11-03
JPWO2022230155A1 (ja) * 2021-04-29 2022-11-03
JPWO2022254491A1 (ja) * 2021-05-31 2022-12-08
JP2023140221A (ja) 2022-03-22 2023-10-04 株式会社リコー 情報処理装置、情報処理システム、コミュニケーション支援システム、情報処理方法及びプログラム

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224735A (ja) * 1997-02-04 1998-08-21 Nikon Corp 画像処理装置
JP2001338106A (ja) * 2000-05-26 2001-12-07 Tokio Marine & Fire Insurance Co Ltd 採用支援システム
JP2001350904A (ja) * 2000-06-07 2001-12-21 Canon Inc 電子機器及び営業用電子機器システム
JP2002199364A (ja) * 2000-12-26 2002-07-12 Ines Corp 説明会放映方法、説明会放映システム、情報管理業者ネットワーク及びその記録媒体
JP2003122890A (ja) * 2001-10-16 2003-04-25 Hochiki Corp 相談情報処理装置、相談情報処理方法、および、プログラム
JP2004046482A (ja) * 2002-07-11 2004-02-12 Yoichiro Saito 人材募集システム及び人材募集の方法
JP2004112518A (ja) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd 情報提供装置
WO2004070639A1 (ja) * 2003-02-04 2004-08-19 Ginganet Corporation 遠隔面接システム
JP2006267465A (ja) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体
JP2007099249A (ja) * 2005-10-07 2007-04-19 Denso Corp 自動車用ユーザーもてなしシステム
JP2008294952A (ja) * 2007-05-28 2008-12-04 Mitsubishi Electric Corp デジタル放送受信装置
JP2010015289A (ja) * 2008-07-02 2010-01-21 Daicel Chem Ind Ltd 人材採用支援システム及び人材採用支援プログラム
JP2010139695A (ja) * 2008-12-11 2010-06-24 Jagat Kk 音声試験システム
WO2011042989A1 (ja) * 2009-10-09 2011-04-14 Kikuchi Kouichi 視認情景に対する視認者情感判定装置
JP2015060384A (ja) * 2013-09-18 2015-03-30 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
WO2015122195A1 (ja) * 2014-02-17 2015-08-20 Necソリューションイノベータ株式会社 印象分析装置、ゲーム装置、健康管理装置、広告支援装置、印象分析システム、印象分析方法、プログラム、及びプログラム記録媒体

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224735A (ja) * 1997-02-04 1998-08-21 Nikon Corp 画像処理装置
JP2001338106A (ja) * 2000-05-26 2001-12-07 Tokio Marine & Fire Insurance Co Ltd 採用支援システム
JP2001350904A (ja) * 2000-06-07 2001-12-21 Canon Inc 電子機器及び営業用電子機器システム
JP2002199364A (ja) * 2000-12-26 2002-07-12 Ines Corp 説明会放映方法、説明会放映システム、情報管理業者ネットワーク及びその記録媒体
JP2003122890A (ja) * 2001-10-16 2003-04-25 Hochiki Corp 相談情報処理装置、相談情報処理方法、および、プログラム
JP2004046482A (ja) * 2002-07-11 2004-02-12 Yoichiro Saito 人材募集システム及び人材募集の方法
JP2004112518A (ja) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd 情報提供装置
WO2004070639A1 (ja) * 2003-02-04 2004-08-19 Ginganet Corporation 遠隔面接システム
JP2006267465A (ja) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体
JP2007099249A (ja) * 2005-10-07 2007-04-19 Denso Corp 自動車用ユーザーもてなしシステム
JP2008294952A (ja) * 2007-05-28 2008-12-04 Mitsubishi Electric Corp デジタル放送受信装置
JP2010015289A (ja) * 2008-07-02 2010-01-21 Daicel Chem Ind Ltd 人材採用支援システム及び人材採用支援プログラム
JP2010139695A (ja) * 2008-12-11 2010-06-24 Jagat Kk 音声試験システム
WO2011042989A1 (ja) * 2009-10-09 2011-04-14 Kikuchi Kouichi 視認情景に対する視認者情感判定装置
JP2015060384A (ja) * 2013-09-18 2015-03-30 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
WO2015122195A1 (ja) * 2014-02-17 2015-08-20 Necソリューションイノベータ株式会社 印象分析装置、ゲーム装置、健康管理装置、広告支援装置、印象分析システム、印象分析方法、プログラム、及びプログラム記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105729A (ja) * 2017-12-12 2019-06-27 株式会社テイクアンドシー 人物評価装置、プログラム、及び、方法
CN109948438A (zh) * 2019-02-12 2019-06-28 平安科技(深圳)有限公司 自动面试评分方法、装置、系统、计算机设备及存储介质
CN112232101A (zh) * 2019-07-15 2021-01-15 北京正和思齐数据科技有限公司 一种用户沟通状态的评价方法、装置及系统
CN112418779A (zh) * 2020-10-30 2021-02-26 济南浪潮高新科技投资发展有限公司 一种基于自然语言理解的在线自助面试方法
CN115495418A (zh) * 2022-10-11 2022-12-20 英仕互联(北京)信息技术有限公司 一种视频面试信息的数据处理方法、装置和电子设备
US20240161045A1 (en) * 2022-11-14 2024-05-16 Eightfold AI Inc. System, method, and computer program for assisting interviewers
CN118014545A (zh) * 2024-02-19 2024-05-10 海安新知人工智能科技有限公司 一种招聘面试ai评分的算法

Also Published As

Publication number Publication date
JP2017219989A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6042015B1 (ja) オンライン面接評価装置、方法およびプログラム
CN115413348B (zh) 用于自动验证和量化面试问题回答的系统和方法
CN106663383B (zh) 分析受试者的方法和系统
US20170270930A1 (en) Voice tallying system
US20040186743A1 (en) System, method and software for individuals to experience an interview simulation and to develop career and interview skills
TWI795759B (zh) 線上會議系統
US20220231873A1 (en) System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation
US11699043B2 (en) Determination of transcription accuracy
Braun You are just a disembodied voice really
JP4077656B2 (ja) 発言者特定映像装置
Turner et al. Doing ‘understanding’in dialogue interpreting: Advancing theory and method
WO2021210332A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2023031089A (ja) 面接支援システム
JP2017167308A (ja) 重要語によって参加者の貢献度を推定可能なプログラム、装置及び方法
JP2017191531A (ja) コミュニケーションシステム、サーバ及びコミュニケーション方法
JP2022531994A (ja) 人工知能ベースの会話システムの生成および動作
WO2021171613A1 (ja) サーバ装置、会議支援システム、会議支援方法及びプログラム
Rasipuram et al. A comprehensive evaluation of audio-visual behavior in various modes of interviews in the wild
Hoegen et al. Exploring the Function of Expressions in Negotiation: The DyNego-WOZ Corpus
US20240202634A1 (en) Dialogue training device, dialogue training system, dialogue training method, and computer-readable medium
JP7440844B2 (ja) 情報処理装置及びプログラム
JP7313518B1 (ja) 評価方法、評価装置、および、評価プログラム
JP7163968B2 (ja) サーバ装置、会議支援システム、会議支援方法及びプログラム
US12107699B2 (en) Systems and methods for creation and application of interaction analytics
JP2018063352A (ja) フレーム選択装置、フレーム選択方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161108

R150 Certificate of patent or registration of utility model

Ref document number: 6042015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350