JP2020091735A - プログラム、情報処理装置及び情報処理方法 - Google Patents

プログラム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2020091735A
JP2020091735A JP2018229268A JP2018229268A JP2020091735A JP 2020091735 A JP2020091735 A JP 2020091735A JP 2018229268 A JP2018229268 A JP 2018229268A JP 2018229268 A JP2018229268 A JP 2018229268A JP 2020091735 A JP2020091735 A JP 2020091735A
Authority
JP
Japan
Prior art keywords
interviewee
information
interview
interviewer
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018229268A
Other languages
English (en)
Other versions
JP6649461B1 (ja
Inventor
一大 三浦
Kazuhiro Miura
一大 三浦
靖隆 内山
Yasutaka Uchiyama
靖隆 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ags Consulting Co Ltd
Uchiyama Yasutaka
Original Assignee
Ags Consulting Co Ltd
Uchiyama Yasutaka
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ags Consulting Co Ltd, Uchiyama Yasutaka filed Critical Ags Consulting Co Ltd
Priority to JP2018229268A priority Critical patent/JP6649461B1/ja
Application granted granted Critical
Publication of JP6649461B1 publication Critical patent/JP6649461B1/ja
Publication of JP2020091735A publication Critical patent/JP2020091735A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】就職面接等の面接を良好に実施できるように支援することが可能なプログラム、情報処理装置及び情報処理方法を提供する。【解決手段】コンピュータプログラムは、面接対象者に関する情報を取得し、取得した面接対象者に関する情報に基づいて、複数の面接官から面接対象者の面接を行う面接官と、面接対象者に対する質問内容とを特定する。【選択図】図14

Description

本発明は、プログラム、情報処理装置及び情報処理方法に関する。
コンピュータ上で人事評価を行うシステムが提案されている。例えば特許文献1には、質問に対する被検者の回答結果をコンピュータで処理し、被検者の特徴や適職性等を判断し、判断結果を示す人事評価データを生成する技術が提案されている。このような人事評価データを、被検者の派遣先を決める際の判断材料に用いることにより、被検者の適職性等を考慮した派遣先を決定することが可能となる。
特開2001−290920号公報
特許文献1に開示されたシステムは、被検者に対する人事評価を行うものであり、人事評価のための質問を設定することはできるが、例えば就職面接における面接対象者に対して適切な質問を設定することは困難である。よって、特許文献1に開示されたシステムでは、面接を良好に実施することを支援することはできないという問題がある。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、面接の良好な実施を支援することが可能なプログラム等を提供することにある。
本発明の一態様に係るプログラムは、コンピュータに、面接対象者に関する情報を取得し、取得した前記面接対象者に関する情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官と、前記面接対象者に対する質問内容とを特定する処理を実行させる。
本発明の一態様にあっては、例えば就職面接における面接対象者に対して適切な面接官及び質問内容を設定することができる。よって、面接を良好に実施することを支援でき、面接対象者に応じて適切な面接の実施が可能となる。
第1面接支援装置の構成例を示すブロック図である。 第1面接支援装置に記憶されるDBの構成例を示す模式図である。 第1面接支援装置に記憶されるDBの構成例を示す模式図である。 第1面接支援装置の制御部によって実現される機能を示すブロック図である。 画面例を示す模式図である。 画面例を示す模式図である。 第2面接支援装置の構成例を示すブロック図である。 質問設定テーブルの構成例を示す模式図である。 第2面接支援装置に記憶されるDBの構成例を示す模式図である。 第2面接支援装置に記憶されるDBの構成例を示す模式図である。 第2面接支援装置の制御部によって実現される機能を示すブロック図である。 画面例を示す模式図である。 第1面接支援装置による面接対象者の登録処理の手順を示すフローチャートである。 第1面接支援装置による面接官又は質問内容の決定処理の手順を示すフローチャートである。 第2面接支援装置による面接支援処理の手順を示すフローチャートである。 面接結果画面例を示す模式図である。 面接履歴DBの構成例を示す模式図である。 第2面接支援装置の制御部によって実現される機能を示すブロック図である。 画面例を示す模式図である。
以下に、本開示のプログラム、情報処理装置及び情報処理方法について、企業や会社等における従業員の採用面接を支援する装置に適用した実施形態を示す図面に基づいて具体的に説明する。
(実施形態1)
図1は第1面接支援装置の構成例を示すブロック図である。第1面接支援装置10は、従業員募集に応募してきた面接対象者に関する情報の蓄積処理、蓄積した面接対象者に関する情報に基づいて面接対象者を面接する面接官及び面接時の質問(質問内容)を特定する処理等、種々の情報処理を行う。なお、第1面接支援装置10をサーバコンピュータ等によって構成し、第1面接支援装置10と外部装置(ユーザ端末)とをインターネット又はLAN(Local Area Network)等のネットワークを介して接続し、面接対象者に関する情報が、外部装置に入力されて外部装置から第1面接支援装置10へ送信される構成としてもよい。第1面接支援装置10をサーバコンピュータによって構成する場合、第1面接支援装置10は、複数台設けられて複数台で分散処理する構成でもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。
第1面接支援装置10は、パーソナルコンピュータ又はサーバコンピュータ等の情報処理装置であり、制御部11、記憶部12、通信部14、入力部15、表示部16、読み取り部17等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理、制御処理等を第1面接支援装置10に行わせる。
記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部12は、例えば機械学習処理によって構築されたニューラルネットワークである面接官決定用学習済モデル121及び質問決定用学習済モデル122を記憶している。面接官決定用学習済モデル121は、過去の面接対象者に関する情報と、それぞれの面接対象者に対して適切であった面接官又は不適切であった面接官の情報とを含む教師データに基づいて、面接対象者に関する情報に基づいて面接対象者に適した面接官の情報を出力するように学習された学習済みモデルである。質問決定用学習済モデル122は、過去の面接対象者に関する情報と、それぞれの面接対象者に対して有用であった質問又は不要であった質問の情報(質問内容)とを含む教師データに基づいて、面接対象者に関する情報に基づいて面接対象者に適した質問の情報を出力するように学習された学習済みモデルである。なお、学習済モデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、記憶部12にはこの演算を規定する関数の係数や閾値等のデータが、学習済モデル121,122として記憶される。更に記憶部12には、後述する面接官DB(データベース)12a、面接予定DB12b及び面接対象者DB13が記憶される。なお、面接対象者DB13は、人事DB13a、適性結果DB13b及びWebアプリDB13cを含む。面接官DB12a、面接予定DB12b及び面接対象者DB13は、第1面接支援装置10に接続された外部の記憶装置に記憶されてもよく、インターネット又はLAN等のネットワークを介して第1面接支援装置10と通信可能な記憶装置に記憶されてもよい。
通信部14は、有線通信又は無線通信によってネットワークに接続するためのインタフェースであり、ネットワークを介して外部装置との間で情報の送受信を行う。入力部15は、マウス及びキーボード等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部16は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。
読み取り部17は、CD(Compact Disc)−ROM又はDVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に予め記憶される制御プログラム及びデータは、制御部11が読み取り部17を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に予め記憶される制御プログラム及びデータは、制御部11が通信部14を介してネットワーク経由で外部装置からダウンロードして記憶部12に記憶してもよい。更に、半導体メモリ1bから、制御部11が制御プログラム及びデータを読み出してもよい。
図2及び図3は、第1面接支援装置10に記憶されるDB12a〜12b,13a〜13cの構成例を示す模式図である。図2Aは面接官DB12aを、図2Bは面接予定DB12bを、図2Cは人事DB13aを、図3Aは適性結果DB13bを、図3BはWebアプリDB13cをそれぞれ示す。本実施形態では、面接対象者に関する情報を記憶する面接対象者DB13として3つのDB13a〜13cが設けられているが、面接対象者に関する情報は3つのDB13a〜13bに分けて記憶する構成に限らない。1つのDBに面接対象者に関する情報を記憶してもよいし、2つ又は4つ以上のDBに分けて面接対象者に関する情報を記憶してもよい。
面接官DB12aは、例えばある会社において従業員の採用面接を行う担当者(面接官)の情報を記憶している。図2Aに示す面接官DB12aは、面接官ID列、氏名列、年齢列、勤続年数列、所属部署列、役職列等を含む。面接官ID列は、各面接官に予め割り当てられた識別情報を記憶する。氏名列、年齢列、勤続年数列、所属部署列、役職列はそれぞれ、各面接官の氏名、年齢、勤続年数、所属部署、役職を記憶する。面接官DB12aに記憶される面接官IDは、制御部11が新たな面接官の情報を面接官DB12aに記憶(登録)する際に、制御部11によって発行されて記憶される。面接官DB12aに記憶される面接官ID以外の各情報は、入力部15又は通信部14を介して追加、変更又は削除の指示を取得する都度、制御部11によって追加、変更又は削除される。面接官DB12aの記憶内容は図2Aに示す例に限定されず、面接官に関する各種の情報を記憶することができる。ここで、面接官には、現実に存在する人間のほかにバーチャルな面接官が含まれてもよい。バーチャルな面接官は、例えば予め複数の質問とそれぞれの質問に対する回答例を用意しておき、面接対象者の回答に応じて順次質問を行う面接官である。例えばバーチャルな面接官は、複数の質問、それぞれの質問に対する回答例、それぞれの回答例に応じた次の質問等をサーバに記憶しておき、面接対象者が自身の端末を用いてネットワーク経由でサーバにアクセスした場合に、サーバと端末との間で質問及び回答を送受信することによって面接を行う。なお、バーチャルな面接官は、ネットワーク経由で面接を行うほかに、例えば面接会場に設置された端末によって面接を行う構成でもよい。このようなバーチャルな面接官は、例えば過去の面接における各面接対象者の情報、合否判定の結果や面接が良好に行われたか否かを示す情報等に基づいて学習して生成された学習済モデルによって実現されてもよい。この場合、過去の面接実績に基づいて最適な面接を行えるバーチャルな面接官を実現できる。また、バーチャルな面接官に性格やキャラクタを設定し、設定した性格やキャラクタの情報を面接官DB12aに記憶してもよい。
面接予定DB12bは、予定された面接に関する情報を記憶している。なお、面接予定DB12bは、実施済みの面接及び実施待ち(未実施)の面接の情報を記憶する。図2Bに示す面接予定DB12bは、面接官ID列、面接対象者ID列、質問内容列、面接日時列等を含む。面接官ID列は、各面接官のID(識別情報)を記憶する。面接官ID列に記憶されるIDは、面接官DB12aに記憶されている面接官IDを用いる。面接対象者ID列は、各面接対象者に予め割り当てられた識別情報を記憶する。面接対象者ID列に記憶される識別情報は、面接対象者DB13(DB13a〜13c)に記憶されている面接対象者IDを用いる。質問内容列は、各面接対象者に対して設定された質問の情報を記憶する。なお、質問の情報は、質問内容を記載したテキストデータであってもよいし、各質問内容に割り当てられた識別情報であってもよいし、記憶部12の所定領域又は外部の記憶装置に記憶された質問内容を読み出すための情報(例えば質問内容の記憶場所を示すファイル名)であってもよい。面接日時列は、各面接対象者に対して設定された面接予定日時を記憶する。面接予定DB12bに記憶される面接官IDは、入力部15又は通信部14を介して追加又は削除の指示を取得する都度、制御部11によって追加又は削除される。面接予定DB12bに記憶される面接対象者ID、質問内容及び面接日時は、制御部11が各面接対象者に対する面接官、質問内容及び面接日時を決定する都度、制御部11によって追加される。面接予定DB12bの記憶内容は図2Bに示す例に限定されず、面接に関する各種の情報を記憶することができる。
人事DB13aは、面接対象者の人事に関する情報を記憶している。図2Cに示す人事DB13aは、面接対象者ID列、氏名列、年齢列、性別列、学歴列、履歴書列、職務経歴書列、自己紹介文列、志望動機列等を含む。面接対象者ID列は、各面接対象者に予め割り当てられた識別情報を記憶する。氏名列、年齢列、性別列、学歴列、履歴書列、職務経歴書列、自己紹介文列、志望動機列はそれぞれ、各面接対象者の氏名、年齢、性別、学歴、履歴書、職務経歴書、自己紹介文、志望動機を記憶する。人事DB13aに記憶される面接対象者IDは、制御部11が新たな面接対象者の情報を人事DB13aに記憶(登録)する際に、制御部11によって発行されて記憶される。人事DB13aに記憶される面接対象者ID以外の各情報は、入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。なお、面接対象者ID以外の各情報は、表示部16に表示された所定の入力フォームに対して入力部15を介して入力されて人事DB13aに記憶されてもよい。また、面接対象者ID以外の各情報は、外部装置で所定の入力フォームに対して入力された各情報をネットワーク経由で受信して人事DB13aに記憶されてもよい。更に例えば、履歴書、職務経歴書、自己紹介文や志望動機等を記載した用紙等の書類をスキャナで読み取って電子データに変換することによって、各情報を取得して人事DB13aに記憶してもよい。人事DB13aの記憶内容は図2Cに示す例に限定されず、面接対象者の人事に関わる各種の情報を記憶することができる。
適性結果DB13bは、面接対象者に対する適性検査の結果に関する情報を記憶している。図3Aに示す適性結果DB13bは、面接対象者ID列、適性検査結果列、深層心理テスト結果列、アンケート結果列、SPI(Synthetic Personality Inventory )結果列、IQ(Intelligence Quotient )テスト結果列、EQ(Emotional Intelligence Quotient )テスト結果列、EPPS(Edwards Personal Preference Schedule)性格検査結果列、コンピテンシーテスト結果列、解析結果情報列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。面接対象者ID列に記憶されるIDは、人事DB13aに記憶されている面接対象者IDを用いる。適性検査結果列、深層心理テスト結果列、アンケート結果列、SPI結果列、IQテスト結果列、EQテスト結果列、EPPS性格検査結果列、コンピテンシーテスト結果列、解析結果情報列はそれぞれ、各面接対象者に行った各種の検査結果を示す情報を記憶する。適性結果DB13bに記憶される面接対象者IDは、制御部11が新たな面接対象者の適性結果情報を適性結果DB13bに記憶(登録)する際に、制御部11によって記憶される。適性結果DB13bに記憶される各種の検査結果を示す情報は、入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。また、適性結果DB13bに記憶される各種の検査結果を示す情報は、制御部11が面接対象者に関する情報に基づいて各種の検査を行って検査結果を取得する都度、制御部11によって追加される。適性結果DB13bの記憶内容は図3Aに示す例に限定されず、例えば面接対象者を行動心理学上の複数のタイプのいずれかに分類するような各種検査の結果を示す情報を記憶することができる。
WebアプリDB13cは、面接対象者によるWeb又はアプリ(アプリケーションプログラム)に対する行動履歴に関する情報を記憶している。図3Bに示すWebアプリDB13cは、面接対象者ID列、特定のWeb又はアプリに対する閲覧履歴列、購買履歴列、使用履歴列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。閲覧履歴列、購買履歴列、使用履歴列はそれぞれ、各面接対象者が特定のWeb又はアプリに対して閲覧した履歴、購買した履歴、使用した履歴を記憶する。WebアプリDB13cに記憶される面接対象者IDは、制御部11が新たな面接対象者の情報をWebアプリDB13cに記憶(登録)する際に、制御部11によって記憶される。WebアプリDB13cに記憶される面接対象者ID以外の各情報は、入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。なお、面接対象者ID以外の各情報は、所定の入力フォームに対して入力部15を介して入力されてWebアプリDB13cに記憶されてもよいし、外部装置で取得された特定のWeb又はアプリに対する閲覧履歴、購買履歴、使用履歴をネットワーク経由で受信してWebアプリDB13cに記憶されてもよい。WebアプリDB13cの記憶内容は図3Bに示す例に限定されず、Web又はアプリに対する面接対象者の行動履歴が分かるような各種の情報を記憶することができる。
次に、第1面接支援装置10の制御部11が制御プログラム12Pを実行することによって実現される機能について説明する。図4は、第1面接支援装置10の制御部11によって実現される機能を示すブロック図、図5及び図6は、画面例を示す模式図である。第1面接支援装置10の制御部11は、記憶部12に記憶してある制御プログラム12Pを実行した場合、登録受付部101、対象者情報取得部102、対象者情報記憶部103、面接官決定受付部104、対象者情報読出部105、面接官特定部106、質問決定受付部107、対象者情報読出部108、質問特定部109、画面生成部110、出力部111の各機能を実現する。なお、本実施形態では、これらの各機能を制御部11が制御プログラム12Pを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。
本実施形態において、第1面接支援装置10の制御部11は制御プログラム12Pを実行した場合、図5Aに示す初期画面を表示部16に表示する。図5Aに示す画面は、「面接対象者を登録する」ボタン、「面接官を決める」ボタン及び「質問を決める」ボタンを表示する。「面接対象者を登録する」ボタンは、面接対象者の情報を面接対象者DB13に登録する際に操作するボタンであり、入力部15を介してこのボタンが操作された場合、登録受付部101は、面接対象者に関する情報の登録指示を受け付ける。「面接官を決める」ボタンは、面接対象者DB13に登録された面接対象者に対して面接を行う面接官を決定する際に操作するボタンであり、入力部15を介してこのボタンが操作された場合、面接官決定受付部104は、面接対象者に対する面接官の決定指示を受け付ける。「質問を決める」ボタンは、面接対象者DB13に登録された面接対象者に対して面接時の質問内容を決定する際に操作するボタンであり、入力部15を介してこのボタンが操作された場合、質問決定受付部107は、面接対象者に対する質問内容の決定指示を受け付ける。
登録受付部101が面接対象者の登録指示を受け付けた場合、対象者情報取得部(取得部)102は、登録すべき面接対象者に関する情報を取得する。なお、図5Aに示す画面において「面接対象者を登録する」ボタンが操作された場合、対象者情報取得部102は、図5Bに示す登録画面を表示部16に表示する。図5Bに示す画面は、面接対象者に関する情報の登録方法として、CSV(Comma-Separated Value )、API(Application Programming Interface )、入力画面又は紙スキャンを選択するためのCSVボタン、APIボタン、入力画面ボタン、紙スキャンボタンを表示する。入力部15を介していずれかのボタンが操作されて「登録する」ボタンが操作された場合、対象者情報取得部102は、選択された方法によって面接対象者に関する情報を取得する。例えば、CSVボタンが選択(操作)されて「登録する」ボタンが操作された場合、対象者情報取得部102は、CSVフォーマットで面接対象者の情報が記載されたファイルの指定を受け付け、指定されたファイルから面接対象者の情報を読み込む。また、入力画面ボタンが選択(操作)されて「登録する」ボタンが操作された場合、対象者情報取得部102は、所定の入力フォームの画面を表示部16に表示し、入力フォームを介して面接対象者の情報を取得する。また、図5Bに示す画面は、面接対象者に対して所定のアンケートへの回答又は所定の入力フォームへの情報入力を依頼するための「アンケート/情報入力を依頼する」ボタンを表示する。入力部15を介して「アンケート/情報入力を依頼する」ボタンが操作された場合、対象者情報取得部102は、所定のアンケートフォーム又は入力フォームを面接対象者の端末へネットワーク経由で送信する。面接対象者は、受信したアンケートフォーム又は入力フォームに適宜情報を入力して返信することにより、対象者情報取得部102は、所定のアンケートフォーム又は入力フォームを介して面接対象者の更なる情報を取得できる。なお、所定のアンケートフォーム又は入力フォームは、面接対象者の長所や短所を把握でき、適性診断や性格診断に用いることができる情報を入力するように構成してある。また、面接対象者の端末の宛先情報は取得しているものとする。
対象者情報記憶部103は、対象者情報取得部102が取得した面接対象者に関する各種の情報を面接対象者DB13(DB13a〜13c)にそれぞれ記憶する。なお、適性結果DB13bに記憶される各種の検査結果は、対象者情報取得部102によって取得される情報だけでなく、制御部11が面接対象者に関する情報に基づいて各種の検査を行って得られる情報であってもよい。これにより、面接対象者の面接前の情報に基づいて、面接対象者のプロファイリングを行うことができ、プロファイリングの結果として各種の検査結果を適性結果DB13bに記憶できる。上述した処理によって、第1面接支援装置10の記憶部12には、図2A〜図3Bに示すようなDB12a〜12b,13a〜13cが記憶される。
図5Bに示す画面において、いずれかの登録方法に対応するボタン及び「登録する」ボタンが操作されて、面接対象者に関する情報が面接対象者DB13に登録された後、制御部11は、図5Cに示す一覧画面を表示部16に表示する。図5Cに示す画面は、面接対象者DB13に登録された面接対象者の情報を一覧表示する。例えば、面接対象者の氏名及び面接対象者に対して判定された適性検査結果等を表示する。なお、面接官又は面接時の質問内容が設定されていない面接対象者の情報のみを一覧表示してもよい。また図5Cに示す画面は、各面接対象者を選択するためのチェックボックス、「面接官を決める」ボタン及び「質問を決める」ボタンを表示する。入力部15を介して1又は複数の面接対象者のチェックボックスが選択されて「面接官を決める」ボタンが操作された場合、面接官決定受付部104が、選択された面接対象者に対する面接官の決定指示を受け付ける。なお、図5Cに示す画面において、入力部15を介して1又は複数の面接対象者のチェックボックスが選択されて「質問を決める」ボタンが操作された場合、質問決定受付部107が、選択された面接対象者に対する質問内容の決定指示を受け付ける。
面接官決定受付部104が面接官の決定指示を受け付けた場合、対象者情報読出部105は、面接官を決定すべき面接対象者に関する情報を面接対象者DB13から読み出す。例えば対象者情報読出部105は、面接対象者の氏名及び適性検査結果等を読み出す。対象者情報読出部105が面接対象者の情報を読み出した場合、画面生成部110は、図6Aに示すような面接官の決定画面を生成する。図6Aに示す画面は、対象者情報読出部105が読み出した面接対象者の情報を一覧表示する。なお、図6Aでは、面接対象者に対応する面接官の情報(面接官ID)が表示されているが、面接官が決定されていない面接対象者については、面接官の情報は表示されない。図6Aに示す画面は、各面接対象者を選択するためのチェックボックスを表示する。また図6Aに示す画面は、面接官の決定方法として、選択された面接対象者毎に異なる方針で個別に決定する方法、選択された面接対象者に対して同じ方針で一括して決定する方法、所定の学習済モデル(AI:Artificial Intelligence )を用いて自動で決定する方法のいずれかを選択するための個別決定ボタン、一括決定ボタン及びAI決定ボタンを表示する。更に図6Aに示す画面は、面接の方針として、採用希望の面接対象者に対する面接、内容を深掘りする面接、圧迫面接のいずれかを選択するための採用希望ボタン、深堀りボタン及び圧迫ボタンを表示する。
出力部111は、画面生成部110が生成した面接官の決定画面を表示部16に表示する。図6Aに示す画面において、入力部15を介して面接官の決定方法として個別決定ボタンが選択された場合、いずれかの方針に対応するボタンと、いずれかの面接対象者のチェックボックスとが更に操作された後に、面接官特定部106は、選択された1人の面接対象者について適切な面接官を特定する。また図6Aに示す画面において、面接官の決定方法として一括決定ボタンが選択された場合、いずれかの方針に対応するボタンと、1又は複数の面接対象者のチェックボックスとが更に操作された後に、面接官特定部106は、選択された各面接対象者について適切な面接官を特定する。更に図6Aに示す画面において、面接官の決定方法としてAI決定ボタンが選択された場合、1又は複数の面接対象者のチェックボックスが更に操作された後に、面接官特定部106は、選択された各面接対象者について適切な面接官を特定する。なお、AI決定ボタンが選択された場合は、面接の方針は選択される必要はない。
面接官特定部(特定部)106は、図6Aに示す画面を介して選択された面接対象者に対して適切な面接官を、例えば面接官決定用学習済モデル121を用いて特定する。具体的には、面接官特定部106は、それぞれの面接対象者について、面接対象者の情報と面接の方針とを面接官決定用学習済モデル121に入力し、面接官決定用学習済モデル121からの出力値を取得する。面接対象者の情報は、対象者情報読出部105が面接対象者DB13から読み出した情報であり、面接の方針は、図6Aに示す画面を介して選択された方針(方針を示す方針情報)である。面接官決定用学習済モデル121の出力値は、面接官DB12aに登録してある面接官のそれぞれに対する判別確率であり、それぞれの面接官が、面接対象者に対してどの程度適切であるかを表す度合を示す。例えば、面接官決定用学習済モデル121の出力ノードは面接官の数だけ設けられており、各出力ノードから、各出力ノードに対応付けられた面接官に対する判別確率が出力される。各出力ノードの出力値は例えば0〜1.0の値であり、全ての出力ノードから出力された確率の合計が1.0(100%)となる。面接官特定部106は、例えば面接官決定用学習済モデル121からの出力値が最大の面接官を特定し、特定した面接官を面接対象者に対する面接官に決定する。
なお、面接官決定用学習済モデル121は、例えば深層学習アルゴリズムを用いて学習させたディープラーニングモデルである。面接官決定用学習済モデル121は例えば、過去の面接対象者に関する情報と、それぞれの方針に係る情報と、それぞれの面接対象者に対して適切であった面接官を示す情報(正解ラベル)とを1セットとした教師データを用いて学習する。面接官決定用学習済モデル121は、教師データに含まれる面接対象者に関する情報及び方針に係る情報を入力した場合に、教師データに含まれる正解ラベルが示す面接官に対応する出力ノードからの出力値が1.0に近づき、その他の出力ノードからの出力値が0に近づくように学習する。なお、面接官決定用学習済モデル121は、入力値に対して行う所定の演算を規定する関数の係数や閾値等のデータを最適化する。これにより、面接対象者に関する情報と方針に係る情報とに基づいて、面接対象者に最適な面接官の情報を出力するように学習済みのモデル121が得られる。
面接官決定用学習済モデル121は、第1面接支援装置10において学習が行われてもよいし、異なる学習装置において学習された後に第1面接支援装置10の記憶部12に記憶されてもよい。面接官決定用学習済モデル121は、ディープラーニングモデルに限定されず、種々の機械学習のアルゴリズムによって構築された学習済モデルを用いることができる。また、面接官決定用学習済モデル121は、図6Aに示す画面を介して選択可能な面接の方針毎に設けられていてもよい。この場合、面接官特定部106は、面接対象者の情報のみを面接官決定用学習済モデル121に入力し、面接官決定用学習済モデル121からそれぞれの面接官に対する判別確率を示す出力値を取得する。
なお、図6Aに示す画面において、面接官の決定方法としてAI決定ボタンが選択された場合、面接官特定部106は、面接対象者の情報のみに基づいて面接対象者に適した面接官を特定する。ここでは、面接官特定部106は、面接官決定用学習済モデル121を用いて面接官を特定してもよいし、面接官決定用学習済モデル121とは異なり、面接対象者の情報のみに基づいて適切な面接官の情報を出力するように学習された学習済モデルを用いてもよい。面接官特定部106が面接対象者に適した面接官を特定した場合、画面生成部110は、図6Aに示す画面において、面接対象者に対応する面接官として、特定した面接官の面接官IDを追加する。出力部111は、画面生成部110によって更新された決定画面を表示部16に表示する。
図6Aに示す画面は、表示された面接対象者に対する面接官を決定するための「決定する」ボタンを表示しており、入力部15を介して「決定する」ボタンが操作された場合、表示されている面接官をそれぞれの面接対象者の面接官に決定する。このとき、制御部11は、面接予定DB12bに対して、決定した面接官の面接官IDに対応付けて、面接対象者の面接対象者IDを記憶する。これにより、面接対象者に対して適切な面接官が設定される。このように、面接対象者の面接前の情報に基づいて、最適な面接官を設定することにより、採用につながるような有効な面接の実行が可能な面接官を設定できる。なお、面接官特定部106は、面接官決定用学習済モデル121を用いずに、面接対象者に関する情報と、面接官に関する情報とに基づいて、それぞれの面接対象者に対して適切な面接官を特定してもよい。例えば、適切な組合せである面接対象者の適性検査結果と面接官の適性検査結果とを対応付けてテーブルに記憶しておき、面接対象者の情報に基づいて判定された適性検査結果に対応する面接官をテーブルから特定してもよい。また、第1面接支援装置10が各面接官のスケジュールアプリと連携している場合、制御部11は、面接対象者に対する面接官に決定した場合に、対応する面接官のスケジュールアプリに、面接予定が入ったこと及び面接対象者に関する情報を登録してもよい。
一方、質問決定受付部107が質問内容の決定指示を受け付けた場合、対象者情報読出部108は、質問内容を決定すべき面接対象者に関する情報を面接対象者DB13から読み出す。例えば対象者情報読出部108は、面接対象者の氏名及び適性検査結果等を読み出す。対象者情報読出部108が面接対象者の情報を読み出した場合、画面生成部110は、図6Bに示すような質問の決定画面を生成する。図6Bに示す画面は、図6Aに示す面接官の決定画面と同様の構成を有しており、図6Aに示す画面が面接対象者に対する面接官の情報を表示する代わりに、面接対象者に対する質問の情報(例えば質問内容又は質問の識別情報)を表示する。
出力部111は、画面生成部110が生成した質問の決定画面を表示部16に表示する。図6Bに示す画面において、入力部15を介して質問内容の決定方法として個別決定ボタンが選択された場合、いずれかの方針に対応するボタンと、いずれかの面接対象者のチェックボックスとが更に操作された後に、質問特定部109は、選択された1人の面接対象者について適切な質問内容を特定する。また図6Bに示す画面において、質問の決定方法として一括決定ボタンが選択された場合、いずれかの方針に対応するボタンと、1又は複数の面接対象者のチェックボックスとが更に操作された後に、質問特定部109は、選択された各面接対象者について適切な質問内容を特定する。更に図6Bに示す画面において、質問の決定方法としてAI決定ボタンが選択された場合、1又は複数の面接対象者のチェックボックスが更に操作された後に、質問特定部109は、選択された各面接対象者について適切な質問内容を特定する。なお、質問特定部109が特定する質問内容は、例えば面接開始直後に行うべき質問の内容、面接の序盤又は中盤に行うべき質問の内容、任意のタイミングで行うべき質問の内容等であってもよい。
質問特定部(特定部)109は、図6Bに示す画面を介して選択された面接対象者に対して適切な質問内容を質問決定用学習済モデル122を用いて特定する。具体的には、質問特定部109は、それぞれの面接対象者について、面接対象者の情報と面接の方針とを質問決定用学習済モデル122に入力し、質問決定用学習済モデル122からの出力値を取得する。質問決定用学習済モデル122の出力値は、予め設定された複数の質問内容のそれぞれに対する判別確率であり、それぞれの質問内容が、面接対象者に対してどの程度適切であるかを表す度合を示す。例えば、質問決定用学習済モデル122の出力ノードは、予め設定された、例えば面接の序盤に行うべき質問内容の数だけ設けられており、各出力ノードから、各出力ノードに対応付けられた質問内容に対する判別確率が出力される。質問特定部109は、例えば質問決定用学習済モデル122からの出力値が最大の質問内容を特定し、特定した質問内容を面接対象者に対する質問内容に決定する。なお、予め設定された質問は、質問の識別情報に対応付けて記憶部12に記憶しておく。
なお、質問決定用学習済モデル122は、面接官決定用学習済モデル121と同様にディープラーニングモデルを用いることができる。質問決定用学習済モデル122は例えば、過去の面接対象者に関する情報と、それぞれの方針に係る情報と、それぞれの面接対象者に対して有用であった質問内容を示す情報(正解ラベル)とを1セットとした教師データを用いて学習する。質問決定用学習済モデル122は、教師データに含まれる面接対象者に関する情報及び方針に係る情報を入力した場合に、教師データに含まれる正解ラベルが示す質問に対応する出力ノードからの出力値が1.0に近づき、その他の出力ノードからの出力値が0に近づくように学習する。これにより、面接対象者に関する情報と方針に係る情報とに基づいて、面接対象者に最適な質問内容の情報を出力するように学習済みのモデル122が得られる。
質問決定用学習済モデル122も、第1面接支援装置10において学習が行われてもよいし、異なる学習装置において学習された後に第1面接支援装置10の記憶部12に記憶されてもよい。質問決定用学習済モデル122はディープラーニングモデルに限定されず、種々の機械学習のアルゴリズムによって構築された学習済モデルを用いることができる。また、質問決定用学習済モデル122は、図6Bに示す画面を介して選択可能な面接の方針毎に設けられていてもよい。この場合、質問特定部109は、面接対象者の情報のみを質問決定用学習済モデル122に入力し、質問決定用学習済モデル122からそれぞれの質問内容に対する判別確率を示す出力値を取得する。
なお、図6Bに示す画面において、質問の決定方法としてAI決定ボタンが選択された場合、質問特定部109は、面接対象者の情報のみに基づいて面接対象者に適した質問を特定する。ここでは、質問特定部109は、質問決定用学習済モデル122を用いて質問内容を特定してもよいし、質問決定用学習済モデル122とは異なり、面接対象者の情報のみに基づいて適切な質問内容を特定するように学習された学習済モデルを用いてもよい。質問特定部109が面接対象者に適した質問を特定した場合、画面生成部110は、図6Bに示す画面において、面接対象者に対応する質問として、特定した質問の識別情報を追加する。なお、質問内容自体を図6Bに示す画面に追加してもよい。出力部111は、画面生成部110によって更新された質問の決定画面を表示部16に表示する。
図6Bに示す画面は、表示された面接対象者に対する質問内容を決定するための「決定する」ボタンを表示しており、入力部15を介して「決定する」ボタンが操作された場合、表示されている質問内容をそれぞれの面接対象者の質問内容に決定する。このとき、制御部11は、面接予定DB12bに対して、面接対象者の面接対象者IDに対応付けて、決定した質問内容の識別情報を記憶する。これにより、面接対象者に対して適切な質問内容が設定される。このように、面接対象者の面接前の情報に基づいて、最適な質問内容を設定することにより、採用につながるような有効な面接の実行が可能となる。なお、質問特定部109は、質問決定用学習済モデル122を用いずに、面接対象者に関する情報に基づいて、それぞれの面接対象者に対して適切な質問を特定してもよい。例えば、面接対象者の適性検査結果と、それぞれの適性検査結果の面接対象者に適した質問とを対応付けてテーブルに記憶しておき、面接対象者の情報に基づいて判定された適性検査結果に対応する質問をテーブルから特定してもよい。
以下に、上述したように第1面接支援装置10によって各種情報が記憶された面接予定DB12b及び面接対象者DB13を用いて、実際の面接において面接官を支援する第2面接支援装置20について説明する。図7は第2面接支援装置20の構成例を示すブロック図である。第2面接支援装置20は、実際の面接において面接対象者に関する情報の蓄積処理、蓄積した面接対象者に関する情報に基づいて面接対象者の状態を検出する処理、質問内容を特定する処理等、種々の情報処理を行う。第2面接支援装置20は、パーソナルコンピュータ、サーバコンピュータ等の情報処理装置であり、第1面接支援装置10と同様の構成を有し、更にカメラ27及びマイク28を有する。なお、第1面接支援装置10と同様の構成については説明を省略する。
第2面接支援装置20の記憶部22は、制御部21が実行する制御プログラム22P及び制御プログラム22Pの実行に必要な各種のデータ等を予め記憶している。また記憶部22は、面接前に第1面接支援装置10にて判定された面接対象者の適性検査結果と、面接中に第2面接支援装置20にて判定される面接対象者の適性検査結果とに対応付けて質問内容が設定してある質問設定テーブル221を記憶している。更に記憶部22は、面接予定DB22aを記憶し、面接対象者DB23として人事DB23a、適性結果DB23b、WebアプリDB23c、非言語DB23d、言語DB23e及び面接結果DB23fを記憶する。面接予定DB22a、人事DB23a、適性結果DB23b及びWebアプリDB23cは、第1面接支援装置10の記憶部12に記憶してある面接予定DB12b、人事DB13a、適性結果DB13b及びWebアプリDB13cと同一である。
カメラ27は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して入射した光を撮像素子にて光電変換して画像データを取得する。カメラ27は、制御部21からの指示に従って撮影を行い、取得した画像データ(撮影画像)を逐次制御部21へ送出する。マイク28は、増幅器及びA/D(アナログ/デジタル)変換器等を有する集音装置であり、周囲の音声を収集してアナログの音声データを取得し、取得した音声データを増幅器にて増幅し、A/D変換器にてデジタルの音声データに変換し、音声データを取得する。マイク28は、制御部21からの指示に従って集音を行い、取得した音声データを逐次制御部21へ送出する。
第2面接支援装置20は、カメラ27及びマイク28が内蔵された構成のほかに、外部のカメラ及び/又はマイクの接続が可能な接続部を備える構成でもよい。この場合、接続部は、外部のカメラ及び/又はマイクにて取得された画像データ及び/又は音声データの入力を受け付け、入力された画像データ及び/又は音声データを逐次制御部21へ送出する。第2面接支援装置20は、第1面接支援装置10にカメラ27及びマイク28を接続したものであってもよく、この場合、第2面接支援装置20の記憶部22に、第1面接支援装置10の記憶部12に記憶してある学習済モデル121,122及び面接官DB12aが記憶されていてもよい。また、第2面接支援装置20をサーバコンピュータ等によって構成し、第2面接支援装置20と、カメラ及びマイクを有する外部装置(面接官の端末)とをインターネット又はLAN等のネットワークを介して接続し、外部装置で取得された画像データ及び音声データが、ネットワーク経由で第2面接支援装置20へ送信される構成としてもよい。この場合、第2面接支援装置20はカメラ27及びマイク28を備えていなくてもよい。第2面接支援装置20をサーバコンピュータによって構成する場合、第2面接支援装置20は、複数台設けられて複数台で分散処理する構成でもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。また、第1面接支援装置10及び第2面接支援装置20が実現する各機能を1台のサーバコンピュータによって構成してもよく、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。
更に、第2面接支援装置20と、カメラ、マイク、表示部及びスピーカを有する外部装置(面接対象者の端末)とをネットワークを介して接続し、外部装置で取得された面接対象者の画像データ及び音声データが、ネットワーク経由で第2面接支援装置20へ送信される構成としてもよい。なお、このとき、第2面接支援装置20は面接官の撮影画像(画像データ)及び会話音声(音声データ)を取得し、取得した画像データ及び音声データをネットワーク経由で面接対象者の端末へ送信する。このような構成とした場合、第2面接支援装置20を用いる面接官と面接対象者とが遠隔地にいる場合であっても、テレビ電話やビデオチャット等を利用した遠隔面接を行うことができる。なお、この場合、第2面接支援装置20は、ネットワーク経由で面接対象者の端末から受信した面接対象者の会話音声を出力するためのスピーカを備えている。
図8は、質問設定テーブル221の構成例を示す模式図である。質問設定テーブル221には、面接前の情報に基づいて事前に判定された面接対象者の適性検査結果(事前の結果)と、面接中に第2面接支援装置20にて判定される面接対象者の適性検査結果(リアルタイムの結果)とに対応付けて質問内容が設定してある。質問設定テーブル221に記憶される質問内容は、質問内容を記載したテキストデータであってもよいし、各質問内容の識別情報であってもよいし、記憶部22の所定領域又は外部の記憶装置に記憶された質問内容を読み出すための情報であってもよい。図8に示す例では、事前の適性検査結果をタイプ1〜4とし、リアルタイムの適性検査結果をタイプA〜Dとしているが、タイプの数は4つに限らない。また質問設定テーブル221は、図8に示す構成のほかに、面接前の情報及び面接中に面接対象者が発した会話の内容等の言語情報に基づいて判定される面接対象者の適性検査結果と、面接中の面接対象者の動作や挙動等の非言語情報に基づいて判定される面接対象者の適性検査結果とに対応付けて質問内容が設定されていてもよい。更に質問設定テーブル221は、1つの質問内容に対する回答例毎に設けられており、ある質問に対する面接対象者の回答に応じた質問設定テーブル221を用いて次の質問が決定されてもよい。また質問設定テーブル221は、面接の方針毎に設けられており、面接の方針が指定又は変更された場合に、面接の方針に応じた質問設定テーブル221を用いて次の質問が決定される。
図9及び図10は、第2面接支援装置20に記憶されるDB23d〜23fの構成例を示す模式図である。図9Aは非言語DB23dを、図9Bは言語DB23eを、図10は面接結果DB23fをそれぞれ示す。非言語DB23dは、面接対象者の面接時における動作や挙動に関する情報(以下では非言語情報ともいう)を記憶している。図9Aに示す非言語DB23dは、面接対象者ID列、画像データ列、意図的動作の情報列、無意識的動作の情報列、目線・視線の情報列、顔・表情の情報列、姿勢の情報列、行動の情報列、運動の情報列、解析結果情報列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。画像データ列は、面接対象者の面接時における撮影画像のデータ(画像情報)を記憶する。なお、撮影画像のデータは、非言語DB23dに記憶されるほかに、記憶部22の所定領域又は第2面接支援装置20に接続された外部の記憶装置に記憶されてもよい。この場合、画像データ列は、撮影画像のデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。意図的動作の情報列、無意識的動作の情報列、目線・視線の情報列、顔・表情の情報列、姿勢の情報列、行動の情報列、運動の情報列、解析結果情報列はそれぞれ、面接対象者の撮影画像のデータに基づいて抽出した面接対象者の挙動に関する各種の情報を記憶する。例えば、面接対象者の撮影画像からモーションキャプチャ技術によって面接対象者の動きをデジタルデータとして抽出することにより、面接対象者の目線・視線の動きに係る情報、顔・表情の動きに係る情報、姿勢の変化に係る情報、行動に係る情報、運動に係る情報を取得できる。また、モーションキャプチャ技術によって取得した面接対象者の動きの周期や大きな等に基づいて、面接対象者が意図的に行っている意図的動作であるのか、無意識に行っている無意識的動作であるのかに分類できる。よって、それぞれ分類した意図的動作に係る情報及び無意識的動作に係る情報を取得できる。また、上述したような面接対象者の挙動に関する情報に基づいて、面接対象者の状態を解析することができ、解析結果に係る情報を取得できる。このように取得される面接対象者の挙動に関する情報が非言語DB23dに記憶される。
非言語DB23dに記憶される面接対象者IDは、面接が開始される際に、制御部21によって記憶される。非言語DB23dに記憶される画像データは、カメラ27にて取得する都度、制御部21によって記憶される。また、非言語DB23dに記憶される面接対象者の挙動に関する各種の情報は、制御部21が面接対象者の撮影画像に基づいて各種の情報を取得する都度、制御部21によって記憶される。非言語DB23dの記憶内容は図9Aに示す例に限定されず、面接対象者の撮影画像から抽出できる面接対象者の挙動に関する各種の情報を記憶することができる。
言語DB23eは、面接対象者の面接時における会話内容や声に関する情報(以下では言語情報ともいう)を記憶している。図9Bに示す言語DB23eは、面接対象者ID列、音声データ列、会話時間列、会話間の時間列、質問・回答の時間列、声のトーン列、音声に基づく心理状態列、音声のテキストデータ列、テキストデータのグルーピング情報列、キーワード列、解析結果情報列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。音声データ列は、面接対象者の面接時における会話の音声データ(音声情報)を記憶する。なお、音声データは、言語DB23eに記憶されるほかに、記憶部22の所定領域又は第2面接支援装置20に接続された外部の記憶装置に記憶されてもよい。この場合、音声データ列は、会話の音声データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。会話時間列、会話間の時間列、質問・回答の時間列、声のトーン列、音声に基づく心理状態列、音声のテキストデータ列、テキストデータのグルーピング情報列、キーワード列、解析結果情報列はそれぞれ、面接対象者の音声データに基づいて抽出した面接対象者の会話に関する各種の情報を記憶する。
例えば、会話の音声データに対して、音声の特徴量を抽出する処理、面接官及び面接対象者の声の特徴量の差異等に基づいて面接官の会話部分と面接対象者の会話部分とを分割する処理、会話の継続又は中断を検知する処理等を行うことにより、一連の会話の継続時間(会話時間)、会話と会話の合間の時間(会話間の時間)、質問及び質問に対する回答に要する時間(質問・回答の時間)を取得できる。また、音声データに対して周波数変換処理を行うことにより、面接対象者の声のトーンを抽出することができ、抽出した声のトーン等に基づいて、面接対象者の心理状態を取得できる。また、音声データをテキストデータに変換する処理、テキストデータ中の類似する各文言をグループ化する処理、テキストデータ中に複数回出現するキーワードを抽出する処理等を行うことにより、音声(会話)のテキストデータ、グループ化した各文言のグルーピング情報、キーワードを取得できる。また、上述したような面接対象者の会話に関する情報に基づいて、面接対象者の状態を解析することができ、解析結果に係る情報を取得できる。このように取得される面接対象者の会話に関する情報が言語DB23eに記憶される。
言語DB23eに記憶される面接対象者IDは、面接が開始される際に、制御部21によって記憶される。言語DB23eに記憶される音声データは、マイク28にて取得する都度、制御部21によって記憶される。また、言語DB23eに記憶される面接対象者の会話に関する各種の情報は、制御部21が面接対象者の会話音声に基づいて各種の情報を取得する都度、制御部21によって記憶される。言語DB23eの記憶内容は図9Bに示す例に限定されず、面接対象者の会話音声(音声データ)から抽出できる面接対象者の会話に関する各種の情報を記憶することができる。
面接結果DB23fは、面接中に第2面接支援装置20が算出した各種スコアを記憶する。図10に示す面接結果DB23fは、面接対象者ID列、言語適性結果列、非言語適性結果列、性別列、年齢列、学歴列、マッチングスコア列、希望給与水準列、会社側給与水準列、給与水準ギャップ率列、水準スコア列、採用スコア列、優先度列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。言語適性結果列は、面接中に言語DB23eに蓄積された言語情報に基づいて行われた面接対象者の適性検査の結果(言語適性結果)を記憶し、非言語適性結果列は、面接中に非言語DB23dに蓄積された非言語情報に基づいて行われた面接対象者の適性検査の結果(非言語適性結果)を記憶する。なお、言語適性結果列及び非言語適性結果列に記憶される適性結果は、面接中に逐次更新されて言語DB23e及び非言語DB23dにそれぞれ記憶される解析結果情報を用いてもよい。性別列、年齢列、学歴列はそれぞれ、面接対象者の性別、年齢、学歴を記憶する。
マッチングスコア列は、予め採用ターゲットとして設定した条件とのマッチング率を記憶する。例えば採用ターゲットの条件として、言語適性結果、非言語適性結果、性別、年齢、学歴に関する希望が設定されており、それぞれの条件に適合した場合に加算するスコアが設定されている。よって、各面接対象者の言語適性結果、非言語適性結果、性別、年齢、学歴のそれぞれが採用ターゲットの条件に適合するか否かを判断し、適合する条件に設定されたスコアの合計を算出し、算出した合計をマッチングスコアとすることができる。なお、マッチングスコアの算出方法はこの例に限らない。図10に示すマッチングスコアは、採用ターゲットの条件として例えば言語適性結果、非言語適性結果、性別、年齢、学歴にそれぞれタイプB、タイプA、男、21〜25歳、大学卒業が設定してあり、それぞれに対するスコアに40,30,10,10,10が設定されている場合の例を示す。
希望給与水準列は、面接対象者が希望する給与(例えば年収)を記憶し、会社側給与水準列は、会社が面接対象者に支払い可能な給与(例えば年収)を記憶する。面接対象者の希望給与は、面接前に面接対象者が提出した履歴書等に記載されている希望年収であってもよいし、面接中に面接対象者が語った希望年収であってもよい。会社側の支払い可能給与は、面接前に事前に設定された年収であってもよいし、面接中に面接官によって指定された年収であってもよい。給与水準ギャップ率列は、面接対象者の希望給与と、会社側の支払い可能給与とのギャップを数値化したギャップ率を記憶する。ギャップ率は例えば、(支払い可能給与−希望給与)/希望給与の式にて算出される。水準スコア列は、給与水準ギャップ率に応じた係数を記憶する。なお、給与水準ギャップ率に応じた係数は、予め記憶部22に記憶してある。図10に示す水準スコアは、給与水準ギャップ率が−0.25未満、−0.25以上0.00未満、0.00、0.00より大きく0.25未満、0.25以上の場合にそれぞれ、0.5,0.8,1.2,1.3,1.5の各水準スコアが設定されている場合の例を示す。採用スコア列は、マッチングスコアに水準スコアを積算した採用スコアを記憶する。優先度列は、採用スコアに応じた優先度を記憶する。優先度は、例えば採用スコアが高い順に1,2…としてあり、優先度が小さいほど採用希望が高い面接対象者であることを示す。
面接結果DB23fに記憶される面接対象者ID、性別、年齢、学歴は、面接が開始される際に制御部21によって記憶される。面接結果DB23fに記憶される言語適性結果、非言語適性結果、マッチングスコアは、制御部21が面接対象者の言語情報及び非言語情報に基づいて各種の情報(検査結果)を取得する都度、制御部21によって記憶される。面接結果DB23fに記憶される希望給与水準及び会社側給与水準は、面接が開始される際に制御部21によって記憶されてもよく、面接中に入力部25を介して変更指示を受け付ける都度、制御部21によって更新されてもよい。面接結果DB23fに記憶される給与水準ギャップ率、水準スコア、採用スコア、優先度は、制御部21が各種の情報を算出する都度、制御部21によって記憶される。面接結果DB23fの記憶内容は図10に示す例に限定されず、面接結果に関する各種の情報を記憶することができる。
次に、第2面接支援装置20の制御部21が制御プログラム22Pを実行することによって実現される機能について説明する。図11は、第2面接支援装置20の制御部21によって実現される機能を示すブロック図、図12は、画面例を示す模式図である。図12Aは面接開始時点での面接支援画面例を示し、図12Bは面接中の面接支援画面例を示す。第2面接支援装置20の制御部21は、記憶部22に記憶してある制御プログラム22Pを実行した場合、対象者情報読出部201、画面生成部202、出力部203、画像取得部204、非言語情報取得部205、音声取得部206、言語情報取得部207、対象者情報記憶部208、回答受付部209、方針受付部210、質問特定部211、スコア算出部212の各機能を実現する。なお、本実施形態では、これらの各機能を制御部21が制御プログラム22Pを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。
本実施形態の第2面接支援装置20において、面接を開始する前に、例えば面接官はカメラ27及びマイク28の動作確認を行い、カメラ27にて面接対象者を撮影でき、マイク28にて面接対象者の発話を集音できるようにカメラ27及びマイク28を配置する。なお、カメラ27は、例えば面接対象者の上半身又は全身を撮影できるように配置される。そして、面接を開始する際に、面接官は第2面接支援装置20の制御部21に制御プログラム22Pを実行させる。制御部21が制御プログラム22Pを実行した場合、対象者情報読出部201は、面接すべき面接対象者に関する情報を面接対象者DB23から読み出す。また対象者情報読出部201は、面接対象者に設定された質問内容を面接予定DB22aから読み出す。そして、画面生成部202は、対象者情報読出部201が読み出した面接対象者の情報及び質問内容に基づいて、図12Aに示すような面接支援画面を生成する。
図12Aに示す画面は、面接対象者DB23から読み出された面接対象者の情報を表示するプロフィール欄を有する。例えば、面接対象者の氏名、年齢、性別、学歴、志望動機等が表示される。また、プロフィール欄は、面接中にカメラ27にて撮影される面接対象者の撮影画像(カメラ映像)の表示欄を有する。また図12Aに示す画面は、面接予定DB22aから読み出された質問内容を表示するQ&A欄を有する。なお、それぞれの質問内容には複数の回答例が設定されて記憶部22に記憶されており、質問内容と、この質問内容に設定された回答例とがQ&A欄に表示される。また、Q&A欄には、予め設定された回答例以外の回答の入力欄と、この入力欄に対する入力の終了を指示するためのOKボタンとを有する。更に図12Aに示す画面は、実施中の面接の方針を選択するための採用希望ボタン、深堀りボタン及び圧迫ボタンを表示し、面接中に選択された方針に応じたレコメンド質問を表示するレコメンド質問欄を有する。更に図12Aに示す画面は、面接中に行われる適性検査の結果等を表示する面接結果欄を有する。出力部203は、画面生成部202が生成した面接支援画面を表示部26に表示する。
また、制御部21が制御プログラム22Pを実行した場合、画像取得部(取得部)204はカメラ27による撮影を開始し、音声取得部(取得部)206はマイク28による集音を開始する。画像取得部204は、取得した画像データを逐次非言語DB23dに記憶すると共に、非言語情報取得部205へ送出する。非言語情報取得部205は、面接対象者の撮影画像(画像データ)からモーションキャプチャ技術によって面接対象者の動きを抽出し、面接対象者の目線・視線の動き、顔・表情の動き、姿勢の変化、行動、運動等、面接対象者の挙動に関する情報(非言語情報)を取得する。また非言語情報取得部205は、取得した面接対象者の挙動に関する情報に基づいて、面接対象者の意図的動作及び無意識的動作に関する情報を取得し、更には、上述したような情報に基づいて面接対象者の状態を解析して解析結果に係る情報を取得する。対象者情報記憶部208は、非言語情報取得部205が取得した面接対象者の挙動に関する各種の非言語情報を面接対象者DB23の非言語DB23dに記憶する。非言語情報取得部205は、非言語情報として、例えばMicrosoft社製のEmotion API等のアプリケーションプログラムを用いて、面接対象者の撮影画像から面接対象者の感情を検出し、検出した感情を非言語DB23dに記憶してもよい。
音声取得部206は、取得した音声データを逐次言語DB23eに記憶すると共に、言語情報取得部207へ送出する。言語情報取得部207は、面接対象者の会話音声(音声データ)に対して各種の音声信号処理を行うことにより、一連の会話の会話時間、会話と会話の合間の時間、質問及び質問に対する回答に要する時間を取得する。また言語情報取得部207は、音声データから面接対象者の声のトーンを抽出し、抽出した声のトーンや発話状態等に基づいて、面接対象者の心理状態(感情)を取得する。また言語情報取得部207は、音声データをテキストデータに変換し、得られたテキストデータ中の各文言をグループ化すると共に、複数回出現するキーワードを抽出し、更には、上述したような情報に基づいて面接対象者の状態を解析して解析結果に係る情報を取得する。対象者情報記憶部208は、言語情報取得部207が取得した面接対象者の会話に基づく各種の言語情報を面接対象者DB23の言語DB23eに記憶する。言語情報取得部207は、言語情報として、面接対象者の会話音声から、面接官と面接対象者との会話の進捗状態や面接対象者の発話状態等を検出し、検出結果から面接対象者の感情を検出して言語DB23eに記憶してもよい。
上述した各部の処理により、非言語DB23dには面接対象者の挙動に関する非言語情報が蓄積され、言語DB23eには面接対象者の会話に関する言語情報が蓄積される。スコア算出部(特定部)212は、非言語DB23d及び言語DB23eに蓄積される各種情報から各種スコアを算出し、算出した各種スコアを面接結果DB23fに記憶する。具体的には、スコア算出部212は、言語DB23eに記憶された解析結果情報(言語情報に基づく適性検査結果)及び非言語DB23dに記憶された解析結果情報(非言語情報に基づく適性検査結果)を面接結果DB23fに記憶する。なお、面接を開始する際に、面接対象者の面接対象者ID、性別、年齢、学歴、希望給与水準、会社側給与水準が面接結果DB23fに記憶される。スコア算出部212は、面接対象者の情報と、予め設定してある採用ターゲットの条件とに基づいて、面接対象者におけるマッチングスコアを算出して面接結果DB23fに記憶する。またスコア算出部212は、希望給与水準及び会社側給与水準に基づいて給与水準ギャップ率を算出し、給与水準ギャップ率から水準スコアを特定し、マッチングスコア及び水準スコアから採用スコアを算出し、採用スコアから優先度を特定し、それぞれ特定したスコアを面接結果DB23fに記憶する。なお、ここでの優先度は、各面接対象者の面接時点で既に面接が終了している面接対象者の中での暫定的な優先度である。
スコア算出部212が各種スコアを算出した場合、画面生成部202は、図12Aに示す画面中の面接結果欄に各種スコアを追加し、図12Bに示す画面に更新する。図12Bに示す画面は、面接結果として、面接対象者に対して算出されたマッチングスコア、採用スコア及び優先度を表示する。出力部203は、画面生成部202によって更新された面接支援画面を表示部26に表示する。なお、スコア算出部212が算出するスコアは、上述した例のほかに、例えば面接対象者の本気度を用いてもよく、面接対象者の非言語情報及び言語情報に基づいて特定でき面接対象者の状態を把握できるスコアを用いてもよい。なお、スコア算出部212は、非言語DB23d及び言語DB23eに記憶される解析結果情報が更新される都度、自動的に面接結果DB23fの内容を更新してもよい。また、図12A,Bに示す画面の面接結果欄に相性確認ボタンが設けられており、スコア算出部212は、入力部25を介して相性確認ボタンが操作された場合にも、面接結果DB23fの内容を更新し、面接結果欄の表示内容を更新する処理を行ってもよい。
面接官は面接中に面接支援画面のQ&A欄に表示された質問を面接対象者に行い、回答例A1〜A3の中から面接対象者の回答に近い回答例を入力部25にて選択する。なお、面接対象者の回答に近い回答例がない場合、面接官は、その他の回答の入力欄に面接対象者が行った回答を入力し、OKボタンを操作する。面接支援画面において、回答例A1〜A3のいずれかが操作(選択)された場合、又はその他の回答が入力された場合、回答受付部209は、面接対象者による質問に対する回答を受け付ける。回答受付部209が面接対象者の回答を受け付けた場合、質問特定部211は、質問設定テーブル221から次の質問内容を特定する。ここでは、質問特定部211は、回答受付部209が受け付けた直前の質問内容に対する面接対象者の回答に対応する質問設定テーブル221を特定し、特定した質問設定テーブル221から、事前の結果(面接前に判定されていた面接対象者の適性検査結果)と、リアルタイムの結果(面接中に判定された面接対象者の適性検査結果)とに対応する質問内容を特定する。なお、事前の結果は、例えば適性結果DB23bに記憶してある適性検査結果を用い、リアルタイムの結果は、例えば非言語DB23d又は言語DB23eに記憶してある解析結果情報を用いることができる。質問特定部211が次の質問内容を特定した場合、画面生成部202は、図12A又は図12Bに示す画面中のQ&A欄に次の質問内容及び回答例を表示して面接支援画面を更新する。出力部203は、画面生成部202によって更新された面接支援画面を表示部26に表示する。
面接官は面接中に面接方針を変更したい場合、図12A又は図12Bに示す画面において、いずれかの方針に対応するボタンを入力部25にて操作する。面接支援画面において、いずれかの方針に対応するボタンが操作(選択)された場合、方針受付部210は、面接の方針(方針に関する方針情報)を受け付ける。方針受付部210が面接の方針を受け付けた場合、質問特定部211は、質問設定テーブル221に基づいて次の質問内容(レコメンド質問)を特定する。ここでは、質問特定部211は、方針受付部210が受け付けた方針に対応する質問設定テーブル221を特定し、特定した質問設定テーブル221から、面接対象者に対する事前の結果及びリアルタイムの結果に対応する質問内容を特定する。質問特定部211が面接の方針に沿った質問内容を特定した場合、画面生成部202は、図12Bに示す画面中のレコメンド質問欄に、特定した質問内容及び回答例を表示して面接支援画面を更新する。出力部203は、画面生成部202によって更新された面接支援画面を表示部26に表示する。なお、質問特定部211は、第1面接支援装置10の質問特定部109のように、面接官から指定された方針に応じた質問内容を、質問決定用学習済モデルを用いて特定してもよい。この場合、質問決定用学習済モデルは記憶部22に記憶しておく。
上述した各部の処理により、第2面接支援装置20では、面接前に決定しておいた質問内容が表示され、この質問に対する面接対象者の回答が画面を介して入力された場合に、次の質問が表示され、面接官による面接を支援できる。また、次の質問は、直前の質問に対する回答及び面接対象者の特性検査結果等に基づいて決定されるので、面接対象者に対して適切な質問内容を決定できる。また、面接対象者に対する適性検査結果及び適性検査結果に基づく各種スコアがリアルタイムで算出されて表示されるので、面接官は各種スコアを把握した状態で面接を行うことができる。更に、面接官が面接の方針の変更指示を行った場合、方針に応じた質問内容がレコメンド質問として表示されるので、面接の方針に沿った適切な質問が設定され、採用につながるような有効な面接が可能となる。
次に、第1面接支援装置10が行う処理について説明する。図13は、第1面接支援装置10による面接対象者の登録処理の手順を示すフローチャートである。以下の処理は、第1面接支援装置10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。第1面接支援装置10の制御部11は、面接対象者に関する情報の登録指示を受け付けたか否かを判断する(S11)。例えば制御部11は、図5Aに示す初期画面において「面接対象者を登録する」ボタンが操作された場合、面接対象者に関する情報の登録指示を受け付ける。登録指示を受け付けていないと判断した場合(S11:NO)、制御部11は登録指示を受け付けるまで待機する。
登録指示を受け付けたと判断した場合(S11:YES)、制御部11は、図5Bに示すような登録画面を表示部16に表示する(S12)。次に制御部11は、図5Bに示す画面を介して面接対象者の情報の登録方法を受け付け(S13)、受け付けた登録方法にて面接対象者に関する情報を取得する(S14)。例えば登録方法としてCSVが選択された場合、制御部11は、CSVフォーマットで面接対象者の情報が記載されたファイルから面接対象者の情報を取得する。制御部11は、取得した面接対象者に関する各種の情報を面接対象者DB13(DB13a〜13c)にそれぞれ記憶し(S15)、登録処理を終了する。
なお、制御部11は、指定された登録方法にて取得した面接対象者の情報を面接対象者DB13に記憶するだけでなく、取得した面接対象者に関する情報に基づいて事前に行うべき各種の適性検査を行い、得られた情報も面接対象者DB13に記憶する。これにより、面接対象者によって入力された情報だけでなく、この情報に基づいて面接対象者のプロファイリングを行った結果(各種の適性検査結果)も面接対象者DB13(適性結果DB13b)に登録できる。
図14は、第1面接支援装置10による面接官又は質問内容の決定処理の手順を示すフローチャートである。第1面接支援装置10の制御部11は、面接官の決定指示を受け付けたか否かを判断する(S21)。例えば制御部11は、図5A又は図5Cに示す画面において「面接官を決める」ボタンが操作された場合、面接官の決定指示を受け付ける。面接官の決定指示を受け付けていないと判断した場合(S21:NO)、制御部11はステップS28に処理を移行する。面接官の決定指示を受け付けたと判断した場合(S21:YES)、制御部11は、面接対象者DB13に登録された面接対象者の情報を面接対象者DB13から読み出し(S22)、面接対象者の情報を一覧表示する面接官の決定画面を生成して表示部16に表示する(S23)。これにより、図6Aに示すような決定画面が表示される。なお、制御部11は、面接官がまだ決定されていない面接対象者の情報のみを表示する面接官の決定画面を生成してもよい。
制御部11は、面接官の決定画面を介して、面接官の決定方法、面接の方針、面接官を決定すべき面接対象者の選択を受け付け、選択された面接対象者に対して、選択された決定方法で、選択された面接の方針に応じた面接官を特定する(S24)。なお、制御部11は、選択された面接対象者に適した面接官を面接官決定用学習済モデル121を用いて特定する。制御部11は、例えば面接官の決定画面に、特定した面接官の面接官IDを追加することにより、決定した面接官(特定結果)を表示する(S25)。
制御部11は、表示された面接官を、それぞれの面接対象者に対する面接官に決定する指示を受け付けたか否かを判断する(S26)。例えば制御部11は、図6Aに示す画面中の「決定する」ボタンが操作された場合、表示された面接官に対する決定指示を受け付ける。面接官に対する決定指示を受け付けたと判断した場合(S26:YES)、制御部11は、図6Aに示す画面に表示された各面接対象者に対応する面接官(特定結果)を面接予定DB12bに記憶する(S27)。具体的には、制御部11は、面接予定DB12bにおいて、決定した面接官の面接官IDに対応付けて、この面接対象者の面接対象者IDを記憶する。これにより、それぞれの面接対象者に対して最適な面接官を決定して登録できる。面接官の決定指示を受け付けていないと判断した場合(S26:NO)、制御部11はステップS27の処理をスキップする。
次に制御部11は、面接対象者に対する質問内容の決定指示を受け付けたか否かを判断する(S28)。例えば制御部11は、図5A又は図5Cに示す画面において「質問を決める」ボタンが操作された場合、いずれかの面接対象者に対する質問内容の決定指示を受け付ける。質問内容の決定指示を受け付けていないと判断した場合(S28:NO)、制御部11はステップS21に処理を戻す。
質問内容の決定指示を受け付けたと判断した場合(S28:YES)、制御部11は、面接対象者DB13に登録された面接対象者の情報を面接対象者DB13から読み出し(S29)、面接対象者の情報を一覧表示する質問の決定画面を生成して表示部16に表示する(S30)。これにより、図6Bに示すような決定画面が表示される。なお、制御部11は、質問がまだ決定されていない面接対象者の情報のみを表示する質問の決定画面を生成してもよい。制御部11は、質問の決定画面を介して、質問の決定方法、面接の方針、質問を決定すべき面接対象者の選択を受け付け、選択された面接対象者に対して、選択された決定方法で、選択された面接の方針に応じた質問内容を特定する(S31)。なお、制御部11は、選択された面接対象者に適した質問内容を、質問決定用学習済モデル122を用いて特定する。制御部11は、例えば質問の決定画面に、特定した質問内容の識別情報を追加することにより、決定した質問内容(特定結果)を表示する(S32)。
制御部11は、表示された質問内容を、それぞれの面接対象者に対する質問内容に決定する指示を受け付けたか否かを判断する(S33)。例えば制御部11は、図6Bに示す画面中の「決定する」ボタンが操作された場合、表示された質問内容に対する決定指示を受け付ける。質問内容に対する決定指示を受け付けたと判断した場合(S33:YES)、制御部11は、図6Bに示す画面に表示された各面接対象者に対して決定した質問内容(特定結果)を面接予定DB12bに記憶する(S34)。具体的には、制御部11は、面接予定DB12bにおいて、この面接対象者の面接対象者IDに対応付けて、決定した質問内容の識別情報を記憶する。これにより、それぞれの面接対象者に対して最適な質問内容を決定して登録できる。質問内容に対する決定指示を受け付けていないと判断した場合(S33:NO)、制御部11はステップS34の処理をスキップする。
上述した処理により、面接前に面接対象者に関する各種情報を取得して面接対象者DB13に登録することができる。また、登録した各情報に基づいて、面接前に面接対象者の適性検査及びプロファイリングを行うことができ、検査結果を面接対象者DB13に登録できる。よって、事前に面接対象者について把握でき、面接対象者に最適な面接官及び質問内容を設定できる。
次に、第2面接支援装置20が行う処理について説明する。図15は、第2面接支援装置20による面接支援処理の手順を示すフローチャートである。以下の処理は、第2面接支援装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部11によって実行される。面接官は、面接を行う際に、カメラ27にて面接対象者を撮影でき、マイク28にて面接対象者の発話を集音できるようにカメラ27及びマイク28を配置し、第2面接支援装置20の制御部21に制御プログラム22Pを実行させる。これにより、制御部21は、面接すべき面接対象者に関する情報を面接対象者DB23から読み出し、読み出した情報に基づいて、図12Aに示すような面接支援画面を生成して表示部26に表示する(S41)。
制御部21は、カメラ27による撮影を開始し、取得した画像データ(面接対象者の撮影画像)を順次非言語DB23dに記憶すると共に、記憶した画像データに基づいて面接対象者の動きを抽出し、面接対象者の挙動に関する各種の情報(非言語情報)を取得して非言語DB23dに逐次蓄積する。なお、面接対象者の撮影画像は、カメラ27にて取得された後に、又はカメラ27にて取得されて非言語DB23dに記憶された後に、表示中の面接支援画面におけるカメラ映像の表示欄に表示される。また制御部21は、マイク28による集音を開始し、取得した音声データ(面接対象者の会話音声)を順次言語DB23eに記憶すると共に、記憶した音声データに基づいて面接対象者の状態を抽出し、面接対象者の会話に関する各種の情報(言語情報)を取得して言語DB23eに逐次蓄積する。
制御部21は、上述したような撮影画像及び会話音声の取得処理と、取得した撮影画像及び会話音声に基づく面接対象者に対する解析処理(適性検査等)とを行いつつ、面接支援画面中のQ&A欄に表示された質問内容に対する回答例のいずれかの選択、又はその他の回答の入力を受け付けたか否かを判断する(S42)。質問内容に対する面接対象者による回答を受け付けたと判断した場合(S42:YES)、制御部21は、質問設定テーブル221に基づいて次の質問内容を特定し(S43)、面接支援画面中のQ&A欄に、特定した次の質問内容及び回答例を表示し、面接支援画面を更新する(S44)。なお、制御部21は、面接前に取得した面接対象者の情報から判定された適性検査結果(事前の結果)と、面接中の面接対象者の言語情報及び非言語情報から判定された適性検査結果(リアルタイムの結果)とに応じた質問内容を特定する。質問内容に対する面接対象者による回答を受け付けていないと判断した場合(S42:NO)、制御部21はステップS43,S44の処理をスキップする。
また制御部21は、面接支援画面を介して面接の方針を受け付けたか否かを判断する(S45)。例えば制御部21は、図12A又は図12Bに示す面接支援画面中に表示したいずれかの方針に対応するボタンが操作された場合、操作されたボタンに対応する方針を受け付ける。面接の方針を受け付けたと判断した場合(S45:YES)、制御部21は、質問設定テーブル221に基づいてレコメンド質問を特定し(S46)、面接支援画面中のレコメンド質問欄に、特定したレコメンド質問の内容及び回答例を表示し、面接支援画面を更新する(S47)。なお、制御部21は、指定された面接の方針と、面接対象者に対する事前の適性検査結果及びリアルタイムの適性検査結果とに応じた質問内容を特定する。面接の方針を受け付けていないと判断した場合(S45:NO)、制御部21はステップS46,S47の処理をスキップする。
また制御部21は、面接支援画面を介して相性確認の実行指示を受け付けたか否かを判断する(S48)。例えば制御部21は、図12A又は図12Bに示す面接支援画面中の面接結果欄に表示した相性確認ボタンが操作された場合、相性確認の実行指示を受け付ける。相性確認の実行指示を受け付けたと判断した場合(S48:YES)、制御部21は、非言語DB23d及び言語DB23eに蓄積された各種情報から各種スコアを算出する(S49)。例えば制御部21は、面接対象者の情報と、予め設定してある採用ターゲットの条件とに基づくマッチングスコア等を算出する。制御部21は、算出した各種スコアを面接結果DB23fに記憶すると共に、面接支援画面中の面接結果欄に各種スコアを表示し、面接支援画面を更新する(S50)。なお、制御部21は、適宜のタイミングで算出する各種スコアを、時系列的に面接結果DB23fに蓄積してもよいし、最新のスコアのみを面接結果DB23fに記憶してもよい。相性確認の実行指示を受け付けていないと判断した場合(S48:NO)、制御部21はステップS49,S50の処理をスキップする。
制御部21は、例えば面接支援画面中の終了ボタンが操作されることによって、面接の終了指示を受け付けたか否かを判断する(S51)。制御部21は、終了指示を受け付けていないと判断した場合(S51:NO)、ステップS42の処理に戻り、ステップS42〜S51の処理を繰り返し、終了指示を受け付けたと判断した場合(S51:YES)、処理を終了する。
第2面接支援装置20は、上述した処理により、面接前に取得した面接対象者の情報に基づく適性検査結果と、面接中に取得する面接対象者の撮影画像及び会話音声に基づく適性検査結果とを考慮して、それぞれの面接対象者に対する採用スコアを算出でき、採用の優先度を特定できる。図16は、面接結果画面例を示す模式図である。第2面接支援装置20の制御部21は、例えば入力部25を介して面接結果画面の表示指示を受け付けた場合、それぞれの面接対象者の情報、適性検査結果、各種スコア等を面接対象者DB23から読み出して、図16に示すような面接結果画面を生成して表示部26に表示する。図16に示す例は、面接対象者の氏名、適性検査結果、優先度、マッチングスコア、採用スコア等を表示する。なお、適性検査結果は、事前に判定された検査結果と、リアルタイムに判定された検査結果とをそれぞれ表示してもよいし、2つの検査結果に基づいて判定された総合的な検査結果を表示してもよい。このような画面により、それぞれの面接対象者における適性検査結果を把握でき、各種スコア及び優先度を比較することができる。なお、面接結果画面の構成は図16に示す例に限らず、例えば各面接対象者の希望年収、会社側の支払い可能年収等を表示してもよい。
本実施形態では、面接を行う前に、面接対象者に関する情報に基づいて各種の適性検査を行うことにより、面接対象者のIQやEQ、行動心理学上の各タイプの分類等の解析を行うことができる。そして、その解析結果に応じて面接対象者に最適な面接官及び面接時の質問を設定することにより、より有効な面接を行うための準備が可能となる。また面接中に、面接支援画面において、質問に対する面接対象者の回答に応じた次の質問を提示したり、面接の方針に応じたレコメンド質問を提示することができ、面接官による面接を支援できる。また面接中に、面接対象者の挙動に関する情報や会話内容に関する情報に基づいて各種の適性検査を行うことにより、面接対象者の行動心理学上の各タイプの分類結果をリアルタイムに解析できる。更に、リアルタイムでの解析結果に基づいて、所定の採用ターゲットの条件に対する面接対象者の採用スコアをリアルタイムに分析でき、分析結果を面接官に提示することにより、面接対象者に対する各種スコアをリアルタイムで把握できる。このようにそれぞれの面接対象者に対して最適な面接官及び最適な質問で面接に臨むことにより、会社が欲しい人材を確実に見出して採用し損なうことを回避し、また、会社が欲しい人材による採用の辞退を抑制することが期待できる。
本実施形態では、面接対象者の履歴書、職務経歴書、志望動機等のように事前に取得できる情報だけでなく、面接中の面接対象者の会話内容及び挙動(動作や表情)に関する情報も含めた各種の情報を解析して面接対象者のことを分析する。よって、人間では見落としてしまうような事項の見落としを抑制でき、また、面接官個人の価値観や感情による偏った評価を抑制できる。また、それぞれの面接対象者を分析した結果を示す各種のスコアを提示できるので、採用すべき面接対象者を決定することを支援できる。
(実施形態2)
実施形態1の第2面接支援装置20が、面接中に取得する撮影画像及び会話音声に基づいて面接に関するスコアを算出する構成を更に有する実施形態について説明する。本実施形態の第1面接支援装置10は、実施形態1と同様の構成を有し同様の処理を行うので説明を省略する。また本実施形態の第2面接支援装置20は、実施形態1と同様の構成を有し、更に図17に示すような面接履歴DB22bを記憶部22に記憶する。なお、同様の構成については説明を省略する。
図17は、面接履歴DB22bの構成例を示す模式図である。面接履歴DB22bは、例えば実施された面接毎に設けられ、それぞれの面接について面接開始から所定時間毎の面接に関する情報を記憶している。図17に示す面接履歴DB22bは、開始時間列、終了時間列、画像データ列、音声データ列、面接スコア列等を含む。開始時間列及び終了時間列は、面接の開始から終了までの間における所定の時間帯の開始時点の時間及び終了時点の時間をそれぞれ記憶する。なお、図17に示す例では、開始時間及び終了時間は、面接開始からの時間を「分:秒」で示しているが、日時情報等を用いてもよい。画像データ列は、面接対象者の面接時における撮影画像のデータを記憶し、音声データ列は、面接対象者の面接時における会話の音声データを記憶する。なお、撮影画像のデータ及び音声データは、面接履歴DB22bに記憶されるほかに、記憶部22の所定領域又は第2面接支援装置20に接続された外部の記憶装置に記憶されてもよい。この場合、画像データ列及び音声データ列は、撮影画像のデータ及び音声データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。面接スコア列は、例えば面接対象者の画像データ及び音声データに基づいて算出(特定)された面接のスコアを記憶する。
面接履歴DB22bにおいて、所定の時間帯は、図17に示すように5分毎に限定されない。例えば第2面接支援装置20が、面接対象者の撮影画像及び会話音声に基づいて、面接の開始から終了までの間において、自己紹介の時間帯、面接官からの質問の時間帯、面接対象者からの質問の時間帯、雑談の時間帯等、面接中の各時間帯(シーン)を判別できる場合、それぞれ判別した時間帯を用いてもよい。なお、第2面接支援装置20は、面接履歴DB22bに各データを記憶する代わりに、非言語DB23dにそれぞれの時間帯に応じた画像データ及び面接スコアを記憶し、言語DB23eにそれぞれの時間帯に応じた音声データ及び面接スコアを記憶する構成でもよい。
図18は、第2面接支援装置20の制御部21によって実現される機能を示すブロック図、図19は画面例を示す模式図である。本実施形態の第2面接支援装置20の制御部21は制御プログラム22Pを実行することによって、図11に示す各機能に加えて、面接スコア算出部213及び面接履歴表示部214の各機能を実現する。図18では、面接スコア算出部213及び面接履歴表示部214以外の各部の図示を省略する。
面接スコア算出部213は、例えば面接中に取得した面接対象者の撮影画像及び会話音声に基づいて、面接中のそれぞれの時間帯における面接に関するスコアを特定(算出)する。面接のスコアは、例えば面接中に面接対象者DB23に逐次記憶される各情報に基づいて算出され、面接が良好に進行しているか否かを例えば100点満点で示す。面接スコア算出部213は、例えば面接対象者の撮影画像のデータ及び音声データに基づいて解析された面接対象者の状態の解析結果から面接のスコアを算出してもよい。例えば面接対象者の撮影画像及び会話音声を解析して得られた面接対象者の状態(解析結果)に応じて予めスコアが設定されており、面接スコア算出部213は、逐次得られる面接対象者の解析結果に応じたスコアを加算又は減算することにより面接のスコアを算出してもよい。なお、面接スコア算出部213は、それぞれの時間帯に取得した撮影画像及び会話音声に基づいて面接のスコアを算出してもよいし、面接開始からそれぞれの時間帯が経過するまでの間に取得した撮影画像及び会話音声に基づいて面接のスコアを算出してもよい。
面接スコア算出部213は、面接中のそれぞれの時間帯毎に、面接対象者DB23から読み出した画像データ及び音声データ、又は画像取得部204及び音声取得部206が取得した画像データ及び音声データを面接履歴DB22bに蓄積する。また面接スコア算出部213は、例えばそれぞれの時間帯が終了した時点で、それぞれの時間帯における面接スコアを算出して面接履歴DB22bに記憶する。なお、面接のスコアは、面接対象者の撮影画像及び会話音声だけでなく、面接官の会話音声も考慮して算出してもよく、第2面接支援装置20が面接官の撮影画像を取得する構成を有する場合、面接官の撮影画像も考慮して算出してもよい。
面接履歴表示部214は、面接履歴DB22bに蓄積された各データに基づいて、面接履歴画面を生成して表示部26に表示する。第2面接支援装置20は、例えば入力部25を介して面接履歴の表示指示を受け付けた場合、図19Aに示すような面接履歴画面を生成して表示部26に表示する。図19Aに示す画面では、それぞれの面接について面接官の面接官ID、面接対象者の面接対象者ID、面接日、面接スコア等を表示する。面接履歴表示部214は、記憶部22に記憶してあるDB22a,22b,23から各情報を読み出して面接履歴画面を生成する。なお、図19Aに示す画面中に表示される面接スコアは、面接終了時点でのスコアであってもよく、面接履歴DB22bに各時間帯に応じて記憶してあるスコアから算出される値であってもよい。
図19Aに示す画面において、例えば入力部25を介していずれかの面接が選択された場合、第2面接支援装置20は、選択された面接の面接履歴DB22bから各データを読み出し、図19Bに示す画面を生成して表示部26に表示する。図19Bに示す画面では、選択された面接に関する情報(面接官ID、面接対象者ID、面接日、面接スコア)が表示されると共に、面接中に撮影された面接対象者の撮影画像が表示される。また図19Bに示す画面では、表示される撮影画像(動画)に対して面接の開始から終了までの間の任意の時点を指定するためのインジケータが表示されている。また、インジケータの上部には面接開始からの経過時間が表示され、下部にはそれぞれの時点で算出された面接スコアが表示されている。図19Bに示す画面において、入力部25を介してインジケータが操作された場合、第2面接支援装置20は、インジケータによって指定された時点から撮影画像の再生(表示)を行うことができる。なお、第2面接支援装置20は、面接対象者の撮影画像を表示部26に表示する場合、面接対象者の会話音声(音声データ)もスピーカ(図示せず)から音声出力する。これにより、面接履歴DB22bに蓄積した画像データ及び音声データを面接終了後に視聴することができる。また、面接におけるそれぞれのタイミングで算出された面接スコアが面接履歴画面に表示されるので、面接時の画像及び音声と共にその時点での面接スコアを確認できる。よって、面接官及び面接対象者は、面接終了後に、図19Bに示す画面によって面接の反省会を行うことができる。なお、面接スコアと共に、それぞれの時点において、面接官及び面接対象者のそれぞれにおける良い点、悪い点、課題等を表示させてもよい。これにより、面接後に面接官及び面接対象者のそれぞれに面接における良い点、悪い点、課題等をフィードバックすることができる。なお、それぞれの時点における面接官に対する良い点、悪い点、課題は、例えば面接官の上司や先輩によって入力される評価情報であってもよく、入力された評価情報は面接履歴DB22bに記憶されてもよい。また、それぞれの時点における面接対象者に対する良い点、悪い点、課題は、例えば転職エージェントによって入力される評価情報であってもよく、入力された評価情報は面接履歴DB22bに記憶されてもよい。
上述した構成により、本実施形態の第2面接支援装置20は、実施形態1と同様の処理を行いつつ、面接中に図17に示す面接履歴DB22bに各データを蓄積する。このように面接履歴DB22bに面接に関する情報が蓄積されることにより、面接終了後に、面接履歴DB22bに蓄積したデータに基づいて、面接履歴画面にて面接を再現できる。
図19Bに示す画面において、例えば任意の面接スコアを入力するための入力欄を設けてもよい。そして、第2面接支援装置20は、入力部25を介して任意の面接スコアが入力された場合に、入力された面接スコアに対応する時間帯の撮影画像及び会話音声を再生される構成としてもよい。この場合、面接官及び面接対象者は、例えば面接スコアの低い箇所(時間帯)の撮影画像及び会話音声をまとめて視聴したり、面接スコアの高い箇所(時間帯)の撮影画像及び会話音声をまとめて視聴することができる。よって、面接官及び面接対象者は、効率よく面接の画像及び音声を視聴することができ、効率よく面接を振り返ることができる。
また、面接履歴DB22bは、例えば面接官の新人研修のように、他の面接官が面接の研修や練習を行う際に用いることができる。この場合にも、図19Aに示す画面においていずれかの面接が選択され、第2面接支援装置20は、選択された面接の面接履歴DB22bから各データを読み出し、図19Bに示す画面を生成して表示部26に表示する。これにより、他の面接官が行った面接の撮影画像及び会話音声を視聴することができると共に、それぞれのタイミングでの面接スコアを把握できる。よって、面接の状況とスコアとに基づいて面接のやり方を学ぶことができ、面接の練習を行うことができる。また例えば、各面接官の性格やキャラクタを特定し、性格やキャラクタに対応付けて、面接中に取得した会話音声及び面接対象者の撮影画像(面接履歴)を蓄積してもよい。この場合、面接の練習をしたい面接官は、自身の性格やキャラクタに適した面接履歴を学習教材として用いることにより、それぞれの面接官に応じた練習を行うことができる。
本実施形態において、第2面接支援装置20は、面接中に取得した撮影画像及び会話音声と、それぞれのタイミングでの面接スコアとに基づいて、面接の手本となるべき面接官の行動や言動を蓄積する構成を有してもよい。例えば、第2面接支援装置20は、所定値以上の面接スコアが得られた面接中の撮影画像及び会話音声において、面接対象者の行動や言動に対して面接官がとった行動や言動を抽出して蓄積する。そして、第2面接支援装置20は、蓄積した手本となるべき面接官の行動や言動を、例えば所定の面接官用キャラクタの画像を用いて再現することにより、面接の手本を示すことができる。具体的には、第2面接支援装置20は、蓄積した撮影画像及び会話音声に基づいて、面接官用キャラクタが手本となるべき面接官の行動(動作)を行う動画を生成して表示部26に表示し、手本となるべき面接官が発する可能性の高い会話音声を生成してスピーカから出力する。このように面接官用キャラクタによる映像及び音声によって面接の手本が示されることにより、効率よく面接のやり方を学習できる。なお、面接対象者の行動や言動に対して面接官がとるべき行動や言動を、学習済モデルを用いて特定してもよい。この場合、例えば第2面接支援装置20は、面接中に蓄積した撮影画像及び会話音声を用いて、面接対象者の言動や行動を示す撮影画像(画像情報)及び会話音声(音声情報)が入力された場合に、面接官がとるべき行動や言動を示す情報を出力するように学習済モデルを再学習させることができる。このような学習済モデルを用いることにより、バーチャルな面接官を生成することができる。
また本実施形態において、第2面接支援装置20は、面接中に取得した撮影画像及び会話音声に基づいて、例えば面接対象者からよくある質問や面接官が回答に困った質問等を抽出して蓄積する構成を有してもよい。そして、第2面接支援装置20は、蓄積した質問を、例えば所定の面接対象者用キャラクタの画像を用いて再現することにより、面接の練習相手を面接官に提供することができる。具体的には、第2面接支援装置20は、蓄積した撮影画像及び会話音声に基づいて、面接対象者用キャラクタが、蓄積した質問を行う動画及び会話音声を生成して表示部26及びスピーカにて出力する。このように面接対象者用キャラクタによる映像及び音声によって練習相手を提供できるので、面接官は面接の練習相手を探す必要がなく、面接の練習を自主的に行うことができる。なお、図19Bに示す画面において、面接対象者用キャラクタの画像を表示させることにより、図19Bに示す画面を介して面接官は面接の練習を行うことができる。
また本実施形態において、第2面接支援装置20は、面接中に取得した撮影画像及び会話音声に基づいて、例えば面接官がよく行う質問や面接対象者が回答に困った質問等を抽出して蓄積する構成を有してもよい。そして、第2面接支援装置20は、蓄積した質問を、例えば所定の面接官用キャラクタの画像を用いて再現することにより、面接の練習相手を面接対象者に提供することができる。具体的には、第2面接支援装置20は、蓄積した撮影画像及び会話音声に基づいて、面接官用キャラクタが、蓄積した質問を行う動画及び会話音声を生成して表示部26及びスピーカにて出力する。このように面接官用キャラクタによる映像及び音声によって練習相手を面接対象者に提供できるので、面接対象者は面接の練習相手を探すことなく自主的に面接の練習を行うことができる。なお、図19Bに示す画面において、面接官用キャラクタの画像を表示させることにより、図19Bに示す画面を介して面接対象者は面接の練習を行うことができる。
上述した各実施形態の第1面接支援装置10及び第2面接支援装置20は、従業員の人事採用面接を支援するだけでなく、入学試験や資格試験における面接や、従業員の人事評価のための面接等、各種の面接を支援する装置にも適用できる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
10 第1面接支援装置
11 制御部
12 記憶部
20 第2面接支援装置
21 制御部
22 記憶部
102 対象者情報取得部
106 面接官特定部
109 質問特定部
121 面接官決定用学習済モデル
122 質問決定用学習済モデル
202 画面生成部
203 出力部
204 画像取得部
206 音声取得部
212 スコア算出部
本発明の一態様に係るプログラムは、コンピュータに、面接対象者に関する情報を入力部を介して取得し、面接対象者に関する情報が入力された場合に、前記面接対象者に適した面接官の情報を出力するように学習された第1学習済モデルに、取得した前記面接対象者に関する情報を入力し前記第1学習済モデルから出力される前記面接官の情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官を特定し面接対象者に関する情報が入力された場合に、前記面接対象者に対する質問内容の情報を出力するように学習された第2学習済モデルに、取得した前記面接対象者に関する情報を入力し、前記第2学習済モデルから出力される前記質問内容の情報に基づいて、前記面接対象者に対する質問内容を特定する処理を実行させる。

Claims (20)

  1. コンピュータに、
    面接対象者に関する情報を取得し、
    取得した前記面接対象者に関する情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官と、前記面接対象者に対する質問内容とを特定する
    処理を実行させるプログラム。
  2. 前記コンピュータに、
    前記複数の面接官に関する情報を取得し、
    取得した前記面接官に関する情報と、前記面接対象者に関する情報とに基づいて、前記複数の面接官から前記面接対象者の面接を行う面接官を特定する
    処理を実行させる請求項1に記載のプログラム。
  3. 前記コンピュータに、
    面接対象者の情報に基づいて前記面接対象者に適した面接官の情報を出力するように学習された学習済モデルを用いて、前記面接対象者に関する情報に基づいて前記面接対象者の面接を行う面接官を特定する
    処理を実行させる請求項1又は2に記載のプログラム。
  4. 前記コンピュータに、
    面接の方針に関する方針情報を取得し、
    取得した前記方針情報に基づいて、前記面接対象者の面接を行う面接官と、前記面接対象者に対する質問内容とを特定する
    処理を実行させる請求項1から3までのいずれかひとつに記載のプログラム。
  5. 前記コンピュータに、
    前記面接対象者に関する情報を、前記面接対象者の面接を行う面接官に特定された前記面接官の面接予定情報として記憶部に記憶する
    処理を実行させる請求項1から4までのいずれかひとつに記載のプログラム。
  6. コンピュータに、
    面接対象者の面接時の画像情報及び音声情報を取得し、
    取得した前記画像情報及び音声情報に基づいて、前記面接対象者の採用に関するスコアを特定し、
    特定した前記スコアを出力する
    処理を実行させるプログラム。
  7. 前記コンピュータに、
    前記面接対象者に関する情報に基づいて特定された前記面接対象者に対する質問内容を出力する
    処理を実行させる請求項6に記載のプログラム。
  8. 前記コンピュータに、
    取得した前記画像情報及び音声情報に基づいて、前記面接対象者に対する質問内容を特定し、
    特定した前記質問内容を出力する
    処理を実行させる請求項6又は7に記載のプログラム。
  9. 前記コンピュータに、
    取得した前記画像情報に基づいて、前記面接対象者の状態を特定し、
    特定した前記面接対象者の状態に基づいて、前記面接対象者の採用に関するスコアを特定する
    処理を実行させる請求項6から8までのいずれかひとつに記載のプログラム。
  10. 前記コンピュータに、
    取得した前記音声情報に基づいて、前記面接対象者との面接の状態を特定し、
    特定した前記面接の状態に基づいて、前記面接対象者の採用に関するスコアを特定する
    処理を実行させる請求項6から9までのいずれかひとつに記載のプログラム。
  11. 前記コンピュータに、
    面接の方針に関する方針情報を取得し、
    取得した前記方針情報に基づいて、前記面接対象者に対する質問内容を特定し、
    特定した前記質問内容を出力する
    処理を実行させる請求項6から10までのいずれかひとつに記載のプログラム。
  12. 前記コンピュータに、
    取得した前記面接対象者の面接時の画像情報及び音声情報に基づいて、前記面接に関するスコアを特定する
    処理を実行させる請求項6から11までのいずれかひとつに記載のプログラム。
  13. 前記コンピュータに、
    前記面接中の所定時間毎に前記面接に関するスコアを特定し、
    特定した前記面接に関するスコアと、前記所定時間毎に取得した前記画像情報及び音声情報とを対応付けて記憶部に記憶する
    処理を実行させる請求項12に記載のプログラム。
  14. 前記コンピュータに、
    前記面接に関するスコアを受け付け、
    受け付けたスコアに対応付けて記憶されている前記画像情報及び音声情報を前記記憶部から読み出し、
    読み出した前記画像情報及び音声情報を出力する
    処理を実行させる請求項13に記載のプログラム。
  15. 前記コンピュータに、
    前記記憶部に記憶してある前記画像情報及び音声情報を用いて、面接対象者の言動に係る画像情報及び音声情報に基づいて面接官が行うべき言動に係る情報を出力するように学習された学習済モデルを再学習させる
    処理を実行させる請求項13又は14に記載のプログラム。
  16. 面接対象者に関する情報を取得する取得部と、
    取得した前記面接対象者に関する情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官と、前記面接対象者に対する質問内容とを特定する特定部と
    を備える情報処理装置。
  17. 面接対象者の面接時の画像情報及び音声情報を取得する取得部と、
    取得した前記画像情報及び音声情報に基づいて、前記面接対象者の採用に関するスコアを特定する特定部と、
    特定した前記スコアを出力する出力部と
    を備える情報処理装置。
  18. コンピュータが、
    面接対象者に関する情報を取得し、
    取得した前記面接対象者に関する情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官と、前記面接対象者に対する質問内容とを特定する
    処理を実行する情報処理方法。
  19. コンピュータが、
    面接対象者の面接時の画像情報及び音声情報を取得し、
    取得した前記画像情報及び音声情報に基づいて、前記面接対象者の採用に関するスコアを特定し、
    特定した前記スコアを出力する
    処理を実行する情報処理方法。
  20. コンピュータが、
    面接対象者に関する情報を取得し、
    取得した前記面接対象者に関する情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官と、前記面接対象者に対する質問内容とを特定し、
    特定した前記質問内容を出力し、
    前記面接対象者の面接時の画像情報及び音声情報を取得し、
    取得した前記画像情報及び音声情報に基づいて、前記面接対象者の採用に関するスコアを特定し、
    特定した前記スコアを出力する
    処理を実行する情報処理方法。
JP2018229268A 2018-12-06 2018-12-06 プログラム、情報処理装置及び情報処理方法 Active JP6649461B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018229268A JP6649461B1 (ja) 2018-12-06 2018-12-06 プログラム、情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229268A JP6649461B1 (ja) 2018-12-06 2018-12-06 プログラム、情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP6649461B1 JP6649461B1 (ja) 2020-02-19
JP2020091735A true JP2020091735A (ja) 2020-06-11

Family

ID=69568241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229268A Active JP6649461B1 (ja) 2018-12-06 2018-12-06 プログラム、情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP6649461B1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021186031A (ja) * 2020-05-26 2021-12-13 株式会社ニューギン 遊技機
WO2022059088A1 (ja) * 2020-09-16 2022-03-24 日本電気株式会社 人物評価情報生成方法
JP7164258B1 (ja) 2022-06-22 2022-11-01 株式会社Value market 情報処理システム、情報処理方法及びプログラム
JP7278011B1 (ja) 2022-12-06 2023-05-19 株式会社Okan 情報処理システム、情報処理方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11367051B2 (en) 2020-04-03 2022-06-21 Genesys Telecommunications Laboratories, Inc. System and method for conducting an automated interview session

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263537A (ja) * 2002-03-07 2003-09-19 Sanyo Electric Co Ltd 通信方法、通信システム、中央装置、コンピュータプログラム、及び記録媒体
JP2013190858A (ja) * 2012-03-12 2013-09-26 Softbank Mobile Corp 面接支援サーバ装置、システム、及びプログラム
JP2017219989A (ja) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム
JP6500142B1 (ja) * 2018-03-20 2019-04-10 ヤフー株式会社 選択装置、選択方法及び選択プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263537A (ja) * 2002-03-07 2003-09-19 Sanyo Electric Co Ltd 通信方法、通信システム、中央装置、コンピュータプログラム、及び記録媒体
JP2013190858A (ja) * 2012-03-12 2013-09-26 Softbank Mobile Corp 面接支援サーバ装置、システム、及びプログラム
JP2017219989A (ja) * 2016-06-07 2017-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム
JP6500142B1 (ja) * 2018-03-20 2019-04-10 ヤフー株式会社 選択装置、選択方法及び選択プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021186031A (ja) * 2020-05-26 2021-12-13 株式会社ニューギン 遊技機
WO2022059088A1 (ja) * 2020-09-16 2022-03-24 日本電気株式会社 人物評価情報生成方法
JP7567921B2 (ja) 2020-09-16 2024-10-16 日本電気株式会社 人物評価情報生成方法
JP7164258B1 (ja) 2022-06-22 2022-11-01 株式会社Value market 情報処理システム、情報処理方法及びプログラム
WO2023248539A1 (ja) * 2022-06-22 2023-12-28 株式会社Value market 情報処理システム、情報処理方法及びプログラム
JP2024001779A (ja) * 2022-06-22 2024-01-10 株式会社Value market 情報処理システム、情報処理方法及びプログラム
JP7278011B1 (ja) 2022-12-06 2023-05-19 株式会社Okan 情報処理システム、情報処理方法及びプログラム
JP2024081448A (ja) * 2022-12-06 2024-06-18 株式会社Okan 情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6649461B1 (ja) 2020-02-19

Similar Documents

Publication Publication Date Title
JP6649461B1 (ja) プログラム、情報処理装置及び情報処理方法
JP6531323B1 (ja) プログラム、情報処理装置及び情報処理方法
Tian et al. A taxonomy of social errors in human-robot interaction
JP6741504B2 (ja) 面接システム
Nihei et al. Predicting influential statements in group discussions using speech and head motion information
US9305286B2 (en) Model-driven candidate sorting
JP6664818B1 (ja) プログラム、情報処理装置及び情報処理方法
US20170213190A1 (en) Method and system for analysing subjects
JP6715410B2 (ja) 評価方法、評価装置、評価プログラム、および、評価システム
AU2014364206A1 (en) Model-driven candidate sorting based on audio cues
JP2018032164A (ja) 面接システム
Zhao et al. Semi-automated 8 collaborative online training module for improving communication skills
US20180168498A1 (en) Computer Automated Method and System for Measurement of User Energy, Attitude, and Interpersonal Skills
JP2012168717A (ja) 情報提供システム、情報提供サーバ、プログラム、情報記憶媒体及び情報提供方法
KR101830747B1 (ko) 온라인 면접 시스템 및 그 방법
JP2015104078A (ja) 撮像装置、撮像システム、サーバ、撮像方法、及び撮像プログラム
JP2023031089A (ja) 面接支援システム
JP6855737B2 (ja) 情報処理装置、評価システムおよびプログラム
Jones et al. Interpreting social cues to generate credible affective reactions of virtual job interviewers
Nilugonda et al. A survey on big five personality traits prediction using tensorflow
US20230290505A1 (en) Context Aware Assessment
JP7138456B2 (ja) 印象導出システム、印象導出方法および印象導出プログラム
WO2013156828A1 (en) Method and system for creating and sharing interactive video portraits
CN112307877A (zh) 信息处理方法、信息处理装置及计算机可读取的存储介质
Tripathi et al. Discover cross-modal human behavior analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6649461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350