JP2023031089A - 面接支援システム - Google Patents

面接支援システム Download PDF

Info

Publication number
JP2023031089A
JP2023031089A JP2021136581A JP2021136581A JP2023031089A JP 2023031089 A JP2023031089 A JP 2023031089A JP 2021136581 A JP2021136581 A JP 2021136581A JP 2021136581 A JP2021136581 A JP 2021136581A JP 2023031089 A JP2023031089 A JP 2023031089A
Authority
JP
Japan
Prior art keywords
job seeker
unit
job
information
management server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021136581A
Other languages
English (en)
Other versions
JP7334913B2 (ja
Inventor
亮 藤井
Akira Fujii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tifana com Co Ltd
Original Assignee
Tifana com Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tifana com Co Ltd filed Critical Tifana com Co Ltd
Priority to JP2021136581A priority Critical patent/JP7334913B2/ja
Publication of JP2023031089A publication Critical patent/JP2023031089A/ja
Application granted granted Critical
Publication of JP7334913B2 publication Critical patent/JP7334913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】採用面接における人的、時間的な負担を軽減するとともに、獲得すべき有能な人材を効率的に獲得することができる面接支援システムを提供する。【解決手段】面接支援システム1は、管理サーバ2と、求職者が管理サーバ2との間で求職情報を交信する求職者端末3と、求人者が管理サーバ2との間で求人情報を交信する会社端末4とを備える。管理サーバ2は、求職者の回答内容を取得する取得部21と、求職者の面接結果を数値として評価する評価部22と、評価部22の評価した採点情報を送信する結果送信部23とを有し、求職者端末3は、求職者による所定の質問に対する回答が入力される入力部31と、求職者が入力した回答内容情報を管理サーバ2へ送信する送信部32とを有し、会社端末4は、管理サーバ2の結果送信部23から受信した採点情報を表示する表示部41を有する。【選択図】図1

Description

本発明は、人材採用における人的及び時間的な負担を軽減するとともに、人材を採用することを希望する者にとって有能な人材を効率的に獲得することに資する面接支援システムに関する。
人材を採用するためには、一般には書類選考から始まり、数次の面接を経て、採用の条件を満たした人材に対しては内定を提示し、その人材が内定を受諾することにより、人材を獲得することができる。求人には多数の応募があり、書類選考のためには多数の書類の内容を確認する必要がある。そこで、膨大な量の適性検査の検査結果、応募書類等をチェックし、採用候補者を選考する労力を軽減するプログラム等が開示されている。
特開2017-187849公報
ここで、人材採用の過程で負担が大きいのは、書類選考だけに限られない。すなわち、書類選考を通過した求職者が多数存在する場合、従来技術では一次面接は面接官が人力で行わなければならず、面接を行う面接官の負担は軽減されない。また、膨大な数の求職者の中から有能な人材を見つけ出すだけでも困難なときがあるほか、有能な人材を見つけ出すのに時間を要した場合には、他の企業等に採用されてしまうというリスクもあり得る。それゆえ、上記特許文献においては、面接に要する面接官等の負担が過大になるという問題がある。
本発明はこのような事情に鑑みてなされたものであり、本発明の課題は、採用面接における人的、時間的な負担を軽減するとともに、獲得すべき有能な人材を効率的に獲得することができる面接支援システムを提供することである。
かかる課題を解決するために、請求項1に記載の発明は、就職において求職者の面接を行うための管理サーバと、該管理サーバにネットワークを介して接続され、求職者が前記管理サーバとの間で求職情報を交信する求職者端末と、前記管理サーバに前記ネットワークを介して接続され、前記求職者の雇用を求める求人者が前記管理サーバとの間で求人情報を交信する会社端末とを備え、前記求職者端末は、前記求職者による所定の質問に対する回答が入力される入力部と、前記求職者が入力した回答内容としての回答内容情報を前記管理サーバへ送信する送信部とを有し、前記管理サーバは、前記求職者端末から送信された前記求職者の前記回答内容を取得する取得部と、前記求職者の回答内容と点数とが関連付けて記憶されている記憶部と、前記管理サーバに格納されている評価基準情報及び前記記憶部に関連付けて記憶された前記求職者の回答内容と点数に基づいて、該求職者の回答内容に応じて加点又は減点することによって、該求職者の面接結果を数値で評価をする評価部と、該評価部が数値で評価をした面接結果の情報としての採点情報を送信する結果送信部とを有し、前記会社端末は、前記管理サーバの前記結果送信部から受信した前記採点情報を表示する表示部を有することを特徴とする。
かかる課題を解決するために、請求項2に記載の発明は、前記求職者端末は、前記求職者によって発声された言葉を集音するための集音部と、前記求職者端末の外部に音声を拡声するための拡声部と、前記集音部が集音した言葉を音声情報に変換する音声情報変換部とをさらに有し、前記管理サーバは、言葉の発声及び聴音としての音声情報を生成する音声情報生成部と、前記管理サーバの前記取得部と前記求職者端末の前記送信部との間で音声情報を交信することによって、前記管理サーバに蓄積されているプログラムを実行させることにより稼働するキャラクターと前記求職者との間の対話を成立させる対話部とをさらに有し、前記取得部が、前記管理サーバと前記求職者端末との間の前記音声情報の交信を通じて、前記求職者の表出した前記求職者の人格に関する所定の情報としての求職者情報をさらに取得することを特徴とする。
かかる課題を解決するために、請求項3に記載の発明は、前記取得部が取得する求職者情報が音声及び/又は動画像であることを特徴とする。
かかる課題を解決するために、請求項4に記載の発明は、前記取得部が取得した求職者の表情、態度、姿勢、発声、声の大きさ、言葉の使い方、発言内容、抑揚、語調、視線、動き、他人への共感度、協調性、その他の求職者の特徴に基づいて、他の求職者と比較をして、該求職者を評価することを特徴とする。
請求項1の発明によれば、ネットワークを介して所定の質問に対して求職者が回答を送信し、管理サーバが評価基準情報及び回答内容に基づいて、求職者の回答内容に応じて加点又は減点をすることによって該求職者の面接結果を数値で評価をするため、有能な人材を効率的に獲得することができるとともに、雇用を求める求人者の面接に要する人的、時間的負担を軽減することができるだけでなく、人間による主観的、恣意的な採用の合否を排除することができ、より公平な面接を実現することができる。
請求項2の発明によれば、求職者端末からの求職者の音声情報と管理サーバにより生成された音声情報とを交信し、対話を成立させることによって、対面での面接と同等以上の質を担保した面接を実施することができ、求人者の面接に要する人的、時間的負担を軽減させつつ、より精度の高い採用面接の支援をすることができる。
請求項3の発明によれば、採用の合否の判定のための要素の1つとして、音声及び/又は動画像を用いるため、求職者の特徴を音声や動画像の観点から捉えることができ、面接のための人的、時間的な負担を軽減しつつ、求職者それぞれの個性や特徴的な回答内容を採用の合否の判定に確実に加味することができる。
請求項4の発明によれば、求職者の表情、態度、姿勢、発声、声の大きさ、言葉の使い方、発言内容、抑揚、語調、視線、動き、他人への共感度、協調性、その他の求職者の特徴に基づいて、他の求職者と比較をして、該求職者を評価するため、面接のための人的、時間的な負担を軽減しつつ、人力で面接をするよりも、求職者同士の比較を容易に行うことができる。
この発明の実施の形態に係る面接支援システム1の全体構造を示す機能ブロック図である。 この発明の実施の形態に係る面接支援システム1において、求職者端末3に表示される画面の一例を示す図である。 この発明の実施の形態に係る面接支援システム1において、求職者端末3に備えられた撮像手段を用いて面接が行われている一例を示す図である。 この発明の実施の形態に係る面接支援システム1において、会社端末4に表示される画面の一例を示す図である。 この発明の実施の形態に係る面接支援システム1において、管理サーバ2が採用選考の結果を数値で評価をした画面の一例を示す図である。 この発明の実施の形態に係る面接支援システム1において、求職者端末からの音声情報と管理サーバからの音声情報との交信により面接を行う一例を示すフローチャートである。 この発明の実施の形態に係る面接支援システム1において、求職者が予め作成する動画像を用いて面接を行う一例を示すフローチャートである。
この発明の実施の形態について、図1から図7までを用いて説明する。
図1は、この発明の実施の形態に係る面接支援システム1の全体構造を示す機能ブロック図である。面接支援システム1は、新卒採用のための面接に用いても良いし、中途採用のための面接にも用いても良い。また、面接支援システム1は、どの時点(一次面接から最終面接までの各面接)での面接時に用いても良いが、面接に要する面接官等の負担を最も削減するのは、面接の対象となる求職者の数が最も多く、多数の面接を行う必要がある一次面接である。面接支援システム1は、採用する対象や面接の段階にかかわらず、用いることができる。なお、図1においては、新卒採用のための面接に用いる場合を例として、説明する。
求人者が新卒採用をする際には、新卒採用専用のウェブサイトを利用することが多い。新卒採用専用のウェブサイトを利用することによって、求人者は、多数の求職者へ一斉に連絡を取ることができ、また、求職者も、興味を持った求人者が多数あったとしても一斉に応募をすることができるためである。
図1に示す管理サーバ2と、上記の新卒採用専用のウェブサイトのサーバとは、異なったサーバを用いていることが多い。そのため、求職者が上記の新卒採用専用のウェブサイトから面接支援システム1へ遷移する際には、個人情報の保護の観点から、求職者から承諾を得る必要がある。求職者から承諾を得る時期は、予め得ておいても良いし、遷移するタイミングで得ても良いし、その他のタイミングでも良い。
図1に示す面接支援システム1は、就職において求職者の面接を行うための管理サーバ2、求職者が管理サーバ2との間で求職情報を交信するために用いる端末としての求職者端末3、求人者が管理サーバ2との間で求人情報の交信のために用いる端末としての会社端末4を備えている。管理サーバ2と求職者端末3と会社端末4とはネットワーク5によって接続されている。求職者端末3は求職者の人数と同数が存在するため、求職者端末3がn個存在していれば、求職者はn人存在することになる。
管理サーバ2は、ネットワーク5を介して、求職者端末3との間で求職情報を交信し、会社端末4との間で求人情報を交信する。管理サーバ2は、物理サーバで構成されても良いし、仮想サーバで構成されても良い。
図1の機能ブロック図に示す通り、管理サーバ2は、求職者からの回答内容や求職者情報を取得する取得部21と、求職者の面接結果を数値で評価をする評価部22と、数値で評価をした面接結果の情報としての採点情報を送信する結果送信部23と、言葉の発声及び聴音としての音声情報を生成する音声情報生成部24と、音声情報の交信によって対話を成立させる対話部25と、求職者の回答内容と点数が関連付けて記憶されている記憶部26を備えている。
取得部21は、求職者が求職者端末に入力した所定の質問に対する回答や求職者情報を取得する。求職者情報とは、たとえば、求職者の表情、態度、姿勢、発声、声の大きさ、言葉の使い方、発言内容、抑揚、語調、視線、動き、他人への共感度、協調性など、求職者の性格や特徴をいう。取得部21は、求職者情報を音声及び/又は動画像として取得することができる。なお、取得部21は、求職者の音声情報を取得した後に音声情報をテキスト化して、評価部22へテキスト化された音声情報を移すことができる。
図3にあるようなリアルタイムでの動画像の送信により面接が行われる場合、求職者端末3に備えられた撮像手段(図示せず)を通じて、入力部31が求職者の回答を動画像として入力を受け付け、取得部21は、送信部32から送信された動画像をリアルタイムで取得する。
評価部22の具体的判定方法を以下に例示する。
(例1)たとえば、未経験の仕事にも積極的に取り組む人材を採用したい場合、評価部22は、求職者の回答情報に含まれるポジティブな単語を加点項目、ネガティブな単語を減点項目として、求職者に加点又は減点の評価を行うように設定する。加点、減点の点数は、単語ごとのポジティブの度合いやネガティブの度合いに応じ、予め設定されている。
(例2)評価部22は、求人者が採用したくない傾向の性格や人格を判定する単語を減点項目とする構成や、表示部41に特定の求職者を採用したくない傾向の性格や人格であることを示すアラートを表示させる構成を備えていても良い。たとえば、うつ傾向の人間を採用したくない場合には、評価部22に、うつ傾向を示す単語を減点項目やアラート情報の対象とする構成を備えておき、評価部22が、求職者の回答や自己PRの中にその言葉が含まれていると判定した場合、減点したり、「うつ傾向あり」のアラート情報を表示させる。
(例3)評価部22には、採用したくない人間を特定するための質問をするタイミングや質問方法を予め設定しておいても良い。たとえば、うつ傾向の強い人間を採用したくない場合には、うつ傾向を特定するための質問として「毎朝起きると憂鬱ですか?」を、「今朝は何時に起きましたか?」という質問の直後に行って、自然な会話の流れとなるように質問を配置するように、評価部22に設定をしておくなどが考えられる。
(例4)評価部22には、求職者の言葉の語調や抑揚、発話の大きさを検出し、評価の点数として数値化する設定を設けておくことができる。たとえば、質問に対する「はい」という求職者の言葉が、通常の会話で誠実に回答する際の抑揚になっている場合は加点、いい加減に回答する際の抑揚になっている場合は減点、声が明瞭なら加点、声が小さかったり、震えやどもりがある場合は減点するような設定を評価部22に設けておくことが考えられる。
上記(例1)~(例4)の評価の基準となる単語や表情、加点、減点の数値の関連付けや、採用したくない性格や個性、人格が発見された場合の処理方法は、記憶部26に記憶されている。
評価部22は、これらの加点、減点の結果、面接結果を数値で評価をする。この数値は、会社端末4を使用する者などが、求職者の面接の合否判定を行うときなどに用いる。
評価部22は、評価基準情報と取得部21が取得した求職者の回答内容や求職者情報に基づいて、面接結果を数値で評価をする。評価基準情報とは、人材採用の合否を評価するに際して基準となる情報や項目をいい、さらには、どのような項目についてより評価を行うかという情報が含まれる。たとえば、求人者が営業系の人材採用を希望する場合には、評価基準情報のうちコミュニケーション能力に関する項目は、他の評価項目(たとえば、プログラミング能力)よりも高く評価されるよう設定することができる。また、たとえば、求人者がIT系の人材採用を希望する場合には、評価基準情報のうちプログラミング能力に関する項目は、他の評価項目(たとえば、コミュニケーション能力)よりも高く評価されるよう設定することができる。一方で、求職者の回答内容によっては直ちに不合格になるという項目を設定しても良い。たとえば、「今までにウソをついたことがありますか。」という質問に対して、求職者から「ありません。」という回答があった場合などである。なお、当然のことながら、求人者によって経営理念としてのミッション、ビジョン、バリュー等が異なるため、各求人者の求める人材に応じて、評価基準情報のうち高く評価する項目を自由に設定することができるのはいうまでもない。
評価基準情報を管理サーバ2に格納する時期については求人者の裁量であるが、取得部21が回答内容や求職者情報を最初に取得する時点よりも前に評価基準情報を管理サーバ2に格納しておくことが望ましい。
評価部22は、学習済みモデルを用いて構築することができるし、質問と回答内容、その回答内容に基づく心理状況などを関連付けて記憶されているデータベースを用いて構築することもできる。ここでは、学習済みモデルを用いた場合を例として、説明する。学習済みモデルは、取得部21が取得した回答内容や求職者情報に基づいて、その求職者の性格や心理状況、喜怒哀楽、回答した内容がポジティブなものなのか、ネガティブなものなのかなどを検出できるものであれば、形態素解析でも良いし、その他の公知のもので良い。たとえば、求職者が「はい」と回答した場合、評価部22は、取得部21が取得した「はい」という返事の語調や言葉の使い方から、どのような性格の求職者なのか検出する。求職者の「はい」という返事の語調が弱かったときは、その求職者には自信がないように検出されることがある。また、たとえば、評価部22は、求職者の視線の向きや求職者の体の姿勢など、動画像における求職者の言動から、喜怒哀楽のうちどのような状況なのか検出することができる。評価部22は、対話部25による音声情報生成部24が生成した音声情報と取得部21が取得した求職者による音声情報の交信により成立した対話を通じて取得した求職者情報や、あらかじめ設定した評価基準情報と取得部21が取得した求職者からの回答内容に基づいて、面接結果を数値で評価をする。評価部22は、動画像における求職者の個々の言動を求職者情報として抽出して、その求職者の性格や心理状況、喜怒哀楽などを検出して、面接結果を数値で評価することができるので、有能な人材を発見しやすい。
結果送信部23は、評価部22の判定した面接結果の情報としての採点情報を会社端末4へ送信する。たとえば、面接の結果、その面接を通過した場合には、「一次面接に合格。二次面接へ。」などの情報が会社端末4へ送信され、面接を通過しなかった場合には、「不合格」などの情報が会社端末4へ送信される。
音声情報生成部24は、言葉の発声や聴音としての音声情報を生成する。取得部21が取得する求職者に関する音声情報に基づいて、音声情報生成部24は音声情報を生成する。対話部25によって、音声情報生成部24が生成した音声情報と取得部21が取得した求職者による音声情報が交信され、求職者と後記キャラクターとの対話が成立する。音声情報生成部24が生成する音声情報の内容としては、たとえば、対面で行われる面接のように面接を行う面接官から質問される項目であり、「あなたの長所と短所を教えてください。」、「趣味を教えてください。」、「弊社を志望された理由をお聞かせください。」、「仮に弊社に入社することができたら、どのような仕事をしたいですか。」などである。
対話部25は、音声情報生成部24が生成した音声情報と取得部21が取得した求職者に関する音声情報を交信することによって、求職者と、管理サーバ2に蓄積されているプログラム(図示せず)を実行させることによって稼働するキャラクターが対話をしているかのように対話をさせる。この対話を通じて、取得部21は、求職者からの回答内容に加えて、評価部22が面接結果を数値で評価するのに必要な求職者情報を取得する。なお、キャラクターを稼働させるためのプログラム(図示せず)は、外部記憶媒体など管理サーバ2以外に記憶しておき、面接支援システム1を用いる際に、管理サーバ2にこのプログラム(図示せず)を格納させ、実行させてもよい。
対話部25が、音声情報生成部24が生成した音声情報と取得部21が取得した求職者に関する音声情報を交信させることにより対話を成立させるので、効率的に求職者情報を取得することができるとともに、対面での面接と同等以上の質を担保した面接を実施することができ、また、対話部25により成立させる対話を通じて、有能な人材を効率的に見つけ出すことができる。
記憶部26は、求職者の回答内容と点数とを関連付けて記憶している。取得部21が取得する求職者情報のうち求職者の言動に応じて、評価部22は、記憶部26が記憶している点数を加し、又は減ずる。たとえば、求職者が、対話部25により成立される対話を通じて、求人者からの質問に対して、求人者の経営理念と求職者の意向が合致するような回答をしたときは、加点されることがある。一方で、たとえば、求職者が、求人者からの質問に対して、回答できなかったときや答えに窮したようなときは、減点されることがある。対話部25による求職者とキャラクターとの対話を繰り返して行い、合否の判定ができる程度に達したときは、対話部25による対話は終了し、評価部22は、面接結果を数値で評価する。
求職者端末3は、求職者が使用する、パーソナルコンピュータ、スマートフォン、タブレット等、ネットワーク5を介して管理サーバ2と求職情報の交信が可能な端末である。
図1の機能ブロック図に示す通り、求職者端末3は、求職者による所定の質問に対する回答を入力する入力部31と、求職者が入力部31において入力することにより回答した回答内容を管理サーバへ送信する送信部32と、求職者が発声した言葉を集音する集音部33と、求職者端末3の外部に音声を拡声するための拡声部34と、集音部33が集音した言葉を音声情報に変換する音声情報変換部35とを備える。
入力部31は、求職者による所定の質問に対する回答の入力を受け付ける。入力部31は、たとえば、求職者端末3に備えられたキーボード、マウス、タッチパネルなどであるが、求職者による回答を入力することができる手段であれば、これらに限られない。求職者による回答が音声である場合には、マイクとしての入力部31が集音部33の役割を兼ねるときがある。なお、入力部31は、入力された画像や音声をテキスト化(文字化)するなど、送信部32による効率的な送信に資するよう、入力された情報を他の媒体へ変換する機能を有する場合がある。
入力部31は、質問の種類に応じて、求職者の回答の入力を受け付ける。たとえば、質問が選択式(〇か×か、四肢択一など)である場合、入力部31は、求職者端末3の画面に表示される質問に対して、求職者が回答する項目へマウスによるクリックやタッチパネルへのタッチなどによって、回答の入力を受け付けることができる。また、たとえば、質問が記述式(文章で回答する質問など)である場合、入力部31は、求職者端末3の画面に表示される所定の回答欄において、求職者がキーボードへの入力や求職者端末3の画面に表示されるフリック入力などによって、回答の入力を受け付けることができる。
送信部32は、入力部31で入力を受け付けた求職者による所定の質問に対する回答内容としての回答内容情報を取得部21に送信する。たとえば、送信部32は、入力部31が求職者からテキスト(文字)による回答内容の入力を受け付けたときは、テキスト情報(文字情報)を取得部21に送信する。また、入力部31が入力された情報をほかの媒体へ変換したときは、送信部32は、返還後の媒体に関する情報を取得部21に送信する。なお、動画像において求職者が回答をしている場合には、求職者端末3に備えられた撮像手段(図示せず)を通じて、求職者による回答を動画像として入力を受け付け、送信部32が動画像をリアルタイムで取得部21へ送信することができるほか、求職者が予め作成しておいた動画像を入力部31に入力させた後に、送信部32が動画像を取得部21へ送信することができる。
送信部32は、入力部31が入力を受け付けた求職者の画像(静止画、動画のどちらでも良い。)を取得部21へ送信することができる。たとえば、面接に際して、求職者端末3に備えられた撮像手段(図示せず)を用いて、求職者に画像を撮像させる。入力部31は、撮像した求職者の画像の入力を受け付け、その後、送信部32は、求職者の画像を取得部21へ送信する。これは、他人が本人になりすまして面接を受けること(いわゆる替え玉受験)を防止することを目的としている。なりすましによる面接を防止する手段としては、これに限られない。
集音部33は、求職者端末3に備えられ、求職者によって発声された言葉を集音する。管理サーバ2から送信された音声情報が拡声部34によって質問内容として拡声された際に、集音部33は、求職者からの回答内容を音声で受け付ける。集音部33は、一般にはマイク(マイクロフォン)であるが、求職者からの回答内容を言葉として集音することができれば、その手段を問わない。
たとえば、集音部33は、面接の冒頭に、求職者によって氏名、生年月日及び学校名を発声させ、その発声させた言葉を集音する。音声情報変換部35は、集音部33が集音した音声を音声情報に変換し、送信部32は、変換された音声情報を取得部21へ送信する。
拡声部34は、管理サーバ2から送信される音声情報を求職者に対する質問内容として、拡声する。拡声部34は、一般にはスピーカーであるが、管理サーバ2から求職者端末3へ送信される質問内容を拡声することができれば、その手段を問わない。
音声情報変換部35は、送信部32が求職者の音声を情報として送信することができるようにするため、集音部33が集音した音声を音声情報に変換する。対話部25が、音声情報変換部35が変換した音声情報と音声情報生成部24が生成した音声情報とを交信する。音声情報変換部35が変換した音声情報と音声情報生成部24が生成した音声情報とを交信することによって、求職者と前記キャラクターとの対話が成立する。
会社端末4は、雇用を希望する求人者が使用する、パーソナルコンピュータ、スマートフォン、タブレット等、ネットワーク5を介して管理サーバ2と求人情報の交信が可能な端末である。なお、雇用を希望する求人者は、会社に限られないので、会社端末4には、人材の採用を希望する団体や個人事業主等が使用するパーソナルコンピュータ、スマートフォン、タブレット等が含まれることはいうまでもない。
図1の機能ブロック図に示す通り、会社端末4は、求職者の採点情報を表示する表示部41を備える。
表示部41は、結果送信部23から採点情報を受信して、会社端末にその面接結果として評価された数値を表示する。たとえば、面接結果が高得点の際には数字が強調されるように数字に色彩を付したり、数字を太字にするなどして表示をしても良い。
求人者は、表示部41に表示された採点情報を踏まえて、求職者の面接の合否を判定する。面接結果の連絡は、求人者から求職者に対して電子メールで通知しても良いし、上記の新卒採用専用のウェブサイトを介して、通知しても良い。
ネットワーク5は、管理サーバ2と求職者端末3や会社端末4とを無線接続する通信媒体である。ネットワーク5は、管理サーバ2が求職者端末3や会社端末4との間で音声や動画像を含む求職者情報や求人情報を交信できるものであれば、どのような通信形式や通信媒体であってもよい。
図2は、この発明の実施の形態に係る面接支援システム1において、求職者端末3に表示される画面の一例を示す図である。図2に示す画像は、たとえば、求職者が求職者端末3を用いて管理サーバ2にアクセスし、管理サーバ2から求職者端末3に送信された画像データにより求職者端末3の画面に表示される。なお、この画面が求職者端末3に表示された状態で、管理サーバ2と求職者端末3とは、ネットワーク5を通じた双方向通信が可能となる。音声情報生成部24が生成した音声情報と取得部21が取得した求職者に関する音声情報を交信することによって、対話部25が求職者と前記キャラクターとの対話を成立させるので、面接を担当する面接官の人力は不要である。
図2において「XYZ株式会社一次面接」と表示されており、求人者であるXYZ株式会社の一次面接を受けている画面を示している。「2021年〇月△日午前10時から午前11時まで」と表示されており、XYZ株式会社の一次面接が、2021年〇月△日午前10時から午前11時までを予定されている。求職者氏名として「XXX」と表示され、面接官として「AIさくら」と表示されているので、XYZ株式会社のAIさくらを面接官として、XXXがXYZ株式会社の一次面接を受けている。
面接官から求職者に対する質問としての音声情報は、対話部25が成立させる対話を通じて、音声情報生成部24が生成する。図2においては、音声情報生成部24が「学生時代に最も力を入れてきたことは何ですか?簡潔に回答してください。」という音声情報を生成し、対話部25が音声情報を交信することによって、面接官から求職者に対して質問をしている。拡声部34は、面接官から求職者に対する質問を求職者端末3の外部に音声を拡声し、求職者は、拡声部34を通じて、面接官からの質問内容を認識する。対話部25は、合否の判定ができる程度に求職者情報や求職者からの回答内容を取得するまで、求職者と前記キャラクターとの対話を繰り返して行う。対話が終了すると、評価部22は、面接結果を数値で評価する。なお、対話部25により成立する求職者と前記キャラクターとの対話が開始してから終了するまでの過程が、一次面接に相当する。
図3は、この発明の実施の形態に係る面接支援システム1において、求職者端末3に備えられた撮像手段を用いて面接が行われている一例を示す図である。求職者端末3に備えられた撮像手段(図示せず)を通じて、入力部31が求職者による回答を動画像として入力を受け付け、送信部32が動画像をリアルタイムで取得部21へ送信するとともに、集音部33が求職者によって発声された言葉を集音し、音声情報変換部35が集音した音声を音声情報に変換して、送信部32が動画像とともに音声情報を取得部21へ送信する。求職者端末3に備えられた撮像手段(図示せず)を通じて入力部31に入力され、動画像が送信部32から取得部21送信されるとともに、対話部25に基づき前記キャラクターと求職者との間で音声情報が交信されるので、面接を担当する面接官の人力は不要である。
図3において「XYZ株式会社一次面接」と表示されており、求人者であるXYZ株式会社の一次面接を受けている画面を示している。「2021年〇月△日午前10時から午前11時まで」と表示されており、XYZ株式会社の一次面接が、2021年〇月△日午前10時から午前11時までを予定されている。求職者氏名として「YYY」と表示され、面接官として「AIさくら」と表示されているので、XYZ株式会社のAIさくらを面接官として、YYYがXYZ株式会社の一次面接を受けている。
求職者端末3に備えられた撮像手段(図示せず)を通じて、入力部31が求職者による回答を動画像として入力を受け付け、送信部32が動画像をリアルタイムで取得部21へ送信する。さらに、集音部33が求職者によって発声された言葉を集音し、音声情報変換部35が集音した音声を音声情報に変換して、送信部32が動画像とともに音声情報を取得部21へ送信する。動画像と音声情報とに基づいて、対話部25は、前記キャラクターと求職者との間で対話を成立させる。
面接官から求職者に対する質問としての音声情報は、対話部25が成立させる対話を通じて、音声情報生成部24が生成する。図3においては、音声情報生成部24が「学生時代に最も力を入れてきたことは何ですか?簡潔に回答してください。」という音声情報を生成し、対話部25が音声情報を交信することによって、面接官としての前記キャラクターから求職者へ話しかけているように求職者に対して質問をしている。拡声部34は、面接官から求職者に対する質問を求職者端末の外部に音声を拡声し、求職者は、拡声部34を通じて、面接官からの質問内容を認識して、質問内容に回答する。集音部33は、求職者から「はい、私が学生時代に最も力を入れてきたことは、◇◇◇です。□□□に取り組んでおりました。」と発声された言葉を集音し、音声情報変換部35が集音した音声を音声情報に変換する。送信部32が取得部21へ音声情報を送信する。対話部25は、音声情報変換部35が変換した音声情報と、音声情報生成部24が生成する言葉の発声及び聴音としての音声情報とを交信することによって、求職者と前記キャラクターとの間で対話を成立させ、対話部25が繰り返す対話によって、一次面接が進行していく。評価部22は、管理サーバ2に格納されている評価基準情報と、取得部21が取得した動画像に含まれる求職者からの回答内容や求職者情報に基づいて、面接結果を数値で評価する。
また、図3における実施形態においては、評価部22は、動画像における求職者の言動や様子を検出することができる。たとえば、評価部22は、求職者の「はい」という音声での回答だけでなく、求職者のまゆげの動き、目や顔の向き、口の角度や開き方、姿勢などを検知し、検知した言動から、求職者がどのような性格や個性、人格を有し、どのような心理状況なのか検出することができる。記憶部26は、評価の基準となる単語や表情、加点、減点の数値の関連付けや、採用したくない性格や個性、人格が発見された場合の処理方法について記憶している。これらの加点、減点の結果、面接結果を数値で評価をする。
対話部25は、合否の判定ができる程度に求職者情報や求職者からの回答内容を取得するまで、求職者と前記キャラクターとの対話を繰り返して行う。なお、対話部25により成立する求職者と前記キャラクターとの対話が開始してから終了するまでの過程が、一次面接に相当する。
図4は、この発明の実施の形態に係る面接支援システム1において、会社端末4に表示される画面(図示せず)の一例を示す図である。
図4においては、求職者が作成した自己PR動画に基づいて、一次面接が行われている。自己PR動画の内容や設定は、求職者が求人者の指定した課題に基づいた内容の自己PR動画を作成しても良いし、求職者の裁量で自己PR動画が作成されたものでもよい。予め作成された求職者の自己PR動画に基づいて面接が行われる場合、評価部22が、記憶部26に記憶されている評価の基準となる単語や表情、加点、減点の数値の関連付けに基づいて、管理サーバ2に記憶されている評価基準情報や、音声による回答や自己PR動画に基づく回答、求職者情報から面接結果を数値化するので、面接を担当する面接官の人力は不要である。
また、自己PR動画とは別に、求人者は求職者に対して、求職者が志望動機を述べている動画像(以下、志望動機動画像という)を作成させても良い。志望動機動画像を選考の過程に用いる場合には、自己PR動画と同様に、評価部22が、記憶部26に記憶されている評価の基準となる単語や表情、加点、減点の数値の関連付けに基づいて、管理サーバ2に記憶されている評価基準情報や志望動機動画像の内容から志望動機を評価し数値化する。
以下、求職者が、求人者が指定した課題に従って予め作成した自己PR動画に基づいて一次面接が行われる場合を例として、説明する。
求職者は、求職者端末3を用いて、予め作成した自己PR動画を送信部32から取得部21へ送信する。取得部21が求職者の作成した自己PR動画を取得すると、評価部22は、自己PR動画の内容を確認し、求職者による回答内容を含めて、自己PR動画における求職者の各々の言動を検出する。評価部22は、管理サーバ2に格納されている評価基準情報と、取得部21が取得した自己PR動画に含まれる求職者からの回答内容や求職者情報に基づいて、求職者の面接結果を数値で評価する。
また、図4における実施形態においても、評価部22は、動画像における求職者の言動や様子を検出することができる。たとえば、評価部22は、求職者の音声情報だけでなく、求職者のまゆげの動き、目や顔の向き、口の角度や開き方、姿勢などを検知し、検知した言動から、求職者がどのような性格や個性、人格を有し、どのような心理状況なのか検出することができる。記憶部26は、評価の基準となる単語や表情、加点、減点の数値の関連付けや、採用したくない性格や個性、人格が発見された場合の処理方法について記憶している。これらの加点、減点の結果、面接結果を数値で評価する。なお、自己PR動画を用いた場合、取得部21が求職者の自己PR動画を取得してから、評価部22が採用の合否を判定するまでの過程が一次面接に相当するものである。
図4において、「XYZ株式会社一次面接」と表示されており、求職者が、求人者であるXYZ株式会社の一次面接を受けている画面を示している。「2021年〇月△日」とあり、求職者であるZZZが作成した動画像の作成日が表示されている。時間として「〇分/30分」と表示されているので、動画像の全体の長さが30分であり、そのうち〇分が経過したことを表している。求職者氏名として「ZZZ」と表示されているので、求職者であるZZZがXYZ株式会社の一次面接を受けている。
図4においては、求職者は、求職者が作成した動画像内において、求人者から予め指定されていた質問に対して言葉を発声している。求職者は、「私が学生時代に最も力を入れてきたことは、サークル活動・・・、いえ、ボランティア活動です。」と回答している。
図4においては、求職者は、回答内容が転じており、動揺している様子がうかがえる。評価部22は、求職者のこのような状況を検知して、面接結果としての数値を評価するための1つの要素とすることができる。
図5は、この発明の実施の形態に係る面接支援システム1において、表示部41が採用選考の合否を判定した結果を表示した画面の一例を示す図である。
図5にある表51において、「面接日時」、「面接」、「面接官」、「求職者氏名」の欄がある。「面接日時」の行には、面接が行われて日時が表示されており、面接が2021年〇月△日午前10時から行われたことがわかる。「面接」の行には、面接の段階が表示されており、一次面接であることがわかる。「面接官」の行には、一次面接を担当した面接官の氏名が表示されており、一次面接の面接官がAIさくらであることがわかる。「求職者氏名」の行には、一次面接を受けた者の氏名が表示されており、YYYが一次面接を受けたことがわかる。これらのことから、図5は、2021年〇月△日午前10時から行われた、面接官をAIさくら、求職者をYYYとする一次面接の結果が表示されている画面であることがわかる。
表52において、面接結果として評価された数値が表示されている。表52においては、面接において重要視した項目と各項目に対する点数、点数の合計が表示されている。面接において重要視する項目は、求人者が任意に設定することができる。表52において、評価する項目として5つの項目が表示されているが、評価する項目の数は、求人者の裁量で決定することができる。表52において、点数は、いずれも7点と表示されている。表示されている7点は、10点を満点とした場合の数値であるが、各項目に対する満点の数値を任意に設定することができるほか、特に重要視する項目については、他の項目よりも満点の数値を高くしても良い。各項目に対する点数は、評価部22が、記憶部26に関連付けて記憶されている求職者の回答内容と点数に基づいて採点をするため、面接官の主観的、恣意的な採点を排除することができる。
表53は、面接の結果を受けて、次段階の面接を担当する面接官への引継ぎ項目がある場合に、その引継ぎ項目を入力できる欄である。たとえば、「次段階の面接においては、ある項目についてより掘り下げた回答を引き出すような質問をするように。」や、「一次面接としての動画像では求職者がとても緊張しているように見受けられたので、リラックスさせられる環境を作るように」などが考えられる。
図6は、この発明の実施の形態に係る面接支援システム1において、求職者端末3からの音声情報と管理サーバ2からの音声情報との交信により成立させる対話に基づいて面接を行う一例を示すフローチャートである。
まず、管理サーバ2は、音声情報の交信により面接を行う前に、会社端末4から、求人者が希望する人材の特徴や求人者が特に重要視する項目としての評価基準情報を受け付け、管理サーバ2に格納する(ステップS101)。
会社端末4によって、管理サーバ2に格納された評価基準情報に即した質問を選択すると、音声情報生成部24が言葉の発声及び聴音としての音声情報を生成し、管理サーバ2は求職者端末3に対して、質問内容として生成された音声情報を送信する(ステップS102)。
集音部33は、管理サーバ2から送信された質問内容としての音声情報に対する回答として、求職者からの言葉の発声を受け付ける(ステップS103)。
求職者が質問内容への回答として集音部33に言葉を発声すると、求職者端末3の音声情報変換部35が、集音部33が集音した言葉を音声情報に変換する。音声情報変換部35が音声情報に変換すると、求職者端末3の送信部32が音声情報を管理サーバ2に送信する(ステップS104)。なお、求職者の音声情報と、音声情報生成部24が生成した音声情報との交信は、対話部25が行う。
取得部21は、求職者端末3の送信部32から送信された音声情報を取得する(ステップS105)。
評価部22が、面接結果としての数値を評価することができる程度まで、これらのステップ(ステップS101からS105まで)を繰り返す。
評価部22が、求職者の質問内容に対する回答を積み重ねた結果、面接結果としての数値を評価することができる程度まで求職者の回答内容や求職者情報を収集することができた場合には、求職者の回答内容や求職者情報にネガティブな要素が含まれているか、判定する(ステップS106)。
ステップS106と同様に、管理サーバ2の評価部22は、求職者の回答内容や求職者情報にポジティブな要素が含まれているか、判定する(ステップS107)。
さらに、管理サーバ2の評価部22は、求職者の回答内容や求職者情報の個々が喜怒哀楽のいずれに該当するのか抽出する(ステップS108)。
管理サーバ2の評価部22は、求職者の回答内容や求職者情報に喜怒哀楽以外の情報(たとえば、発声や声の大きさなど。)がある場合には、その情報を抽出する(ステップS109)。
評価部22は、求職者の回答内容や求職者情報と、ステップS101で設定した評価基準情報とに基づいて、面接結果を数値で評価する(ステップS110)。
管理サーバ2は、評価部22が評価した、面接結果としての採点情報を会社端末4の表示部41に表示する(ステップS111)。会社端末4を使用する者(たとえば、企業の人事担当者)は、表示部41に表示された採点情報を用いて、求職者の合否を判定できる。たとえば、会社端末4を使用する者は、この採点情報の数値が所定の合格点に達している求職者に二次面接に進む旨を報告するメールを送信するなどの対応を行う。
同じ段階の面接(たとえば、一次面接)に複数の求職者が存在する場合には、すべての求職者の面接結果としての数値の評価がなされるまで、それぞれの求職者についてこれらのステップ(ステップS101からS111まで)を繰り返す。
図7は、この発明の実施の形態に係る面接支援システム1において、求職者が予め作成する動画像を用いて面接を行う一例を示すフローチャートである。
管理サーバ2は、求職者の動画像を取得する前に、会社端末4から、求人者が希望する人材の特徴や求人者が特に重要視する項目としての評価基準情報を受け付け、管理サーバ2に格納する(ステップS201)。
求職者は、動画像としての求職者の自己PR動画を作成する(ステップS202)。求職者の自己PR動画は、求職者の裁量で作成されても良いし、求人者の指定する条件に即して作成しても良い。なお、求職者による自己PR動画の作成は、ステップS201の前に行われても良い。
送信部32は、入力部31によって入力された、求職者が作成した自己PR動画を管理サーバ2へ送信する(ステップS203)。
取得部21は、送信部32送信された求職者の自己PR動画を取得する(ステップS204)。
評価部22は、取得部21が取得した求職者の自己PR動画の内容にどのような情報が含まれているのか分析する(ステップS205)。
評価部22は、求職者の自己PR動画の内容にネガティブな要素が含まれているか、判定する(ステップS206)。
ステップS206と同様に、評価部22は、求職者の自己PR動画の内容にポジティブな要素が含まれているか、判定する(ステップS207)。
さらに、評価部22は、求職者の自己PR動画におけるその時々の求職者の言動が喜怒哀楽のいずれに該当するのか抽出する(ステップS208)。
評価部22は、求職者の自己PR動画におけるその時々の求職者の言動に喜怒哀楽以外の情報(たとえば、視線の向きや姿勢など。)がある場合には、その情報を抽出する(ステップS209)。
評価部22は、求職者の自己PR動画におけるその時々の求職者の言動に特徴的なものがあるか判定し、特徴的なものがある場合(たとえば、特徴的な求職者の動きや表情など。)には、これを抽出する(ステップS210)。
評価部22は、回答情報としての求職者の自己PR動画の内容や求職者情報と、ステップS201で設定された評価基準情報とに基づいて、面接結果を数値で評価する(ステップS211)。
管理サーバ2は、評価部22が評価した、面接結果としての採点情報を表示部41に表示させる(ステップS212)。会社端末4を使用する者(たとえば、企業の人事担当者)は、表示部41に表示された採点情報を用いて、求職者の合否を判定できる。たとえば、会社端末4を使用する者は、この採点情報の数値が所定の合格点に達している求職者に二次面接に進む旨を報告するメールを送信するなどの対応を行う。
同じ段階の面接(たとえば、一次面接)に複数の求職者が存在する場合には、すべての求職者の面接結果としての数値の評価がなされるまで、それぞれの求職者についてこれらのステップ(ステップS201からS112まで)を繰り返す。
上記の実施例では、音声情報の交信や動画像に基づいて、人材採用面接(主に無期雇用又は長期間の雇用を見込んだ人材採用)を支援する場合について記載したが、短期間で多数の人員が必要な場合に(たとえば、イベントにおける会場スタッフ、年賀状の配達スタッフなど。)、効率的に人材を集めるために、面接支援システム1を用いても良い。
また、何かしらのオーディション(たとえば、映画の出演者を決めるためのオーディションなど。)における選考の過程において、効率的に選考を進めるために、面接支援システム1を用いても良い。
なお、上記実施例の変形例として、管理サーバ2が求職者の面接での評価や面接の合否判定を行う構成としても良い。たとえば、会社端末4を使用する者が所属する会社から、予め記憶部26に合否の基準点の情報を受領しておき、この情報を記憶させることができる。評価部22が評価した面接結果としての数値が、記憶部26に記憶されている合格の基準点を超えている場合に、結果送信部23は、会社端末4に対して、面接に合格した旨を送信しても良いし、求職者端末3に対して、直接面接の結果を送信しても良い。
また、求人者が使用しているサーバや求人者が使用している就職サイトのサーバに、管理サーバ2の構成を加えたり、さらに上記のように管理サーバ2に面接結果を判定させる構成を加えることで、管理サーバ2が求職者の面接での評価や面接の合否判定を行う構成を実現することができる。
上記実施の形態は本発明の例示であり、本発明が上記実施の形態のみに限定されることを意味するものではないことは、いうまでもない。
1・・・面接支援システム
2・・・管理サーバ
3・・・求職者端末
4・・・会社端末
5・・・ネットワーク
21・・・取得部
22・・・評価部
23・・・結果送信部
24・・・音声情報生成部
25・・・対話部
26・・・記憶部
31・・・入力部
32・・・送信部
33・・・集音部
34・・・拡声部
35・・・音声情報変換部
41・・・表示部

Claims (4)

  1. 就職において求職者の面接を行うための管理サーバと、
    該管理サーバにネットワークを介して接続され、求職者が前記管理サーバとの間で求職情報を交信する求職者端末と、
    前記管理サーバに前記ネットワークを介して接続され、前記求職者の雇用を求める求人者が前記管理サーバとの間で求人情報を交信する会社端末とを備え、
    前記求職者端末は、前記求職者による所定の質問に対する回答が入力される入力部と、
    前記求職者が入力した回答内容としての回答内容情報を前記管理サーバへ送信する送信部とを有し、
    前記管理サーバは、前記求職者端末から送信された前記求職者の前記回答内容を取得する取得部と、
    前記求職者の回答内容と点数とが関連付けて記憶されている記憶部と、
    前記管理サーバに格納されている評価基準情報及び前記記憶部に関連付けて記憶された前記求職者の回答内容と点数に基づいて、該求職者の回答内容に応じて加点又は減点することによって、該求職者の面接結果を数値で評価をする評価部と、
    該評価部が数値で評価をした面接結果の情報としての採点情報を送信する結果送信部とを有し、
    前記会社端末は、前記管理サーバの前記結果送信部から受信した前記採点情報を表示する表示部を有すること
    を特徴とする面接支援システム。
  2. 前記求職者端末は、前記求職者によって発声された言葉を集音するための集音部と、
    前記求職者端末の外部に音声を拡声するための拡声部と、
    前記集音部が集音した言葉を音声情報に変換する音声情報変換部とをさらに有し、
    前記管理サーバは、言葉の発声及び聴音としての音声情報を生成する音声情報生成部と、
    前記管理サーバの前記取得部と前記求職者端末の前記送信部との間で音声情報を交信することによって、前記管理サーバに蓄積されているプログラムを実行させることにより稼働するキャラクターと前記求職者との間の対話を成立させる対話部とをさらに有し、
    前記取得部が、前記管理サーバと前記求職者端末との間の前記音声情報の交信を通じて、前記求職者の表出した前記求職者の人格に関する所定の情報としての求職者情報をさらに取得することを特徴とする請求項1に記載の面接支援システム。
  3. 前記取得部が取得する求職者情報が音声及び/又は動画像であることを特徴とする請求項2に記載の面接支援システム。
  4. 前記取得部が取得した求職者の表情、態度、姿勢、発声、声の大きさ、言葉の使い方、発言内容、抑揚、語調、視線、動き、他人への共感度、協調性、その他の求職者の特徴に基づいて、他の求職者と比較をして、該求職者を評価することを特徴とする請求項2又は請求項3に記載の面接支援システム。
JP2021136581A 2021-08-24 2021-08-24 面接支援システム Active JP7334913B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021136581A JP7334913B2 (ja) 2021-08-24 2021-08-24 面接支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021136581A JP7334913B2 (ja) 2021-08-24 2021-08-24 面接支援システム

Publications (2)

Publication Number Publication Date
JP2023031089A true JP2023031089A (ja) 2023-03-08
JP7334913B2 JP7334913B2 (ja) 2023-08-29

Family

ID=85413794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021136581A Active JP7334913B2 (ja) 2021-08-24 2021-08-24 面接支援システム

Country Status (1)

Country Link
JP (1) JP7334913B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388790B1 (ja) 2023-07-13 2023-11-29 株式会社グレッジ 処理装置、処理プログラム及び処理方法
JP7442240B1 (ja) 2023-07-13 2024-03-04 株式会社グレッジ 処理装置、処理プログラム及び処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004288107A (ja) * 2003-03-25 2004-10-14 Fujitsu Ltd 人材仲介プログラムおよび人材仲介方法
JP2017504883A (ja) * 2013-12-09 2017-02-09 ハイアービュー・インコーポレイテッド オーディオキューに基づくモデル駆動型の候補者のソート
CN106663383A (zh) * 2014-06-23 2017-05-10 因特维欧研发股份有限公司 分析受试者的方法和系统
US20180192125A1 (en) * 2012-02-23 2018-07-05 Collegenet, Inc. Asynchronous video interview system
CN109961052A (zh) * 2019-03-29 2019-07-02 上海大易云计算股份有限公司 一种基于表情分析技术的视频面试方法及系统
CN112749869A (zh) * 2019-10-29 2021-05-04 财团法人资讯工业策进会 适性化职缺媒合系统及方法
US20210233031A1 (en) * 2020-01-29 2021-07-29 Cut-E Assessment Global Holdings Limited Systems and Methods for Automating Validation and Quantification of Interview Question Responses

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004288107A (ja) * 2003-03-25 2004-10-14 Fujitsu Ltd 人材仲介プログラムおよび人材仲介方法
US20180192125A1 (en) * 2012-02-23 2018-07-05 Collegenet, Inc. Asynchronous video interview system
JP2017504883A (ja) * 2013-12-09 2017-02-09 ハイアービュー・インコーポレイテッド オーディオキューに基づくモデル駆動型の候補者のソート
CN106663383A (zh) * 2014-06-23 2017-05-10 因特维欧研发股份有限公司 分析受试者的方法和系统
US20170213190A1 (en) * 2014-06-23 2017-07-27 Intervyo R&D Ltd. Method and system for analysing subjects
CN109961052A (zh) * 2019-03-29 2019-07-02 上海大易云计算股份有限公司 一种基于表情分析技术的视频面试方法及系统
CN112749869A (zh) * 2019-10-29 2021-05-04 财团法人资讯工业策进会 适性化职缺媒合系统及方法
US20210233031A1 (en) * 2020-01-29 2021-07-29 Cut-E Assessment Global Holdings Limited Systems and Methods for Automating Validation and Quantification of Interview Question Responses

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
横山 洋太: "人手不足解消の救世主「AIさくらさん」! 〜どこにでも配属可能なAIが「働き方改革」を推進する〜", 流通ネットワーキング, vol. 通巻310号, JPN6023017036, 10 November 2018 (2018-11-10), pages 34 - 38, ISSN: 0005052751 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388790B1 (ja) 2023-07-13 2023-11-29 株式会社グレッジ 処理装置、処理プログラム及び処理方法
JP7442240B1 (ja) 2023-07-13 2024-03-04 株式会社グレッジ 処理装置、処理プログラム及び処理方法

Also Published As

Publication number Publication date
JP7334913B2 (ja) 2023-08-29

Similar Documents

Publication Publication Date Title
CN115413348B (zh) 用于自动验证和量化面试问题回答的系统和方法
US11720859B2 (en) Systems and methods for evaluating actions over a computer network and establishing live network connections
Doedens et al. Measures of functional, real-world communication for aphasia: A critical review
Timming The effect of foreign accent on employability: A study of the aural dimensions of aesthetic labour in customer-facing and non-customer-facing jobs
CN106663383B (zh) 分析受试者的方法和系统
JP6741504B2 (ja) 面接システム
US20210233030A1 (en) Systems and methods for automatic candidate assessments in an asynchronous video setting
JP7334913B2 (ja) 面接支援システム
CN110648104A (zh) 一种智能人力资源筛选系统及方法
US20170039523A1 (en) Interviewing system and method
JP6649461B1 (ja) プログラム、情報処理装置及び情報処理方法
KR20020084564A (ko) 인터넷 기반 가상 면접 시스템 및 그것의 방법
Seita et al. Deaf and hard-of-hearing users' preferences for hearing speakers' behavior during technology-mediated in-person and remote conversations
Chou et al. An AI mock-interview platform for interview performance analysis
JP6570465B2 (ja) 重要語によって参加者の貢献度を推定可能なプログラム、装置及び方法
Parks Story circles: A new method of narrative research
Koutsoumpis et al. Beyond traditional interviews: Psychometric analysis of asynchronous video interviews for personality and interview performance evaluation using machine learning
JP2023097789A (ja) ビデオ会議分析システムおよびビデオ会議分析プログラム
JP7397527B1 (ja) 感情分析アプリケーション及び感情分析装置及び感情分析方法
JP2023145358A (ja) 建物計画支援システム
JP5763573B2 (ja) 質問相手選択装置、質問相手選択方法および質問相手選択プログラム
WO2022201405A1 (ja) 人材採用支援システム
WO2023038125A1 (ja) フィードバック装置及びプログラム
Berry Investigating Micro-Behaviors in Team Interactions between Engineering Students
Dimitriadou et al. An integrated framework for developing and evaluating an automated lecture style assessment system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230808

R150 Certificate of patent or registration of utility model

Ref document number: 7334913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150