JP6649461B1 - Program, information processing apparatus and information processing method - Google Patents

Program, information processing apparatus and information processing method Download PDF

Info

Publication number
JP6649461B1
JP6649461B1 JP2018229268A JP2018229268A JP6649461B1 JP 6649461 B1 JP6649461 B1 JP 6649461B1 JP 2018229268 A JP2018229268 A JP 2018229268A JP 2018229268 A JP2018229268 A JP 2018229268A JP 6649461 B1 JP6649461 B1 JP 6649461B1
Authority
JP
Japan
Prior art keywords
interview
information
interviewee
question
interviewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018229268A
Other languages
Japanese (ja)
Other versions
JP2020091735A (en
Inventor
一大 三浦
一大 三浦
靖隆 内山
靖隆 内山
Original Assignee
株式会社Agsコンサルティング
一大 三浦
一大 三浦
靖隆 内山
靖隆 内山
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Agsコンサルティング, 一大 三浦, 一大 三浦, 靖隆 内山, 靖隆 内山 filed Critical 株式会社Agsコンサルティング
Priority to JP2018229268A priority Critical patent/JP6649461B1/en
Application granted granted Critical
Publication of JP6649461B1 publication Critical patent/JP6649461B1/en
Publication of JP2020091735A publication Critical patent/JP2020091735A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】就職面接等の面接を良好に実施できるように支援することが可能なプログラム、情報処理装置及び情報処理方法を提供する。【解決手段】コンピュータプログラムは、面接対象者に関する情報を取得し、取得した面接対象者に関する情報に基づいて、複数の面接官から面接対象者の面接を行う面接官と、面接対象者に対する質問内容とを特定する。【選択図】図14Provided are a program, an information processing apparatus, and an information processing method capable of supporting an interview such as a job interview in a satisfactory manner. According to one embodiment, a computer program acquires information on an interviewee, and based on the acquired information on the interviewee, interviews a plurality of interviewers to interview the interviewee, and questions to the interviewee. And [Selection diagram] FIG.

Description

本発明は、プログラム、情報処理装置及び情報処理方法に関する。   The present invention relates to a program, an information processing device, and an information processing method.

コンピュータ上で人事評価を行うシステムが提案されている。例えば特許文献1には、質問に対する被検者の回答結果をコンピュータで処理し、被検者の特徴や適職性等を判断し、判断結果を示す人事評価データを生成する技術が提案されている。このような人事評価データを、被検者の派遣先を決める際の判断材料に用いることにより、被検者の適職性等を考慮した派遣先を決定することが可能となる。   A system for performing personnel evaluation on a computer has been proposed. For example, Patent Literature 1 proposes a technique in which a result of a test subject's answer to a question is processed by a computer, the characteristics and suitability of the test subject are determined, and personnel evaluation data indicating the determination result is generated. . By using such personnel evaluation data as a material for determining the dispatch destination of the subject, the dispatch destination can be determined in consideration of the suitability of the subject.

特開2001−290920号公報JP 2001-290920 A

特許文献1に開示されたシステムは、被検者に対する人事評価を行うものであり、人事評価のための質問を設定することはできるが、例えば就職面接における面接対象者に対して適切な質問を設定することは困難である。よって、特許文献1に開示されたシステムでは、面接を良好に実施することを支援することはできないという問題がある。   The system disclosed in Patent Literature 1 performs personnel evaluation on a subject, and can set a question for personnel evaluation. It is difficult to set. Therefore, the system disclosed in Patent Literature 1 has a problem in that it is not possible to support performing an interview properly.

本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、面接の良好な実施を支援することが可能なプログラム等を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a program and the like capable of supporting good interviews.

本発明の一態様に係るプログラムは、コンピュータに、面接対象者に関する情報を入力部を介して取得し、面接対象者に関する情報が入力された場合に、前記面接対象者に適した面接官の情報を出力するように学習された第1学習済モデルに、取得した前記面接対象者に関する情報を入力し前記第1学習済モデルから出力される前記面接官の情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官を特定し面接対象者に関する情報が入力された場合に、前記面接対象者に対する質問内容の情報を出力するように学習された第2学習済モデルに、取得した前記面接対象者に関する情報を入力し、前記第2学習済モデルから出力される前記質問内容の情報に基づいて、前記面接対象者に対する質問内容を特定する処理を実行させる。 A program according to an aspect of the present invention provides a computer that acquires information about an interviewee via an input unit and , when information about the interviewee is input, information about an interviewer suitable for the interviewee. Is input to the first trained model trained to output the information about the interviewee , and a plurality of interviewers are set based on the information of the interviewer output from the first trained model. From the second trained model trained to specify the interviewer interviewing the interviewee from and, when information about the interviewee is input, to output information on the content of the question to the interviewee , of executing a process of entering information about the acquired interviewed subject, based on the question content information to be outputted from the second trained model, identifies a question Description for the interviewee's That.

本発明の一態様にあっては、例えば就職面接における面接対象者に対して適切な面接官及び質問内容を設定することができる。よって、面接を良好に実施することを支援でき、面接対象者に応じて適切な面接の実施が可能となる。   In one embodiment of the present invention, for example, an appropriate interviewer and a question can be set for the interview target person in a job interview. Therefore, it is possible to assist in performing the interview satisfactorily, and it is possible to perform an appropriate interview according to the interview target person.

第1面接支援装置の構成例を示すブロック図である。It is a block diagram showing the example of composition of the 1st interview support device. 第1面接支援装置に記憶されるDBの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of DB stored in a 1st interview assistance apparatus. 第1面接支援装置に記憶されるDBの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of DB stored in a 1st interview assistance apparatus. 第1面接支援装置の制御部によって実現される機能を示すブロック図である。It is a block diagram showing the function realized by the control part of the 1st interview support device. 画面例を示す模式図である。It is a schematic diagram which shows a screen example. 画面例を示す模式図である。It is a schematic diagram which shows a screen example. 第2面接支援装置の構成例を示すブロック図である。It is a block diagram showing the example of composition of the 2nd interview support device. 質問設定テーブルの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of a question setting table. 第2面接支援装置に記憶されるDBの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of DB memorize | stored in a 2nd interview assistance apparatus. 第2面接支援装置に記憶されるDBの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of DB memorize | stored in a 2nd interview assistance apparatus. 第2面接支援装置の制御部によって実現される機能を示すブロック図である。It is a block diagram showing the function realized by the control part of the 2nd interview support device. 画面例を示す模式図である。It is a schematic diagram which shows a screen example. 第1面接支援装置による面接対象者の登録処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the registration process of the interviewee by the 1st interview assistance apparatus. 第1面接支援装置による面接官又は質問内容の決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the determination process of an interviewer or a question content by a 1st interview assistance apparatus. 第2面接支援装置による面接支援処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the interview assistance processing by a 2nd interview assistance apparatus. 面接結果画面例を示す模式図である。It is a schematic diagram which shows the example of an interview result screen. 面接履歴DBの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of an interview history DB. 第2面接支援装置の制御部によって実現される機能を示すブロック図である。It is a block diagram showing the function realized by the control part of the 2nd interview support device. 画面例を示す模式図である。It is a schematic diagram which shows a screen example.

以下に、本開示のプログラム、情報処理装置及び情報処理方法について、企業や会社等における従業員の採用面接を支援する装置に適用した実施形態を示す図面に基づいて具体的に説明する。   Hereinafter, a program, an information processing apparatus, and an information processing method of the present disclosure will be specifically described with reference to the drawings illustrating an embodiment applied to an apparatus that supports an employee interview in a company or a company.

(実施形態1)
図1は第1面接支援装置の構成例を示すブロック図である。第1面接支援装置10は、従業員募集に応募してきた面接対象者に関する情報の蓄積処理、蓄積した面接対象者に関する情報に基づいて面接対象者を面接する面接官及び面接時の質問(質問内容)を特定する処理等、種々の情報処理を行う。なお、第1面接支援装置10をサーバコンピュータ等によって構成し、第1面接支援装置10と外部装置(ユーザ端末)とをインターネット又はLAN(Local Area Network)等のネットワークを介して接続し、面接対象者に関する情報が、外部装置に入力されて外部装置から第1面接支援装置10へ送信される構成としてもよい。第1面接支援装置10をサーバコンピュータによって構成する場合、第1面接支援装置10は、複数台設けられて複数台で分散処理する構成でもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration example of the first interview support apparatus. The first interview support apparatus 10 stores information on interviewees who have applied for employee recruitment, interviewers interviewing interviewees based on the accumulated information on interviewees, and questions at the interview (contents of questions) ) And various other information processing. Note that the first interview support apparatus 10 is configured by a server computer or the like, and the first interview support apparatus 10 and an external device (user terminal) are connected via a network such as the Internet or a LAN (Local Area Network), and an interview target Information about the person may be input to the external device and transmitted from the external device to the first interview support device 10. When the first interview support device 10 is configured by a server computer, a plurality of first interview support devices 10 may be provided and distributed processing may be performed by a plurality of the first interview support devices 10, or a plurality of the first interview support devices 10 may be provided in one server device. It may be realized by a virtual machine or by using a cloud server.

第1面接支援装置10は、パーソナルコンピュータ又はサーバコンピュータ等の情報処理装置であり、制御部11、記憶部12、通信部14、入力部15、表示部16、読み取り部17等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理、制御処理等を第1面接支援装置10に行わせる。   The first interview support device 10 is an information processing device such as a personal computer or a server computer, and includes a control unit 11, a storage unit 12, a communication unit 14, an input unit 15, a display unit 16, a reading unit 17, and the like. Each part is mutually connected via a bus. The control unit 11 includes one or a plurality of processors such as a central processing unit (CPU), a micro-processing unit (MPU), or a graphics processing unit (GPU). By appropriately executing the control program 12P stored in the storage unit 12, the control unit 11 causes the first interview support apparatus 10 to perform various types of information processing and control processing to be performed by the information processing apparatus of the present disclosure. .

記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部12は、例えば機械学習処理によって構築されたニューラルネットワークである面接官決定用学習済モデル121及び質問決定用学習済モデル122を記憶している。面接官決定用学習済モデル121は、過去の面接対象者に関する情報と、それぞれの面接対象者に対して適切であった面接官又は不適切であった面接官の情報とを含む教師データに基づいて、面接対象者に関する情報に基づいて面接対象者に適した面接官の情報を出力するように学習された学習済みモデルである。質問決定用学習済モデル122は、過去の面接対象者に関する情報と、それぞれの面接対象者に対して有用であった質問又は不要であった質問の情報(質問内容)とを含む教師データに基づいて、面接対象者に関する情報に基づいて面接対象者に適した質問の情報を出力するように学習された学習済みモデルである。なお、学習済モデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、記憶部12にはこの演算を規定する関数の係数や閾値等のデータが、学習済モデル121,122として記憶される。更に記憶部12には、後述する面接官DB(データベース)12a、面接予定DB12b及び面接対象者DB13が記憶される。なお、面接対象者DB13は、人事DB13a、適性結果DB13b及びWebアプリDB13cを含む。面接官DB12a、面接予定DB12b及び面接対象者DB13は、第1面接支援装置10に接続された外部の記憶装置に記憶されてもよく、インターネット又はLAN等のネットワークを介して第1面接支援装置10と通信可能な記憶装置に記憶されてもよい。   The storage unit 12 includes a random access memory (RAM), a flash memory, a hard disk, a solid state drive (SSD), and the like. The storage unit 12 stores in advance a control program 12P executed by the control unit 11 and various data necessary for executing the control program 12P. Further, the storage unit 12 temporarily stores data and the like generated when the control unit 11 executes the control program 12P. The storage unit 12 stores an interviewer-determined learned model 121 and a question-determined learned model 122, which are neural networks constructed by, for example, machine learning processing. The trained model 121 for determining an interviewer is based on teacher data including information on past interviewees and information on interviewers who were appropriate or inappropriate for each interviewee. Thus, the trained model has been learned to output interviewer information suitable for the interviewee based on information about the interviewee. The learned model for question determination 122 is based on teacher data including information on past interviewees and information on questions that were useful or unnecessary for each interviewee (question contents). Thus, it is a learned model that has been learned to output question information suitable for the interviewee based on information about the interviewee. The trained model performs a predetermined calculation on an input value and outputs a calculation result. 121 and 122 are stored. Further, the storage unit 12 stores an interviewer DB (database) 12a, an interview schedule DB 12b, and an interview target DB 13 which will be described later. The interview target DB 13 includes a personnel DB 13a, an aptitude result DB 13b, and a Web application DB 13c. The interviewer DB 12a, the interview schedule DB 12b, and the interview subject DB 13 may be stored in an external storage device connected to the first interview support device 10, or may be stored in the first interview support device 10 via a network such as the Internet or a LAN. May be stored in a storage device that can communicate with the storage device.

通信部14は、有線通信又は無線通信によってネットワークに接続するためのインタフェースであり、ネットワークを介して外部装置との間で情報の送受信を行う。入力部15は、マウス及びキーボード等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部16は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。   The communication unit 14 is an interface for connecting to a network by wire communication or wireless communication, and transmits and receives information to and from an external device via the network. The input unit 15 includes a mouse, a keyboard, and the like, receives an operation input by a user, and sends a control signal corresponding to the operation content to the control unit 11. The display unit 16 is a liquid crystal display, an organic EL display, or the like, and displays various types of information according to an instruction from the control unit 11.

読み取り部17は、CD(Compact Disc)−ROM又はDVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に予め記憶される制御プログラム及びデータは、制御部11が読み取り部17を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に予め記憶される制御プログラム及びデータは、制御部11が通信部14を介してネットワーク経由で外部装置からダウンロードして記憶部12に記憶してもよい。更に、半導体メモリ1bから、制御部11が制御プログラム及びデータを読み出してもよい。   The reading unit 17 reads information stored in a portable storage medium 1a including a CD (Compact Disc) -ROM or a DVD (Digital Versatile Disc) -ROM. The control program and data stored in the storage unit 12 in advance may be read from the portable storage medium 1 a by the control unit 11 via the reading unit 17 and stored in the storage unit 12. Further, the control program and the data stored in the storage unit 12 in advance may be downloaded from an external device via the network via the communication unit 14 by the control unit 11 and stored in the storage unit 12. Further, the control unit 11 may read out a control program and data from the semiconductor memory 1b.

図2及び図3は、第1面接支援装置10に記憶されるDB12a〜12b,13a〜13cの構成例を示す模式図である。図2Aは面接官DB12aを、図2Bは面接予定DB12bを、図2Cは人事DB13aを、図3Aは適性結果DB13bを、図3BはWebアプリDB13cをそれぞれ示す。本実施形態では、面接対象者に関する情報を記憶する面接対象者DB13として3つのDB13a〜13cが設けられているが、面接対象者に関する情報は3つのDB13a〜13bに分けて記憶する構成に限らない。1つのDBに面接対象者に関する情報を記憶してもよいし、2つ又は4つ以上のDBに分けて面接対象者に関する情報を記憶してもよい。   2 and 3 are schematic diagrams illustrating a configuration example of the DBs 12a to 12b and 13a to 13c stored in the first interview support apparatus 10. 2A shows the interviewer DB 12a, FIG. 2B shows the scheduled interview DB 12b, FIG. 2C shows the personnel DB 13a, FIG. 3A shows the suitability result DB 13b, and FIG. 3B shows the Web application DB 13c. In the present embodiment, three DBs 13a to 13c are provided as the interviewee DB 13 that stores information about the interviewee, but the information about the interviewee is not limited to a configuration in which the information is separately stored in the three DBs 13a to 13b. . Information about the interviewee may be stored in one DB, or information about the interviewee may be stored in two or more DBs.

面接官DB12aは、例えばある会社において従業員の採用面接を行う担当者(面接官)の情報を記憶している。図2Aに示す面接官DB12aは、面接官ID列、氏名列、年齢列、勤続年数列、所属部署列、役職列等を含む。面接官ID列は、各面接官に予め割り当てられた識別情報を記憶する。氏名列、年齢列、勤続年数列、所属部署列、役職列はそれぞれ、各面接官の氏名、年齢、勤続年数、所属部署、役職を記憶する。面接官DB12aに記憶される面接官IDは、制御部11が新たな面接官の情報を面接官DB12aに記憶(登録)する際に、制御部11によって発行されて記憶される。面接官DB12aに記憶される面接官ID以外の各情報は、入力部15又は通信部14を介して追加、変更又は削除の指示を取得する都度、制御部11によって追加、変更又は削除される。面接官DB12aの記憶内容は図2Aに示す例に限定されず、面接官に関する各種の情報を記憶することができる。ここで、面接官には、現実に存在する人間のほかにバーチャルな面接官が含まれてもよい。バーチャルな面接官は、例えば予め複数の質問とそれぞれの質問に対する回答例を用意しておき、面接対象者の回答に応じて順次質問を行う面接官である。例えばバーチャルな面接官は、複数の質問、それぞれの質問に対する回答例、それぞれの回答例に応じた次の質問等をサーバに記憶しておき、面接対象者が自身の端末を用いてネットワーク経由でサーバにアクセスした場合に、サーバと端末との間で質問及び回答を送受信することによって面接を行う。なお、バーチャルな面接官は、ネットワーク経由で面接を行うほかに、例えば面接会場に設置された端末によって面接を行う構成でもよい。このようなバーチャルな面接官は、例えば過去の面接における各面接対象者の情報、合否判定の結果や面接が良好に行われたか否かを示す情報等に基づいて学習して生成された学習済モデルによって実現されてもよい。この場合、過去の面接実績に基づいて最適な面接を行えるバーチャルな面接官を実現できる。また、バーチャルな面接官に性格やキャラクタを設定し、設定した性格やキャラクタの情報を面接官DB12aに記憶してもよい。   The interviewer DB 12a stores, for example, information of a person (interviewer) who conducts an interview for hiring an employee in a certain company. The interviewer DB 12a shown in FIG. 2A includes an interviewer ID column, a name column, an age column, a length of service column, a department column, a post column, and the like. The interviewer ID column stores identification information assigned to each interviewer in advance. The name column, age column, length of service column, department column, and post column store the name, age, length of service, department, and post of each interviewer, respectively. The interviewer ID stored in the interviewer DB 12a is issued and stored by the controller 11 when the controller 11 stores (registers) new interviewer information in the interviewer DB 12a. Each piece of information other than the interviewer ID stored in the interviewer DB 12a is added, changed, or deleted by the control unit 11 each time an instruction for addition, change, or deletion is obtained via the input unit 15 or the communication unit 14. The storage contents of the interviewer DB 12a are not limited to the example shown in FIG. 2A, and various information regarding the interviewer can be stored. Here, the interviewer may include a virtual interviewer in addition to a real person. The virtual interviewer is, for example, an interviewer who prepares a plurality of questions and answer examples for each of the questions in advance, and sequentially asks questions according to the answers of the interviewees. For example, a virtual interviewer stores a plurality of questions, examples of answers to each question, the next questions according to each answer example, etc. on a server, and the interviewee uses his own terminal via the network When accessing the server, interviews are performed by transmitting and receiving questions and answers between the server and the terminal. It should be noted that the virtual interviewer may have a configuration in which the interview is performed by a terminal installed in the interview hall, for example, in addition to the interview via the network. Such a virtual interviewer is, for example, a trained learner generated by learning based on information of each interviewee in the past interview, the result of pass / fail judgment, information indicating whether or not the interview was performed successfully, and the like. It may be realized by a model. In this case, it is possible to realize a virtual interviewer who can perform an optimal interview based on past interview results. Alternatively, a personality and a character may be set in the virtual interviewer, and information on the set personality and character may be stored in the interviewer DB 12a.

面接予定DB12bは、予定された面接に関する情報を記憶している。なお、面接予定DB12bは、実施済みの面接及び実施待ち(未実施)の面接の情報を記憶する。図2Bに示す面接予定DB12bは、面接官ID列、面接対象者ID列、質問内容列、面接日時列等を含む。面接官ID列は、各面接官のID(識別情報)を記憶する。面接官ID列に記憶されるIDは、面接官DB12aに記憶されている面接官IDを用いる。面接対象者ID列は、各面接対象者に予め割り当てられた識別情報を記憶する。面接対象者ID列に記憶される識別情報は、面接対象者DB13(DB13a〜13c)に記憶されている面接対象者IDを用いる。質問内容列は、各面接対象者に対して設定された質問の情報を記憶する。なお、質問の情報は、質問内容を記載したテキストデータであってもよいし、各質問内容に割り当てられた識別情報であってもよいし、記憶部12の所定領域又は外部の記憶装置に記憶された質問内容を読み出すための情報(例えば質問内容の記憶場所を示すファイル名)であってもよい。面接日時列は、各面接対象者に対して設定された面接予定日時を記憶する。面接予定DB12bに記憶される面接官IDは、入力部15又は通信部14を介して追加又は削除の指示を取得する都度、制御部11によって追加又は削除される。面接予定DB12bに記憶される面接対象者ID、質問内容及び面接日時は、制御部11が各面接対象者に対する面接官、質問内容及び面接日時を決定する都度、制御部11によって追加される。面接予定DB12bの記憶内容は図2Bに示す例に限定されず、面接に関する各種の情報を記憶することができる。   The interview schedule DB 12b stores information on the scheduled interview. The interview schedule DB 12b stores information on interviews that have been performed and interviews that are waiting to be performed (not yet performed). The interview schedule DB 12b shown in FIG. 2B includes an interviewer ID column, an interview subject ID column, a question content column, an interview date and time column, and the like. The interviewer ID column stores the ID (identification information) of each interviewer. As the ID stored in the interviewer ID column, the interviewer ID stored in the interviewer DB 12a is used. The interview subject ID column stores identification information assigned in advance to each interview subject. The identification information stored in the interview subject ID column uses the interview subject ID stored in the interview subject DB 13 (DBs 13a to 13c). The question content column stores information on questions set for each interviewee. The question information may be text data describing the content of the question, identification information assigned to each question, or stored in a predetermined area of the storage unit 12 or an external storage device. The information may be information for reading the question content (for example, a file name indicating a storage location of the question content). The interview date and time column stores the scheduled interview date and time set for each interviewee. The interviewer ID stored in the interview schedule DB 12b is added or deleted by the control unit 11 each time an instruction for addition or deletion is acquired via the input unit 15 or the communication unit 14. The interview subject ID, the question content, and the interview date and time stored in the interview schedule DB 12b are added by the control unit 11 each time the control unit 11 determines the interviewer, the question content, and the interview date and time for each interview subject. The storage contents of the interview schedule DB 12b are not limited to the example shown in FIG. 2B, and various information relating to the interview can be stored.

人事DB13aは、面接対象者の人事に関する情報を記憶している。図2Cに示す人事DB13aは、面接対象者ID列、氏名列、年齢列、性別列、学歴列、履歴書列、職務経歴書列、自己紹介文列、志望動機列等を含む。面接対象者ID列は、各面接対象者に予め割り当てられた識別情報を記憶する。氏名列、年齢列、性別列、学歴列、履歴書列、職務経歴書列、自己紹介文列、志望動機列はそれぞれ、各面接対象者の氏名、年齢、性別、学歴、履歴書、職務経歴書、自己紹介文、志望動機を記憶する。人事DB13aに記憶される面接対象者IDは、制御部11が新たな面接対象者の情報を人事DB13aに記憶(登録)する際に、制御部11によって発行されて記憶される。人事DB13aに記憶される面接対象者ID以外の各情報は、入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。なお、面接対象者ID以外の各情報は、表示部16に表示された所定の入力フォームに対して入力部15を介して入力されて人事DB13aに記憶されてもよい。また、面接対象者ID以外の各情報は、外部装置で所定の入力フォームに対して入力された各情報をネットワーク経由で受信して人事DB13aに記憶されてもよい。更に例えば、履歴書、職務経歴書、自己紹介文や志望動機等を記載した用紙等の書類をスキャナで読み取って電子データに変換することによって、各情報を取得して人事DB13aに記憶してもよい。人事DB13aの記憶内容は図2Cに示す例に限定されず、面接対象者の人事に関わる各種の情報を記憶することができる。   The personnel DB 13a stores information on personnel of the interviewee. The personnel DB 13a shown in FIG. 2C includes an interview subject ID column, a name column, an age column, a gender column, an educational background column, a resume column, a job history column, a self-introduction column, a motivation column, and the like. The interview subject ID column stores identification information assigned in advance to each interview subject. The name column, age column, gender column, educational background column, resume column, job history column, self-introduction line, and aspiration motivation column are the name, age, gender, educational background, resume, job history of each interviewee, respectively. Memorize books, self-introductions, and motivations. The interview subject ID stored in the personnel DB 13a is issued and stored by the control unit 11 when the control unit 11 stores (registers) new interview subject information in the personnel DB 13a. Each piece of information other than the interview subject ID stored in the personnel DB 13a is added or changed by the control unit 11 every time an addition or change instruction is acquired via the input unit 15 or the communication unit 14. Note that information other than the interview subject ID may be input via the input unit 15 to a predetermined input form displayed on the display unit 16 and stored in the personnel DB 13a. In addition, as for each piece of information other than the interview subject ID, each piece of information input to a predetermined input form by an external device may be received via a network and stored in the personnel DB 13a. Further, for example, by reading a document such as a paper describing a resume, a job history, a self-introduction sentence, a motivation, etc. with a scanner and converting it into electronic data, it is possible to acquire each information and store it in the personnel DB 13a. Good. The storage content of the personnel DB 13a is not limited to the example shown in FIG. 2C, and can store various kinds of information relating to the personnel of the interviewee.

適性結果DB13bは、面接対象者に対する適性検査の結果に関する情報を記憶している。図3Aに示す適性結果DB13bは、面接対象者ID列、適性検査結果列、深層心理テスト結果列、アンケート結果列、SPI(Synthetic Personality Inventory )結果列、IQ(Intelligence Quotient )テスト結果列、EQ(Emotional Intelligence Quotient )テスト結果列、EPPS(Edwards Personal Preference Schedule)性格検査結果列、コンピテンシーテスト結果列、解析結果情報列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。面接対象者ID列に記憶されるIDは、人事DB13aに記憶されている面接対象者IDを用いる。適性検査結果列、深層心理テスト結果列、アンケート結果列、SPI結果列、IQテスト結果列、EQテスト結果列、EPPS性格検査結果列、コンピテンシーテスト結果列、解析結果情報列はそれぞれ、各面接対象者に行った各種の検査結果を示す情報を記憶する。適性結果DB13bに記憶される面接対象者IDは、制御部11が新たな面接対象者の適性結果情報を適性結果DB13bに記憶(登録)する際に、制御部11によって記憶される。適性結果DB13bに記憶される各種の検査結果を示す情報は、入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。また、適性結果DB13bに記憶される各種の検査結果を示す情報は、制御部11が面接対象者に関する情報に基づいて各種の検査を行って検査結果を取得する都度、制御部11によって追加される。適性結果DB13bの記憶内容は図3Aに示す例に限定されず、例えば面接対象者を行動心理学上の複数のタイプのいずれかに分類するような各種検査の結果を示す情報を記憶することができる。   The suitability result DB 13b stores information on the results of the suitability test for the interviewee. The suitability result DB 13b shown in FIG. 3A includes an interview subject ID column, a suitability test result column, a deep psychological test result column, a questionnaire result column, a SPI (Synthetic Personality Inventory) result column, an IQ (Intelligence Quotient) test result column, and an EQ ( Emotional Intelligence Quotient) test result column, EPPS (Edwards Personal Preference Schedule) personality test result column, competency test result column, analysis result information column, etc. are included. The interview subject ID column stores the ID (identification information) of each interview subject. As the ID stored in the interview subject ID column, an interview subject ID stored in the personnel DB 13a is used. Aptitude test result column, deep psychological test result column, questionnaire result column, SPI result column, IQ test result column, EQ test result column, EPPS personality test result column, competency test result column, analysis result information column, each interview subject Information indicating the results of various tests performed on the user is stored. The interview subject ID stored in the suitability result DB 13b is stored by the control unit 11 when the control unit 11 stores (registers) the suitability result information of the new interview subject in the suitability result DB 13b. The information indicating various inspection results stored in the suitability result DB 13b is added or changed by the control unit 11 every time an addition or change instruction is obtained via the input unit 15 or the communication unit 14. Further, the information indicating the various test results stored in the suitability result DB 13b is added by the control unit 11 each time the control unit 11 performs various tests based on the information on the interview subject and obtains the test results. . The storage content of the suitability result DB 13b is not limited to the example shown in FIG. 3A, and may store information indicating the results of various tests such as, for example, classifying interview subjects into any of a plurality of types in behavioral psychology. it can.

WebアプリDB13cは、面接対象者によるWeb又はアプリ(アプリケーションプログラム)に対する行動履歴に関する情報を記憶している。図3Bに示すWebアプリDB13cは、面接対象者ID列、特定のWeb又はアプリに対する閲覧履歴列、購買履歴列、使用履歴列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。閲覧履歴列、購買履歴列、使用履歴列はそれぞれ、各面接対象者が特定のWeb又はアプリに対して閲覧した履歴、購買した履歴、使用した履歴を記憶する。WebアプリDB13cに記憶される面接対象者IDは、制御部11が新たな面接対象者の情報をWebアプリDB13cに記憶(登録)する際に、制御部11によって記憶される。WebアプリDB13cに記憶される面接対象者ID以外の各情報は、入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。なお、面接対象者ID以外の各情報は、所定の入力フォームに対して入力部15を介して入力されてWebアプリDB13cに記憶されてもよいし、外部装置で取得された特定のWeb又はアプリに対する閲覧履歴、購買履歴、使用履歴をネットワーク経由で受信してWebアプリDB13cに記憶されてもよい。WebアプリDB13cの記憶内容は図3Bに示す例に限定されず、Web又はアプリに対する面接対象者の行動履歴が分かるような各種の情報を記憶することができる。   The Web application DB 13c stores information on an action history of the interview target person with respect to a Web or an application (application program). The web application DB 13c illustrated in FIG. 3B includes an interview target person ID column, a browsing history column, a purchase history column, a use history column, and the like for a specific Web or application. The interview subject ID column stores the ID (identification information) of each interview subject. The browsing history column, purchase history column, and use history column store the history of each interviewee browsing, purchasing, and using a specific Web or application. The interview subject ID stored in the web application DB 13c is stored by the control unit 11 when the control unit 11 stores (registers) information of a new interview subject in the web application DB 13c. Each piece of information other than the interview target ID stored in the Web application DB 13c is added or changed by the control unit 11 each time an addition or change instruction is obtained via the input unit 15 or the communication unit 14. Each piece of information other than the interview subject ID may be input to a predetermined input form via the input unit 15 and stored in the web application DB 13c, or may be a specific web or application acquired by an external device. May be received via the network and stored in the Web application DB 13c. The storage content of the Web application DB 13c is not limited to the example illustrated in FIG. 3B, and can store various types of information such that the action history of the interviewee with respect to the Web or the application can be understood.

次に、第1面接支援装置10の制御部11が制御プログラム12Pを実行することによって実現される機能について説明する。図4は、第1面接支援装置10の制御部11によって実現される機能を示すブロック図、図5及び図6は、画面例を示す模式図である。第1面接支援装置10の制御部11は、記憶部12に記憶してある制御プログラム12Pを実行した場合、登録受付部101、対象者情報取得部102、対象者情報記憶部103、面接官決定受付部104、対象者情報読出部105、面接官特定部106、質問決定受付部107、対象者情報読出部108、質問特定部109、画面生成部110、出力部111の各機能を実現する。なお、本実施形態では、これらの各機能を制御部11が制御プログラム12Pを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。   Next, functions realized by the control unit 11 of the first interview support apparatus 10 executing the control program 12P will be described. FIG. 4 is a block diagram illustrating functions realized by the control unit 11 of the first interview support apparatus 10, and FIGS. 5 and 6 are schematic diagrams illustrating screen examples. When the control unit 11 of the first interview support apparatus 10 executes the control program 12P stored in the storage unit 12, the registration reception unit 101, the subject information acquisition unit 102, the subject information storage unit 103, the interviewer decision The functions of the receiving unit 104, the target person information reading unit 105, the interviewer specifying unit 106, the question determination receiving unit 107, the target person information reading unit 108, the question specifying unit 109, the screen generating unit 110, and the output unit 111 are realized. In the present embodiment, each of these functions is realized by the control unit 11 executing the control program 12P, but a part of them may be realized by a dedicated hardware circuit.

本実施形態において、第1面接支援装置10の制御部11は制御プログラム12Pを実行した場合、図5Aに示す初期画面を表示部16に表示する。図5Aに示す画面は、「面接対象者を登録する」ボタン、「面接官を決める」ボタン及び「質問を決める」ボタンを表示する。「面接対象者を登録する」ボタンは、面接対象者の情報を面接対象者DB13に登録する際に操作するボタンであり、入力部15を介してこのボタンが操作された場合、登録受付部101は、面接対象者に関する情報の登録指示を受け付ける。「面接官を決める」ボタンは、面接対象者DB13に登録された面接対象者に対して面接を行う面接官を決定する際に操作するボタンであり、入力部15を介してこのボタンが操作された場合、面接官決定受付部104は、面接対象者に対する面接官の決定指示を受け付ける。「質問を決める」ボタンは、面接対象者DB13に登録された面接対象者に対して面接時の質問内容を決定する際に操作するボタンであり、入力部15を介してこのボタンが操作された場合、質問決定受付部107は、面接対象者に対する質問内容の決定指示を受け付ける。   In the present embodiment, when the control unit 11 of the first interview support apparatus 10 executes the control program 12P, an initial screen shown in FIG. 5A is displayed on the display unit 16. The screen shown in FIG. 5A displays a "register interviewee" button, a "decide interviewer" button, and a "decide question" button. The “register interviewee” button is a button operated when registering information of the interviewee in the interviewee DB 13, and when this button is operated via the input unit 15, the registration accepting unit 101 Receives an instruction to register information about the interviewee. The “determine interviewer” button is a button that is operated when determining an interviewer who will interview the interviewee registered in the interviewee DB 13, and this button is operated via the input unit 15. In this case, the interviewer decision accepting unit 104 accepts an interviewer's decision instruction for the interviewee. The “determine question” button is a button operated when deciding the content of a question at the time of an interview with the interviewee registered in the interviewee DB 13, and this button is operated via the input unit 15. In this case, the question determination receiving unit 107 receives an instruction to determine the content of the question to the interviewee.

登録受付部101が面接対象者の登録指示を受け付けた場合、対象者情報取得部(取得部)102は、登録すべき面接対象者に関する情報を取得する。なお、図5Aに示す画面において「面接対象者を登録する」ボタンが操作された場合、対象者情報取得部102は、図5Bに示す登録画面を表示部16に表示する。図5Bに示す画面は、面接対象者に関する情報の登録方法として、CSV(Comma-Separated Value )、API(Application Programming Interface )、入力画面又は紙スキャンを選択するためのCSVボタン、APIボタン、入力画面ボタン、紙スキャンボタンを表示する。入力部15を介していずれかのボタンが操作されて「登録する」ボタンが操作された場合、対象者情報取得部102は、選択された方法によって面接対象者に関する情報を取得する。例えば、CSVボタンが選択(操作)されて「登録する」ボタンが操作された場合、対象者情報取得部102は、CSVフォーマットで面接対象者の情報が記載されたファイルの指定を受け付け、指定されたファイルから面接対象者の情報を読み込む。また、入力画面ボタンが選択(操作)されて「登録する」ボタンが操作された場合、対象者情報取得部102は、所定の入力フォームの画面を表示部16に表示し、入力フォームを介して面接対象者の情報を取得する。また、図5Bに示す画面は、面接対象者に対して所定のアンケートへの回答又は所定の入力フォームへの情報入力を依頼するための「アンケート/情報入力を依頼する」ボタンを表示する。入力部15を介して「アンケート/情報入力を依頼する」ボタンが操作された場合、対象者情報取得部102は、所定のアンケートフォーム又は入力フォームを面接対象者の端末へネットワーク経由で送信する。面接対象者は、受信したアンケートフォーム又は入力フォームに適宜情報を入力して返信することにより、対象者情報取得部102は、所定のアンケートフォーム又は入力フォームを介して面接対象者の更なる情報を取得できる。なお、所定のアンケートフォーム又は入力フォームは、面接対象者の長所や短所を把握でき、適性診断や性格診断に用いることができる情報を入力するように構成してある。また、面接対象者の端末の宛先情報は取得しているものとする。   When the registration receiving unit 101 receives an instruction to register an interview target, the target information acquisition unit (acquisition unit) 102 obtains information about the interview target to be registered. When the “register interviewee” button is operated on the screen shown in FIG. 5A, the subject information acquisition unit 102 displays the registration screen shown in FIG. 5B on the display unit 16. The screen illustrated in FIG. 5B includes a CSV (Comma-Separated Value), an API (Application Programming Interface), an input screen, a CSV button for selecting a paper scan, an API button, and an input screen as a method of registering information on the interview subject. Displays the button and the paper scan button. When one of the buttons is operated via the input unit 15 and the “register” button is operated, the subject person information acquiring unit 102 acquires information on the interview subject by the selected method. For example, when the CSV button is selected (operated) and the “Register” button is operated, the subject information acquisition unit 102 receives the specification of the file in which the information of the interview subject is described in the CSV format, and receives the specification. Read the interviewee information from the file. Further, when the input screen button is selected (operated) and the “register” button is operated, the subject information acquisition unit 102 displays a screen of a predetermined input form on the display unit 16, and displays the screen via the input form. Get interviewee information. The screen shown in FIG. 5B displays a “questionnaire / request information input” button for requesting the interview subject to answer a predetermined questionnaire or input information to a predetermined input form. When the “questionnaire / information input request” button is operated via the input unit 15, the target person information acquisition unit 102 transmits a predetermined questionnaire form or input form to the terminal of the interview target via the network. The interviewee enters appropriate information in the received questionnaire form or input form and replies, so that the interviewee information acquisition unit 102 can obtain additional information on the interviewee via a predetermined questionnaire form or input form. Can be obtained. In addition, the predetermined questionnaire form or input form is configured to be able to grasp the strengths and weaknesses of the interviewee and to input information that can be used for aptitude diagnosis and personality diagnosis. It is also assumed that the destination information of the terminal of the interviewee has been acquired.

対象者情報記憶部103は、対象者情報取得部102が取得した面接対象者に関する各種の情報を面接対象者DB13(DB13a〜13c)にそれぞれ記憶する。なお、適性結果DB13bに記憶される各種の検査結果は、対象者情報取得部102によって取得される情報だけでなく、制御部11が面接対象者に関する情報に基づいて各種の検査を行って得られる情報であってもよい。これにより、面接対象者の面接前の情報に基づいて、面接対象者のプロファイリングを行うことができ、プロファイリングの結果として各種の検査結果を適性結果DB13bに記憶できる。上述した処理によって、第1面接支援装置10の記憶部12には、図2A〜図3Bに示すようなDB12a〜12b,13a〜13cが記憶される。   The subject information storage unit 103 stores in the interview subject DB 13 (DBs 13a to 13c) various types of information on the interview subject acquired by the subject information acquiring unit 102. The various test results stored in the suitability result DB 13b are obtained not only by the information acquired by the subject information acquisition unit 102, but also by the control unit 11 performing various tests based on information on the interview subject. It may be information. Thereby, profiling of the interviewee can be performed based on the information before the interview of the interviewee, and various inspection results can be stored in the suitability result DB 13b as a result of the profiling. By the above-described processing, DBs 12a to 12b and 13a to 13c as shown in FIGS. 2A to 3B are stored in the storage unit 12 of the first interview support apparatus 10.

図5Bに示す画面において、いずれかの登録方法に対応するボタン及び「登録する」ボタンが操作されて、面接対象者に関する情報が面接対象者DB13に登録された後、制御部11は、図5Cに示す一覧画面を表示部16に表示する。図5Cに示す画面は、面接対象者DB13に登録された面接対象者の情報を一覧表示する。例えば、面接対象者の氏名及び面接対象者に対して判定された適性検査結果等を表示する。なお、面接官又は面接時の質問内容が設定されていない面接対象者の情報のみを一覧表示してもよい。また図5Cに示す画面は、各面接対象者を選択するためのチェックボックス、「面接官を決める」ボタン及び「質問を決める」ボタンを表示する。入力部15を介して1又は複数の面接対象者のチェックボックスが選択されて「面接官を決める」ボタンが操作された場合、面接官決定受付部104が、選択された面接対象者に対する面接官の決定指示を受け付ける。なお、図5Cに示す画面において、入力部15を介して1又は複数の面接対象者のチェックボックスが選択されて「質問を決める」ボタンが操作された場合、質問決定受付部107が、選択された面接対象者に対する質問内容の決定指示を受け付ける。   After the button corresponding to any of the registration methods and the “register” button are operated on the screen shown in FIG. Is displayed on the display unit 16. The screen shown in FIG. 5C displays a list of interviewee information registered in the interviewee DB 13. For example, the name of the interviewee and the suitability test result determined for the interviewee are displayed. In addition, you may list only information on interviewees or interviewees for whom the content of questions at the interview is not set. The screen shown in FIG. 5C displays a check box for selecting each interviewee, a "decide interviewer" button, and a "decide question" button. When one or more check boxes of the interviewees are selected via the input unit 15 and the “determine interviewer” button is operated, the interviewer determination receiving unit 104 determines that the interviewer for the selected interviewee is Is accepted. In the screen shown in FIG. 5C, if one or more check boxes of the interviewees are selected via input unit 15 and the “determine question” button is operated, question determination accepting unit 107 is selected. And accept the instruction to determine the content of the question to the interviewee.

面接官決定受付部104が面接官の決定指示を受け付けた場合、対象者情報読出部105は、面接官を決定すべき面接対象者に関する情報を面接対象者DB13から読み出す。例えば対象者情報読出部105は、面接対象者の氏名及び適性検査結果等を読み出す。対象者情報読出部105が面接対象者の情報を読み出した場合、画面生成部110は、図6Aに示すような面接官の決定画面を生成する。図6Aに示す画面は、対象者情報読出部105が読み出した面接対象者の情報を一覧表示する。なお、図6Aでは、面接対象者に対応する面接官の情報(面接官ID)が表示されているが、面接官が決定されていない面接対象者については、面接官の情報は表示されない。図6Aに示す画面は、各面接対象者を選択するためのチェックボックスを表示する。また図6Aに示す画面は、面接官の決定方法として、選択された面接対象者毎に異なる方針で個別に決定する方法、選択された面接対象者に対して同じ方針で一括して決定する方法、所定の学習済モデル(AI:Artificial Intelligence )を用いて自動で決定する方法のいずれかを選択するための個別決定ボタン、一括決定ボタン及びAI決定ボタンを表示する。更に図6Aに示す画面は、面接の方針として、採用希望の面接対象者に対する面接、内容を深掘りする面接、圧迫面接のいずれかを選択するための採用希望ボタン、深堀りボタン及び圧迫ボタンを表示する。   When the interviewer decision accepting unit 104 accepts the interviewer's decision instruction, the subject information reading unit 105 reads from the interview subject DB 13 information on the interview subject whose interviewer is to be decided. For example, the subject information reading unit 105 reads the interview subject's name and aptitude test result. When the target person information reading unit 105 reads the information of the interview target person, the screen generation unit 110 generates an interviewer determination screen as shown in FIG. 6A. The screen shown in FIG. 6A displays a list of the interview target information read by the target information reading unit 105. In FIG. 6A, the information (interviewer ID) of the interviewer corresponding to the interviewee is displayed, but the interviewer information is not displayed for the interviewee whose interviewer has not been determined. The screen shown in FIG. 6A displays a check box for selecting each interviewee. In addition, the screen shown in FIG. 6A shows a method for deciding an interviewer, a method for individually determining the selected interviewees with different policies, and a method for collectively determining the selected interviewees with the same policy. In addition, an individual determination button, a collective determination button, and an AI determination button for selecting any of the methods of automatically determining using a predetermined learned model (AI: Artificial Intelligence) are displayed. Further, the screen shown in FIG. 6A shows, as the interview policy, an interview with a candidate to be interviewed, an interview for digging the contents, and a hiring button, a deep button, and a compression button for selecting one of compression interviews. indicate.

出力部111は、画面生成部110が生成した面接官の決定画面を表示部16に表示する。図6Aに示す画面において、入力部15を介して面接官の決定方法として個別決定ボタンが選択された場合、いずれかの方針に対応するボタンと、いずれかの面接対象者のチェックボックスとが更に操作された後に、面接官特定部106は、選択された1人の面接対象者について適切な面接官を特定する。また図6Aに示す画面において、面接官の決定方法として一括決定ボタンが選択された場合、いずれかの方針に対応するボタンと、1又は複数の面接対象者のチェックボックスとが更に操作された後に、面接官特定部106は、選択された各面接対象者について適切な面接官を特定する。更に図6Aに示す画面において、面接官の決定方法としてAI決定ボタンが選択された場合、1又は複数の面接対象者のチェックボックスが更に操作された後に、面接官特定部106は、選択された各面接対象者について適切な面接官を特定する。なお、AI決定ボタンが選択された場合は、面接の方針は選択される必要はない。   The output unit 111 displays the interviewer determination screen generated by the screen generation unit 110 on the display unit 16. In the screen shown in FIG. 6A, when the individual decision button is selected as a method for deciding an interviewer via the input unit 15, a button corresponding to any policy and a check box for any interviewee are further displayed. After the operation, the interviewer identification unit 106 identifies an appropriate interviewer for the selected one interviewee. In the screen shown in FIG. 6A, when the batch decision button is selected as the interviewer's decision method, after the button corresponding to one of the policies and the check box of one or more interviewees are further operated. The interviewer identification unit 106 identifies an appropriate interviewer for each selected interviewee. Further, in the screen shown in FIG. 6A, when the AI determination button is selected as the method of determining the interviewer, the interviewer identification unit 106 selects the selected interviewer after further operating the check box of one or more interviewees. Identify the appropriate interviewer for each interviewee. When the AI determination button is selected, the interview policy does not need to be selected.

面接官特定部(特定部)106は、図6Aに示す画面を介して選択された面接対象者に対して適切な面接官を、例えば面接官決定用学習済モデル121を用いて特定する。具体的には、面接官特定部106は、それぞれの面接対象者について、面接対象者の情報と面接の方針とを面接官決定用学習済モデル121に入力し、面接官決定用学習済モデル121からの出力値を取得する。面接対象者の情報は、対象者情報読出部105が面接対象者DB13から読み出した情報であり、面接の方針は、図6Aに示す画面を介して選択された方針(方針を示す方針情報)である。面接官決定用学習済モデル121の出力値は、面接官DB12aに登録してある面接官のそれぞれに対する判別確率であり、それぞれの面接官が、面接対象者に対してどの程度適切であるかを表す度合を示す。例えば、面接官決定用学習済モデル121の出力ノードは面接官の数だけ設けられており、各出力ノードから、各出力ノードに対応付けられた面接官に対する判別確率が出力される。各出力ノードの出力値は例えば0〜1.0の値であり、全ての出力ノードから出力された確率の合計が1.0(100%)となる。面接官特定部106は、例えば面接官決定用学習済モデル121からの出力値が最大の面接官を特定し、特定した面接官を面接対象者に対する面接官に決定する。   The interviewer identification unit (identification unit) 106 identifies an interviewer appropriate for the interview target selected via the screen shown in FIG. 6A, for example, using the trained model 121 for interviewer determination. Specifically, the interviewer specifying unit 106 inputs the information of the interviewee and the interview policy for each interviewee to the trained model 121 for interviewer determination, and the trained model 121 for interviewer determination. Get output value from. The information of the interview target is information read from the interview target DB 13 by the target information reading unit 105, and the interview policy is a policy (policy information indicating the policy) selected via the screen shown in FIG. 6A. is there. The output value of the trained model 121 for determining an interviewer is the discrimination probability for each of the interviewers registered in the interviewer DB 12a, and indicates how appropriate each interviewer is for the interviewee. Indicates the degree of expression. For example, the output nodes of the trained model 121 for interviewer determination are provided by the number of interviewers, and each output node outputs the determination probability for the interviewer associated with each output node. The output value of each output node is, for example, a value of 0 to 1.0, and the sum of the probabilities output from all the output nodes is 1.0 (100%). The interviewer specifying unit 106 specifies, for example, an interviewer having the largest output value from the trained model 121 for determining an interviewer, and determines the specified interviewer as an interviewer for the interviewee.

なお、面接官決定用学習済モデル121は、例えば深層学習アルゴリズムを用いて学習させたディープラーニングモデルである。面接官決定用学習済モデル121は例えば、過去の面接対象者に関する情報と、それぞれの方針に係る情報と、それぞれの面接対象者に対して適切であった面接官を示す情報(正解ラベル)とを1セットとした教師データを用いて学習する。面接官決定用学習済モデル121は、教師データに含まれる面接対象者に関する情報及び方針に係る情報を入力した場合に、教師データに含まれる正解ラベルが示す面接官に対応する出力ノードからの出力値が1.0に近づき、その他の出力ノードからの出力値が0に近づくように学習する。なお、面接官決定用学習済モデル121は、入力値に対して行う所定の演算を規定する関数の係数や閾値等のデータを最適化する。これにより、面接対象者に関する情報と方針に係る情報とに基づいて、面接対象者に最適な面接官の情報を出力するように学習済みのモデル121が得られる。   The trained model 121 for interviewer determination is a deep learning model learned using, for example, a deep learning algorithm. The trained model 121 for interviewer determination includes, for example, information on past interviewees, information on each policy, and information (correct label) indicating an interviewer who was appropriate for each interviewee. Is learned using the teacher data in which is set as one set. The trained model 121 for determining the interviewer outputs the information from the output node corresponding to the interviewer indicated by the correct answer label included in the teacher data when the information on the interview target and the information on the policy included in the teacher data are input. The learning is performed so that the value approaches 1.0 and the output values from the other output nodes approach 0. Note that the trained model 121 for interviewer determination optimizes data such as coefficients and thresholds of a function that defines a predetermined operation to be performed on an input value. Thereby, based on the information on the interviewee and the information on the policy, the trained model 121 is obtained so as to output the optimal interviewer information for the interviewee.

面接官決定用学習済モデル121は、第1面接支援装置10において学習が行われてもよいし、異なる学習装置において学習された後に第1面接支援装置10の記憶部12に記憶されてもよい。面接官決定用学習済モデル121は、ディープラーニングモデルに限定されず、種々の機械学習のアルゴリズムによって構築された学習済モデルを用いることができる。また、面接官決定用学習済モデル121は、図6Aに示す画面を介して選択可能な面接の方針毎に設けられていてもよい。この場合、面接官特定部106は、面接対象者の情報のみを面接官決定用学習済モデル121に入力し、面接官決定用学習済モデル121からそれぞれの面接官に対する判別確率を示す出力値を取得する。   The trained model 121 for interviewer determination may be learned in the first interview support apparatus 10, or may be stored in the storage unit 12 of the first interview support apparatus 10 after being learned in a different learning apparatus. . The trained model 121 for interviewer determination is not limited to the deep learning model, and a trained model constructed by various machine learning algorithms can be used. Further, the trained model 121 for interviewer determination may be provided for each interview policy that can be selected via the screen shown in FIG. 6A. In this case, the interviewer identification unit 106 inputs only the information of the interviewee to the trained model 121 for determining the interviewer, and outputs an output value indicating the determination probability for each interviewer from the trained model 121 for determining the interviewer. get.

なお、図6Aに示す画面において、面接官の決定方法としてAI決定ボタンが選択された場合、面接官特定部106は、面接対象者の情報のみに基づいて面接対象者に適した面接官を特定する。ここでは、面接官特定部106は、面接官決定用学習済モデル121を用いて面接官を特定してもよいし、面接官決定用学習済モデル121とは異なり、面接対象者の情報のみに基づいて適切な面接官の情報を出力するように学習された学習済モデルを用いてもよい。面接官特定部106が面接対象者に適した面接官を特定した場合、画面生成部110は、図6Aに示す画面において、面接対象者に対応する面接官として、特定した面接官の面接官IDを追加する。出力部111は、画面生成部110によって更新された決定画面を表示部16に表示する。   In the screen shown in FIG. 6A, when the AI determination button is selected as the interviewer determining method, the interviewer specifying unit 106 specifies an interviewer suitable for the interview target based on only the information of the interview target. I do. Here, the interviewer specifying unit 106 may specify the interviewer using the trained model 121 for determining the interviewer, or, unlike the trained model 121 for determining the interviewer, only the information of the interview target person. A learned model that has been learned to output appropriate interviewer information based on the learned model may be used. When the interviewer specifying unit 106 specifies an interviewer suitable for the interviewee, the screen generation unit 110 determines the interviewer ID of the identified interviewer as the interviewer corresponding to the interviewee on the screen shown in FIG. 6A. Add. The output unit 111 displays the determination screen updated by the screen generation unit 110 on the display unit 16.

図6Aに示す画面は、表示された面接対象者に対する面接官を決定するための「決定する」ボタンを表示しており、入力部15を介して「決定する」ボタンが操作された場合、表示されている面接官をそれぞれの面接対象者の面接官に決定する。このとき、制御部11は、面接予定DB12bに対して、決定した面接官の面接官IDに対応付けて、面接対象者の面接対象者IDを記憶する。これにより、面接対象者に対して適切な面接官が設定される。このように、面接対象者の面接前の情報に基づいて、最適な面接官を設定することにより、採用につながるような有効な面接の実行が可能な面接官を設定できる。なお、面接官特定部106は、面接官決定用学習済モデル121を用いずに、面接対象者に関する情報と、面接官に関する情報とに基づいて、それぞれの面接対象者に対して適切な面接官を特定してもよい。例えば、適切な組合せである面接対象者の適性検査結果と面接官の適性検査結果とを対応付けてテーブルに記憶しておき、面接対象者の情報に基づいて判定された適性検査結果に対応する面接官をテーブルから特定してもよい。また、第1面接支援装置10が各面接官のスケジュールアプリと連携している場合、制御部11は、面接対象者に対する面接官に決定した場合に、対応する面接官のスケジュールアプリに、面接予定が入ったこと及び面接対象者に関する情報を登録してもよい。   The screen shown in FIG. 6A displays an “OK” button for determining the interviewer for the displayed interviewee, and is displayed when the “OK” button is operated via the input unit 15. The interviewer being interviewed is determined to be the interviewer for each interviewee. At this time, the control unit 11 stores the interviewee ID of the interviewee in the interview schedule DB 12b in association with the determined interviewer ID of the interviewer. Thereby, an appropriate interviewer is set for the interviewee. As described above, by setting an optimal interviewer based on information before the interview of the interviewee, it is possible to set an interviewer who can perform an effective interview that leads to recruitment. Note that the interviewer identification unit 106 does not use the trained model 121 for determining the interviewer, and based on the information on the interviewee and the information on the interviewer, May be specified. For example, the suitability test result of the interviewee and the suitability test result of the interviewer, which are appropriate combinations, are stored in a table in association with each other, and correspond to the suitability test result determined based on the information of the interviewee. The interviewer may be identified from the table. In addition, when the first interview support apparatus 10 is linked to the schedule application of each interviewer, the control unit 11 transmits the interview schedule to the schedule application of the corresponding interviewer when the interviewer is determined to be the interviewer for the interviewee. May be registered and information about the interviewee.

一方、質問決定受付部107が質問内容の決定指示を受け付けた場合、対象者情報読出部108は、質問内容を決定すべき面接対象者に関する情報を面接対象者DB13から読み出す。例えば対象者情報読出部108は、面接対象者の氏名及び適性検査結果等を読み出す。対象者情報読出部108が面接対象者の情報を読み出した場合、画面生成部110は、図6Bに示すような質問の決定画面を生成する。図6Bに示す画面は、図6Aに示す面接官の決定画面と同様の構成を有しており、図6Aに示す画面が面接対象者に対する面接官の情報を表示する代わりに、面接対象者に対する質問の情報(例えば質問内容又は質問の識別情報)を表示する。   On the other hand, when the question determination receiving unit 107 receives the instruction to determine the content of the question, the target person information reading unit 108 reads information on the target of the interview for which the content of the question is to be determined from the target DB 13. For example, the subject information reading unit 108 reads the interview subject's name and aptitude test result. When the target person information reading unit 108 reads the information of the interview target person, the screen generation unit 110 generates a question determination screen as shown in FIG. 6B. The screen shown in FIG. 6B has the same configuration as the interviewer determination screen shown in FIG. 6A, and instead of the screen shown in FIG. The question information (for example, question content or question identification information) is displayed.

出力部111は、画面生成部110が生成した質問の決定画面を表示部16に表示する。図6Bに示す画面において、入力部15を介して質問内容の決定方法として個別決定ボタンが選択された場合、いずれかの方針に対応するボタンと、いずれかの面接対象者のチェックボックスとが更に操作された後に、質問特定部109は、選択された1人の面接対象者について適切な質問内容を特定する。また図6Bに示す画面において、質問の決定方法として一括決定ボタンが選択された場合、いずれかの方針に対応するボタンと、1又は複数の面接対象者のチェックボックスとが更に操作された後に、質問特定部109は、選択された各面接対象者について適切な質問内容を特定する。更に図6Bに示す画面において、質問の決定方法としてAI決定ボタンが選択された場合、1又は複数の面接対象者のチェックボックスが更に操作された後に、質問特定部109は、選択された各面接対象者について適切な質問内容を特定する。なお、質問特定部109が特定する質問内容は、例えば面接開始直後に行うべき質問の内容、面接の序盤又は中盤に行うべき質問の内容、任意のタイミングで行うべき質問の内容等であってもよい。   The output unit 111 displays the question determination screen generated by the screen generation unit 110 on the display unit 16. In the screen shown in FIG. 6B, when the individual determination button is selected as a method of determining the content of the question via the input unit 15, a button corresponding to any policy and a check box of any interviewee are further displayed. After the operation, the question specifying unit 109 specifies an appropriate question content for the selected one interviewee. In the screen shown in FIG. 6B, when the batch determination button is selected as a question determination method, after a button corresponding to any policy and a check box of one or more interviewees are further operated, The question specifying unit 109 specifies an appropriate question for each selected interviewee. Further, when the AI determination button is selected as a question determination method on the screen shown in FIG. 6B, after one or more check boxes of the interviewees are further operated, the question specifying unit 109 sets each selected interview. Identify appropriate questions about the target audience. The question content specified by the question specifying unit 109 may be, for example, the content of a question to be performed immediately after the start of the interview, the content of a question to be performed in the early or middle stage of the interview, the content of a question to be performed at an arbitrary timing, or the like. Good.

質問特定部(特定部)109は、図6Bに示す画面を介して選択された面接対象者に対して適切な質問内容を質問決定用学習済モデル122を用いて特定する。具体的には、質問特定部109は、それぞれの面接対象者について、面接対象者の情報と面接の方針とを質問決定用学習済モデル122に入力し、質問決定用学習済モデル122からの出力値を取得する。質問決定用学習済モデル122の出力値は、予め設定された複数の質問内容のそれぞれに対する判別確率であり、それぞれの質問内容が、面接対象者に対してどの程度適切であるかを表す度合を示す。例えば、質問決定用学習済モデル122の出力ノードは、予め設定された、例えば面接の序盤に行うべき質問内容の数だけ設けられており、各出力ノードから、各出力ノードに対応付けられた質問内容に対する判別確率が出力される。質問特定部109は、例えば質問決定用学習済モデル122からの出力値が最大の質問内容を特定し、特定した質問内容を面接対象者に対する質問内容に決定する。なお、予め設定された質問は、質問の識別情報に対応付けて記憶部12に記憶しておく。   The question specifying unit (specifying unit) 109 specifies an appropriate question content for the interview target selected via the screen illustrated in FIG. 6B by using the learned model 122 for question determination. Specifically, the question specifying unit 109 inputs, for each interviewee, the information of the interviewee and the interview policy to the learned model 122 for question determination, and outputs the information from the learned model 122 for question determination. Get the value. The output value of the trained model 122 for question determination is a determination probability for each of a plurality of question contents set in advance. Show. For example, the output nodes of the learned model 122 for question determination are provided in advance by the number of questions to be set in advance, for example, at the beginning of the interview, and from each output node, a question associated with each output node is set. The discrimination probability for the content is output. The question specifying unit 109 specifies, for example, the question content having the largest output value from the learned model 122 for question determination, and determines the specified question content as the question content for the interviewee. The previously set question is stored in the storage unit 12 in association with the question identification information.

なお、質問決定用学習済モデル122は、面接官決定用学習済モデル121と同様にディープラーニングモデルを用いることができる。質問決定用学習済モデル122は例えば、過去の面接対象者に関する情報と、それぞれの方針に係る情報と、それぞれの面接対象者に対して有用であった質問内容を示す情報(正解ラベル)とを1セットとした教師データを用いて学習する。質問決定用学習済モデル122は、教師データに含まれる面接対象者に関する情報及び方針に係る情報を入力した場合に、教師データに含まれる正解ラベルが示す質問に対応する出力ノードからの出力値が1.0に近づき、その他の出力ノードからの出力値が0に近づくように学習する。これにより、面接対象者に関する情報と方針に係る情報とに基づいて、面接対象者に最適な質問内容の情報を出力するように学習済みのモデル122が得られる。   As the learned model 122 for question determination, a deep learning model can be used similarly to the learned model 121 for interviewer determination. The learned model for question determination 122 includes, for example, information on past interviewees, information on each policy, and information (correct answer label) indicating the content of a question that was useful for each interviewee. Learning is performed by using one set of teacher data. The learned model 122 for question determination uses an output value from an output node corresponding to the question indicated by the correct answer label included in the teacher data when the information regarding the interview target included in the teacher data and the information regarding the policy are input. The learning is performed such that the output values from the other output nodes approach 1.0 and the output values from the other output nodes approach 0. Thereby, based on the information on the interviewee and the information on the policy, the trained model 122 is obtained so as to output the information of the question content most suitable for the interviewee.

質問決定用学習済モデル122も、第1面接支援装置10において学習が行われてもよいし、異なる学習装置において学習された後に第1面接支援装置10の記憶部12に記憶されてもよい。質問決定用学習済モデル122はディープラーニングモデルに限定されず、種々の機械学習のアルゴリズムによって構築された学習済モデルを用いることができる。また、質問決定用学習済モデル122は、図6Bに示す画面を介して選択可能な面接の方針毎に設けられていてもよい。この場合、質問特定部109は、面接対象者の情報のみを質問決定用学習済モデル122に入力し、質問決定用学習済モデル122からそれぞれの質問内容に対する判別確率を示す出力値を取得する。   The question determination learned model 122 may also be learned in the first interview support device 10, or may be stored in the storage unit 12 of the first interview support device 10 after being learned in a different learning device. The learned model 122 for question determination is not limited to the deep learning model, and a learned model constructed by various machine learning algorithms can be used. The learned model 122 for question determination may be provided for each interview policy that can be selected via the screen shown in FIG. 6B. In this case, the question specifying unit 109 inputs only the information of the interview target person to the question determination learned model 122, and acquires an output value indicating the determination probability for each question content from the question determination learning model 122.

なお、図6Bに示す画面において、質問の決定方法としてAI決定ボタンが選択された場合、質問特定部109は、面接対象者の情報のみに基づいて面接対象者に適した質問を特定する。ここでは、質問特定部109は、質問決定用学習済モデル122を用いて質問内容を特定してもよいし、質問決定用学習済モデル122とは異なり、面接対象者の情報のみに基づいて適切な質問内容を特定するように学習された学習済モデルを用いてもよい。質問特定部109が面接対象者に適した質問を特定した場合、画面生成部110は、図6Bに示す画面において、面接対象者に対応する質問として、特定した質問の識別情報を追加する。なお、質問内容自体を図6Bに示す画面に追加してもよい。出力部111は、画面生成部110によって更新された質問の決定画面を表示部16に表示する。   When the AI determination button is selected as a question determination method on the screen illustrated in FIG. 6B, the question specifying unit 109 specifies a question suitable for the interview target based on only the information of the interview target. Here, the question specifying unit 109 may specify the contents of the question using the learned model 122 for question determination, or, unlike the learned model 122 for question determination, may appropriately determine the content of the question based on only the information of the interviewee. A learned model that has been learned so as to identify a specific question may be used. When the question specifying unit 109 specifies a question suitable for the interview target, the screen generation unit 110 adds identification information of the specified question as a question corresponding to the interview target on the screen illustrated in FIG. 6B. The question itself may be added to the screen shown in FIG. 6B. The output unit 111 displays the question determination screen updated by the screen generation unit 110 on the display unit 16.

図6Bに示す画面は、表示された面接対象者に対する質問内容を決定するための「決定する」ボタンを表示しており、入力部15を介して「決定する」ボタンが操作された場合、表示されている質問内容をそれぞれの面接対象者の質問内容に決定する。このとき、制御部11は、面接予定DB12bに対して、面接対象者の面接対象者IDに対応付けて、決定した質問内容の識別情報を記憶する。これにより、面接対象者に対して適切な質問内容が設定される。このように、面接対象者の面接前の情報に基づいて、最適な質問内容を設定することにより、採用につながるような有効な面接の実行が可能となる。なお、質問特定部109は、質問決定用学習済モデル122を用いずに、面接対象者に関する情報に基づいて、それぞれの面接対象者に対して適切な質問を特定してもよい。例えば、面接対象者の適性検査結果と、それぞれの適性検査結果の面接対象者に適した質問とを対応付けてテーブルに記憶しておき、面接対象者の情報に基づいて判定された適性検査結果に対応する質問をテーブルから特定してもよい。   The screen shown in FIG. 6B displays a “determine” button for determining the content of the displayed question to the interviewee, and is displayed when the “determine” button is operated via the input unit 15. The questions asked are determined as the questions of each interviewee. At this time, the control unit 11 stores the identification information of the determined question content in the interview schedule DB 12b in association with the interview target person ID of the interview target person. As a result, appropriate questions are set for the interviewee. As described above, by setting the optimal question contents based on the information before the interview of the interview target person, it is possible to perform an effective interview that leads to adoption. The question specifying unit 109 may specify an appropriate question for each interviewee based on information about the interviewees, without using the learned model 122 for question determination. For example, the suitability test results of the interviewees and the questions suitable for the interviewees of the respective suitability test results are stored in a table in association with each other, and the suitability test results determined based on the information of the interviewees are stored. May be specified from the table.

以下に、上述したように第1面接支援装置10によって各種情報が記憶された面接予定DB12b及び面接対象者DB13を用いて、実際の面接において面接官を支援する第2面接支援装置20について説明する。図7は第2面接支援装置20の構成例を示すブロック図である。第2面接支援装置20は、実際の面接において面接対象者に関する情報の蓄積処理、蓄積した面接対象者に関する情報に基づいて面接対象者の状態を検出する処理、質問内容を特定する処理等、種々の情報処理を行う。第2面接支援装置20は、パーソナルコンピュータ、サーバコンピュータ等の情報処理装置であり、第1面接支援装置10と同様の構成を有し、更にカメラ27及びマイク28を有する。なお、第1面接支援装置10と同様の構成については説明を省略する。   Hereinafter, the second interview support device 20 that supports the interviewer in an actual interview using the interview schedule DB 12b and the interview target person DB 13 in which various information is stored by the first interview support device 10 as described above will be described. . FIG. 7 is a block diagram illustrating a configuration example of the second interview support apparatus 20. The second interview support apparatus 20 performs various processes, such as a process of storing information on the interviewee in an actual interview, a process of detecting the state of the interviewee based on the accumulated information on the interviewee, a process of specifying the content of a question, and the like. Information processing. The second interview support device 20 is an information processing device such as a personal computer or a server computer, has the same configuration as the first interview support device 10, and further includes a camera 27 and a microphone 28. The description of the same configuration as that of the first interview support apparatus 10 is omitted.

第2面接支援装置20の記憶部22は、制御部21が実行する制御プログラム22P及び制御プログラム22Pの実行に必要な各種のデータ等を予め記憶している。また記憶部22は、面接前に第1面接支援装置10にて判定された面接対象者の適性検査結果と、面接中に第2面接支援装置20にて判定される面接対象者の適性検査結果とに対応付けて質問内容が設定してある質問設定テーブル221を記憶している。更に記憶部22は、面接予定DB22aを記憶し、面接対象者DB23として人事DB23a、適性結果DB23b、WebアプリDB23c、非言語DB23d、言語DB23e及び面接結果DB23fを記憶する。面接予定DB22a、人事DB23a、適性結果DB23b及びWebアプリDB23cは、第1面接支援装置10の記憶部12に記憶してある面接予定DB12b、人事DB13a、適性結果DB13b及びWebアプリDB13cと同一である。   The storage unit 22 of the second interview support apparatus 20 stores in advance a control program 22P executed by the control unit 21 and various data necessary for executing the control program 22P. In addition, the storage unit 22 stores the suitability test result of the interview target determined by the first interview support device 10 before the interview and the suitability test result of the interview target determined by the second interview support device 20 during the interview. And a question setting table 221 in which question contents are set in association with. Further, the storage unit 22 stores an interview schedule DB 22a, and stores a personnel HR DB 23a, an aptitude result DB 23b, a Web application DB 23c, a non-language DB 23d, a language DB 23e, and an interview result DB 23f as the interview target DB 23. The interview schedule DB 22a, the personnel DB 23a, the suitability result DB 23b, and the web application DB 23c are the same as the interview schedule DB 12b, the personnel DB 13a, the suitability result DB 13b, and the web application DB 13c stored in the storage unit 12 of the first interview support apparatus 10.

カメラ27は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して入射した光を撮像素子にて光電変換して画像データを取得する。カメラ27は、制御部21からの指示に従って撮影を行い、取得した画像データ(撮影画像)を逐次制御部21へ送出する。マイク28は、増幅器及びA/D(アナログ/デジタル)変換器等を有する集音装置であり、周囲の音声を収集してアナログの音声データを取得し、取得した音声データを増幅器にて増幅し、A/D変換器にてデジタルの音声データに変換し、音声データを取得する。マイク28は、制御部21からの指示に従って集音を行い、取得した音声データを逐次制御部21へ送出する。   The camera 27 is an imaging device having a lens, an image sensor, and the like, and photoelectrically converts light incident through the lens by the image sensor to obtain image data. The camera 27 performs photographing in accordance with an instruction from the control unit 21, and sequentially transmits the acquired image data (captured images) to the control unit 21. The microphone 28 is a sound collection device having an amplifier, an A / D (analog / digital) converter, and the like. The microphone 28 collects surrounding audio to acquire analog audio data, and amplifies the acquired audio data with the amplifier. A / D converter converts the data into digital audio data and acquires the audio data. The microphone 28 performs sound collection in accordance with an instruction from the control unit 21 and sequentially transmits the acquired audio data to the control unit 21.

第2面接支援装置20は、カメラ27及びマイク28が内蔵された構成のほかに、外部のカメラ及び/又はマイクの接続が可能な接続部を備える構成でもよい。この場合、接続部は、外部のカメラ及び/又はマイクにて取得された画像データ及び/又は音声データの入力を受け付け、入力された画像データ及び/又は音声データを逐次制御部21へ送出する。第2面接支援装置20は、第1面接支援装置10にカメラ27及びマイク28を接続したものであってもよく、この場合、第2面接支援装置20の記憶部22に、第1面接支援装置10の記憶部12に記憶してある学習済モデル121,122及び面接官DB12aが記憶されていてもよい。また、第2面接支援装置20をサーバコンピュータ等によって構成し、第2面接支援装置20と、カメラ及びマイクを有する外部装置(面接官の端末)とをインターネット又はLAN等のネットワークを介して接続し、外部装置で取得された画像データ及び音声データが、ネットワーク経由で第2面接支援装置20へ送信される構成としてもよい。この場合、第2面接支援装置20はカメラ27及びマイク28を備えていなくてもよい。第2面接支援装置20をサーバコンピュータによって構成する場合、第2面接支援装置20は、複数台設けられて複数台で分散処理する構成でもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。また、第1面接支援装置10及び第2面接支援装置20が実現する各機能を1台のサーバコンピュータによって構成してもよく、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。   The second interview support apparatus 20 may have a configuration in which a camera 27 and a microphone 28 are incorporated, and a connection unit to which an external camera and / or microphone can be connected. In this case, the connection unit receives input of image data and / or audio data acquired by an external camera and / or microphone, and sequentially sends the input image data and / or audio data to the control unit 21. The second interview support device 20 may be a device in which the camera 27 and the microphone 28 are connected to the first interview support device 10, and in this case, the first interview support device is stored in the storage unit 22 of the second interview support device 20. The learned models 121 and 122 and the interviewer DB 12a stored in the ten storage units 12 may be stored. Further, the second interview support apparatus 20 is configured by a server computer or the like, and the second interview support apparatus 20 is connected to an external apparatus (an interviewer terminal) having a camera and a microphone via a network such as the Internet or a LAN. Alternatively, the image data and the sound data acquired by the external device may be transmitted to the second interview support device 20 via the network. In this case, the second interview support device 20 may not include the camera 27 and the microphone 28. When the second interview support device 20 is configured by a server computer, a plurality of second interview support devices 20 may be provided and distributed processing may be performed by a plurality of the second interview support devices 20, or a plurality of the second interview support devices 20 may be provided in one server device. It may be realized by a virtual machine or by using a cloud server. Further, each function realized by the first interview support apparatus 10 and the second interview support apparatus 20 may be configured by one server computer, and may be realized by a plurality of virtual machines provided in one server apparatus. Or may be realized using a cloud server.

更に、第2面接支援装置20と、カメラ、マイク、表示部及びスピーカを有する外部装置(面接対象者の端末)とをネットワークを介して接続し、外部装置で取得された面接対象者の画像データ及び音声データが、ネットワーク経由で第2面接支援装置20へ送信される構成としてもよい。なお、このとき、第2面接支援装置20は面接官の撮影画像(画像データ)及び会話音声(音声データ)を取得し、取得した画像データ及び音声データをネットワーク経由で面接対象者の端末へ送信する。このような構成とした場合、第2面接支援装置20を用いる面接官と面接対象者とが遠隔地にいる場合であっても、テレビ電話やビデオチャット等を利用した遠隔面接を行うことができる。なお、この場合、第2面接支援装置20は、ネットワーク経由で面接対象者の端末から受信した面接対象者の会話音声を出力するためのスピーカを備えている。   Further, the second interview support apparatus 20 is connected to an external device (a terminal of the interviewee) having a camera, a microphone, a display unit, and a speaker via a network, and the image data of the interviewee obtained by the external device is connected. And audio data may be transmitted to the second interview support device 20 via the network. At this time, the second interview support apparatus 20 acquires the photographed image (image data) and the conversation voice (voice data) of the interviewer, and transmits the obtained image data and voice data to the terminal of the interview subject via the network. I do. With such a configuration, even when the interviewer using the second interview support device 20 and the interviewee are in remote locations, a remote interview using a videophone, video chat, or the like can be performed. . In this case, the second interview support device 20 includes a speaker for outputting the conversational voice of the interviewee received from the interviewee's terminal via the network.

図8は、質問設定テーブル221の構成例を示す模式図である。質問設定テーブル221には、面接前の情報に基づいて事前に判定された面接対象者の適性検査結果(事前の結果)と、面接中に第2面接支援装置20にて判定される面接対象者の適性検査結果(リアルタイムの結果)とに対応付けて質問内容が設定してある。質問設定テーブル221に記憶される質問内容は、質問内容を記載したテキストデータであってもよいし、各質問内容の識別情報であってもよいし、記憶部22の所定領域又は外部の記憶装置に記憶された質問内容を読み出すための情報であってもよい。図8に示す例では、事前の適性検査結果をタイプ1〜4とし、リアルタイムの適性検査結果をタイプA〜Dとしているが、タイプの数は4つに限らない。また質問設定テーブル221は、図8に示す構成のほかに、面接前の情報及び面接中に面接対象者が発した会話の内容等の言語情報に基づいて判定される面接対象者の適性検査結果と、面接中の面接対象者の動作や挙動等の非言語情報に基づいて判定される面接対象者の適性検査結果とに対応付けて質問内容が設定されていてもよい。更に質問設定テーブル221は、1つの質問内容に対する回答例毎に設けられており、ある質問に対する面接対象者の回答に応じた質問設定テーブル221を用いて次の質問が決定されてもよい。また質問設定テーブル221は、面接の方針毎に設けられており、面接の方針が指定又は変更された場合に、面接の方針に応じた質問設定テーブル221を用いて次の質問が決定される。   FIG. 8 is a schematic diagram illustrating a configuration example of the question setting table 221. The question setting table 221 includes an aptitude test result (prior result) of the interview target determined in advance based on information before the interview, and an interview target determined by the second interview support device 20 during the interview. The question content is set in association with the suitability test result (real-time result). The question content stored in the question setting table 221 may be text data describing the content of the question, identification information of each question content, a predetermined area of the storage unit 22, or an external storage device. May be information for reading out the content of the question stored in. In the example illustrated in FIG. 8, the preliminary suitability test results are types 1 to 4 and the real-time suitability test results are types A to D. However, the number of types is not limited to four. In addition to the configuration shown in FIG. 8, the question setting table 221 includes a result of an aptitude test of the interviewee determined based on information before the interview and language information such as the content of a conversation made by the interviewee during the interview. The question content may be set in association with the interview subject's aptitude test result determined based on non-verbal information such as the motion or behavior of the interview subject during the interview. Furthermore, the question setting table 221 is provided for each answer example for one question content, and the next question may be determined using the question setting table 221 corresponding to the answer of the interviewee to a certain question. The question setting table 221 is provided for each interview policy. When the interview policy is designated or changed, the next question is determined using the question setting table 221 according to the interview policy.

図9及び図10は、第2面接支援装置20に記憶されるDB23d〜23fの構成例を示す模式図である。図9Aは非言語DB23dを、図9Bは言語DB23eを、図10は面接結果DB23fをそれぞれ示す。非言語DB23dは、面接対象者の面接時における動作や挙動に関する情報(以下では非言語情報ともいう)を記憶している。図9Aに示す非言語DB23dは、面接対象者ID列、画像データ列、意図的動作の情報列、無意識的動作の情報列、目線・視線の情報列、顔・表情の情報列、姿勢の情報列、行動の情報列、運動の情報列、解析結果情報列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。画像データ列は、面接対象者の面接時における撮影画像のデータ(画像情報)を記憶する。なお、撮影画像のデータは、非言語DB23dに記憶されるほかに、記憶部22の所定領域又は第2面接支援装置20に接続された外部の記憶装置に記憶されてもよい。この場合、画像データ列は、撮影画像のデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。意図的動作の情報列、無意識的動作の情報列、目線・視線の情報列、顔・表情の情報列、姿勢の情報列、行動の情報列、運動の情報列、解析結果情報列はそれぞれ、面接対象者の撮影画像のデータに基づいて抽出した面接対象者の挙動に関する各種の情報を記憶する。例えば、面接対象者の撮影画像からモーションキャプチャ技術によって面接対象者の動きをデジタルデータとして抽出することにより、面接対象者の目線・視線の動きに係る情報、顔・表情の動きに係る情報、姿勢の変化に係る情報、行動に係る情報、運動に係る情報を取得できる。また、モーションキャプチャ技術によって取得した面接対象者の動きの周期や大きな等に基づいて、面接対象者が意図的に行っている意図的動作であるのか、無意識に行っている無意識的動作であるのかに分類できる。よって、それぞれ分類した意図的動作に係る情報及び無意識的動作に係る情報を取得できる。また、上述したような面接対象者の挙動に関する情報に基づいて、面接対象者の状態を解析することができ、解析結果に係る情報を取得できる。このように取得される面接対象者の挙動に関する情報が非言語DB23dに記憶される。   9 and 10 are schematic diagrams illustrating a configuration example of the DBs 23d to 23f stored in the second interview support device 20. 9A shows the non-language DB 23d, FIG. 9B shows the language DB 23e, and FIG. 10 shows the interview result DB 23f. The non-language DB 23d stores information (hereinafter, also referred to as non-language information) related to actions and behaviors of the interview subject at the time of the interview. The non-language DB 23d illustrated in FIG. 9A includes an interview subject ID sequence, an image data sequence, an intentional motion information sequence, an unconscious motion information sequence, a gaze / gaze information sequence, a face / expression information sequence, and a posture information sequence. Columns, action information columns, exercise information columns, analysis result information columns, and the like. The interview subject ID column stores the ID (identification information) of each interview subject. The image data sequence stores data (image information) of a captured image at the time of the interview of the interview target person. Note that the data of the captured image may be stored in a predetermined area of the storage unit 22 or an external storage device connected to the second interview support device 20, in addition to being stored in the non-language DB 23d. In this case, the image data string stores information (for example, a file name indicating a storage location of the data) for reading the data of the captured image. The information sequence of intentional motion, the information sequence of unconscious motion, the information sequence of eyes and eyes, the information sequence of faces and facial expressions, the information sequence of posture, the information sequence of behavior, the information sequence of movement, and the analysis result information sequence are respectively Various types of information regarding the behavior of the interview target extracted based on the data of the image of the interview target are stored. For example, by extracting the motion of the interviewee as digital data from the captured image of the interviewee using motion capture technology, information related to the movement of the line of sight and gaze of the interviewee, information related to the movement of the face and facial expression, posture , Information on behavior, and information on exercise. In addition, based on the period of the interviewee's motion acquired by the motion capture technology or the size of the interviewee's motion, whether the interviewee is intentionally performing intentionally or unconsciously performing unconscious motion Can be classified. Therefore, it is possible to acquire the information on the intentional operation and the information on the unconscious operation, which are classified respectively. In addition, the state of the interview target can be analyzed based on the information on the behavior of the interview target as described above, and information relating to the analysis result can be obtained. Information on the behavior of the interview subject thus obtained is stored in the non-language DB 23d.

非言語DB23dに記憶される面接対象者IDは、面接が開始される際に、制御部21によって記憶される。非言語DB23dに記憶される画像データは、カメラ27にて取得する都度、制御部21によって記憶される。また、非言語DB23dに記憶される面接対象者の挙動に関する各種の情報は、制御部21が面接対象者の撮影画像に基づいて各種の情報を取得する都度、制御部21によって記憶される。非言語DB23dの記憶内容は図9Aに示す例に限定されず、面接対象者の撮影画像から抽出できる面接対象者の挙動に関する各種の情報を記憶することができる。   The interview target person ID stored in the non-language DB 23d is stored by the control unit 21 when the interview is started. The image data stored in the non-language DB 23d is stored by the control unit 21 each time the image data is acquired by the camera 27. In addition, the control unit 21 stores various types of information on the behavior of the interviewee stored in the non-language DB 23d each time the control unit 21 acquires various information based on a captured image of the interviewee. The storage content of the non-language DB 23d is not limited to the example illustrated in FIG. 9A, and can store various types of information regarding the behavior of the interview target that can be extracted from the captured image of the interview target.

言語DB23eは、面接対象者の面接時における会話内容や声に関する情報(以下では言語情報ともいう)を記憶している。図9Bに示す言語DB23eは、面接対象者ID列、音声データ列、会話時間列、会話間の時間列、質問・回答の時間列、声のトーン列、音声に基づく心理状態列、音声のテキストデータ列、テキストデータのグルーピング情報列、キーワード列、解析結果情報列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。音声データ列は、面接対象者の面接時における会話の音声データ(音声情報)を記憶する。なお、音声データは、言語DB23eに記憶されるほかに、記憶部22の所定領域又は第2面接支援装置20に接続された外部の記憶装置に記憶されてもよい。この場合、音声データ列は、会話の音声データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。会話時間列、会話間の時間列、質問・回答の時間列、声のトーン列、音声に基づく心理状態列、音声のテキストデータ列、テキストデータのグルーピング情報列、キーワード列、解析結果情報列はそれぞれ、面接対象者の音声データに基づいて抽出した面接対象者の会話に関する各種の情報を記憶する。   The language DB 23e stores information on the conversation contents and voices of the interviewee at the time of the interview (hereinafter also referred to as linguistic information). The language DB 23e shown in FIG. 9B includes an interview subject ID column, a voice data column, a conversation time column, a time column between conversations, a question / answer time column, a voice tone column, a voice-based mental status column, and a voice text. It includes data strings, text data grouping information strings, keyword strings, analysis result information strings, and the like. The interview subject ID column stores the ID (identification information) of each interview subject. The voice data string stores voice data (voice information) of a conversation at the time of the interview of the interview target person. The voice data may be stored in a predetermined area of the storage unit 22 or an external storage device connected to the second interview support device 20 in addition to being stored in the language DB 23e. In this case, the audio data string stores information (for example, a file name indicating a storage location of the data) for reading the audio data of the conversation. The conversation time sequence, the time sequence between conversations, the time sequence of questions and answers, the tone sequence of voice, the psychological state sequence based on speech, the text data sequence of speech, the grouping information sequence of text data, the keyword sequence, and the analysis result information sequence Each of them stores various kinds of information relating to the conversation of the interviewee extracted based on the voice data of the interviewee.

例えば、会話の音声データに対して、音声の特徴量を抽出する処理、面接官及び面接対象者の声の特徴量の差異等に基づいて面接官の会話部分と面接対象者の会話部分とを分割する処理、会話の継続又は中断を検知する処理等を行うことにより、一連の会話の継続時間(会話時間)、会話と会話の合間の時間(会話間の時間)、質問及び質問に対する回答に要する時間(質問・回答の時間)を取得できる。また、音声データに対して周波数変換処理を行うことにより、面接対象者の声のトーンを抽出することができ、抽出した声のトーン等に基づいて、面接対象者の心理状態を取得できる。また、音声データをテキストデータに変換する処理、テキストデータ中の類似する各文言をグループ化する処理、テキストデータ中に複数回出現するキーワードを抽出する処理等を行うことにより、音声(会話)のテキストデータ、グループ化した各文言のグルーピング情報、キーワードを取得できる。また、上述したような面接対象者の会話に関する情報に基づいて、面接対象者の状態を解析することができ、解析結果に係る情報を取得できる。このように取得される面接対象者の会話に関する情報が言語DB23eに記憶される。   For example, for voice data of a conversation, a process of extracting voice features, a conversation part of the interviewer and a conversation part of the interviewee are performed based on differences in voice features of the interviewer and the interviewee. By performing a process of dividing, a process of detecting the continuation or interruption of a conversation, and the like, the duration of a series of conversations (conversation time), the time between conversations (time between conversations), questions and answers to questions The required time (question / answer time) can be acquired. Further, by performing frequency conversion processing on the audio data, the tone of the voice of the interview target can be extracted, and the psychological state of the interview target can be acquired based on the extracted tone of the voice and the like. Also, by performing a process of converting voice data into text data, a process of grouping similar words in the text data, a process of extracting a keyword appearing a plurality of times in the text data, etc., Text data, grouping information of each grouped wording, and keywords can be obtained. In addition, the state of the interview target can be analyzed based on the information on the conversation of the interview target as described above, and information relating to the analysis result can be obtained. Information on the conversation of the interviewee acquired in this way is stored in the language DB 23e.

言語DB23eに記憶される面接対象者IDは、面接が開始される際に、制御部21によって記憶される。言語DB23eに記憶される音声データは、マイク28にて取得する都度、制御部21によって記憶される。また、言語DB23eに記憶される面接対象者の会話に関する各種の情報は、制御部21が面接対象者の会話音声に基づいて各種の情報を取得する都度、制御部21によって記憶される。言語DB23eの記憶内容は図9Bに示す例に限定されず、面接対象者の会話音声(音声データ)から抽出できる面接対象者の会話に関する各種の情報を記憶することができる。   The interview target person ID stored in the language DB 23e is stored by the control unit 21 when the interview is started. The voice data stored in the language DB 23e is stored by the control unit 21 each time the voice data is acquired by the microphone 28. Further, various kinds of information regarding the conversation of the interviewee stored in the language DB 23e are stored by the control unit 21 each time the control unit 21 acquires various information based on the conversation voice of the interviewee. The storage content of the language DB 23e is not limited to the example shown in FIG. 9B, and can store various kinds of information regarding the conversation of the interview target that can be extracted from the conversation voice (voice data) of the interview target.

面接結果DB23fは、面接中に第2面接支援装置20が算出した各種スコアを記憶する。図10に示す面接結果DB23fは、面接対象者ID列、言語適性結果列、非言語適性結果列、性別列、年齢列、学歴列、マッチングスコア列、希望給与水準列、会社側給与水準列、給与水準ギャップ率列、水準スコア列、採用スコア列、優先度列等を含む。面接対象者ID列は、各面接対象者のID(識別情報)を記憶する。言語適性結果列は、面接中に言語DB23eに蓄積された言語情報に基づいて行われた面接対象者の適性検査の結果(言語適性結果)を記憶し、非言語適性結果列は、面接中に非言語DB23dに蓄積された非言語情報に基づいて行われた面接対象者の適性検査の結果(非言語適性結果)を記憶する。なお、言語適性結果列及び非言語適性結果列に記憶される適性結果は、面接中に逐次更新されて言語DB23e及び非言語DB23dにそれぞれ記憶される解析結果情報を用いてもよい。性別列、年齢列、学歴列はそれぞれ、面接対象者の性別、年齢、学歴を記憶する。   The interview result DB 23f stores various scores calculated by the second interview support device 20 during the interview. The interview result DB 23f shown in FIG. 10 includes an interview subject ID column, a language suitability result column, a non-language suitability result column, a gender column, an age column, an education column, a matching score column, a desired salary level column, a company salary level column, Includes salary level gap rate column, level score column, recruitment score column, priority column, and the like. The interview subject ID column stores the ID (identification information) of each interview subject. The language suitability result column stores the results of the suitability test (language suitability result) of the interview subject performed based on the language information accumulated in the language DB 23e during the interview, and the non-language suitability result column stores the result of the interview during the interview. The result (non-language suitability result) of the interview subject suitability test performed based on the non-language information accumulated in the non-language DB 23d is stored. The suitability results stored in the language suitability result sequence and the non-language suitability result sequence may use analysis result information that is sequentially updated during the interview and stored in the language DB 23e and the non-language DB 23d, respectively. The gender column, age column, and educational background column store the gender, age, and educational background of the interviewee, respectively.

マッチングスコア列は、予め採用ターゲットとして設定した条件とのマッチング率を記憶する。例えば採用ターゲットの条件として、言語適性結果、非言語適性結果、性別、年齢、学歴に関する希望が設定されており、それぞれの条件に適合した場合に加算するスコアが設定されている。よって、各面接対象者の言語適性結果、非言語適性結果、性別、年齢、学歴のそれぞれが採用ターゲットの条件に適合するか否かを判断し、適合する条件に設定されたスコアの合計を算出し、算出した合計をマッチングスコアとすることができる。なお、マッチングスコアの算出方法はこの例に限らない。図10に示すマッチングスコアは、採用ターゲットの条件として例えば言語適性結果、非言語適性結果、性別、年齢、学歴にそれぞれタイプB、タイプA、男、21〜25歳、大学卒業が設定してあり、それぞれに対するスコアに40,30,10,10,10が設定されている場合の例を示す。   The matching score column stores a matching ratio with a condition set in advance as an adoption target. For example, linguistic suitability results, non-linguistic suitability results, gender, age, and educational desires are set as the conditions of the adoption target, and a score to be added when each condition is satisfied is set. Therefore, it is determined whether each interviewee's verbal aptitude result, non-verbal aptitude result, gender, age, and educational background meet the conditions of the recruitment target, and the total score set for the relevant conditions is calculated Then, the calculated sum can be used as a matching score. The method of calculating the matching score is not limited to this example. In the matching score shown in FIG. 10, for example, type B, type A, male, 21 to 25 years old, and university graduation are set as the recruitment target conditions, for example, linguistic suitability result, non-verbal suitability result, gender, age, and educational background. An example in which 40, 30, 10, 10, and 10 are set as the scores for each of them.

希望給与水準列は、面接対象者が希望する給与(例えば年収)を記憶し、会社側給与水準列は、会社が面接対象者に支払い可能な給与(例えば年収)を記憶する。面接対象者の希望給与は、面接前に面接対象者が提出した履歴書等に記載されている希望年収であってもよいし、面接中に面接対象者が語った希望年収であってもよい。会社側の支払い可能給与は、面接前に事前に設定された年収であってもよいし、面接中に面接官によって指定された年収であってもよい。給与水準ギャップ率列は、面接対象者の希望給与と、会社側の支払い可能給与とのギャップを数値化したギャップ率を記憶する。ギャップ率は例えば、(支払い可能給与−希望給与)/希望給与の式にて算出される。水準スコア列は、給与水準ギャップ率に応じた係数を記憶する。なお、給与水準ギャップ率に応じた係数は、予め記憶部22に記憶してある。図10に示す水準スコアは、給与水準ギャップ率が−0.25未満、−0.25以上0.00未満、0.00、0.00より大きく0.25未満、0.25以上の場合にそれぞれ、0.5,0.8,1.2,1.3,1.5の各水準スコアが設定されている場合の例を示す。採用スコア列は、マッチングスコアに水準スコアを積算した採用スコアを記憶する。優先度列は、採用スコアに応じた優先度を記憶する。優先度は、例えば採用スコアが高い順に1,2…としてあり、優先度が小さいほど採用希望が高い面接対象者であることを示す。   The desired salary level column stores the salary (for example, annual income) desired by the interviewee, and the company-side salary level column stores the salary (for example, annual income) that the company can pay to the interviewee. The desired salary of the interviewee may be the desired annual income described in the resume etc. submitted by the interviewee before the interview, or may be the desired annual income said by the interviewee during the interview . The payable salary of the company may be the annual income set in advance before the interview, or may be the annual income specified by the interviewer during the interview. The salary level gap rate column stores a gap rate obtained by quantifying the gap between the desired salary of the interviewee and the payable salary of the company. The gap rate is calculated by, for example, a formula of (payable salary−desired salary) / desired salary. The level score column stores a coefficient corresponding to the salary level gap rate. The coefficient corresponding to the salary level gap rate is stored in the storage unit 22 in advance. The level score shown in FIG. 10 is obtained when the salary level gap rate is less than -0.25, -0.25 or more and less than 0.00, 0.00, more than 0.00 and less than 0.25, or 0.25 or more. An example in which respective level scores of 0.5, 0.8, 1.2, 1.3, and 1.5 are set respectively will be described. The employment score column stores an employment score obtained by multiplying the matching score by the level score. The priority column stores the priority according to the adoption score. The priorities are, for example, 1, 2,... In descending order of the recruitment score.

面接結果DB23fに記憶される面接対象者ID、性別、年齢、学歴は、面接が開始される際に制御部21によって記憶される。面接結果DB23fに記憶される言語適性結果、非言語適性結果、マッチングスコアは、制御部21が面接対象者の言語情報及び非言語情報に基づいて各種の情報(検査結果)を取得する都度、制御部21によって記憶される。面接結果DB23fに記憶される希望給与水準及び会社側給与水準は、面接が開始される際に制御部21によって記憶されてもよく、面接中に入力部25を介して変更指示を受け付ける都度、制御部21によって更新されてもよい。面接結果DB23fに記憶される給与水準ギャップ率、水準スコア、採用スコア、優先度は、制御部21が各種の情報を算出する都度、制御部21によって記憶される。面接結果DB23fの記憶内容は図10に示す例に限定されず、面接結果に関する各種の情報を記憶することができる。   The interview target person ID, gender, age, and educational history stored in the interview result DB 23f are stored by the control unit 21 when the interview is started. The linguistic suitability result, non-language suitability result, and matching score stored in the interview result DB 23f are controlled each time the control unit 21 acquires various information (test results) based on the linguistic information and non-linguistic information of the interviewee. Stored by the unit 21. The desired salary level and the company salary level stored in the interview result DB 23f may be stored by the control unit 21 when the interview is started, and each time the change instruction is received via the input unit 25 during the interview, the control is performed. It may be updated by the unit 21. The salary level gap rate, the level score, the adoption score, and the priority stored in the interview result DB 23f are stored by the control unit 21 each time the control unit 21 calculates various information. The storage contents of the interview result DB 23f are not limited to the example shown in FIG. 10, and various kinds of information regarding the interview result can be stored.

次に、第2面接支援装置20の制御部21が制御プログラム22Pを実行することによって実現される機能について説明する。図11は、第2面接支援装置20の制御部21によって実現される機能を示すブロック図、図12は、画面例を示す模式図である。図12Aは面接開始時点での面接支援画面例を示し、図12Bは面接中の面接支援画面例を示す。第2面接支援装置20の制御部21は、記憶部22に記憶してある制御プログラム22Pを実行した場合、対象者情報読出部201、画面生成部202、出力部203、画像取得部204、非言語情報取得部205、音声取得部206、言語情報取得部207、対象者情報記憶部208、回答受付部209、方針受付部210、質問特定部211、スコア算出部212の各機能を実現する。なお、本実施形態では、これらの各機能を制御部21が制御プログラム22Pを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。   Next, functions realized by the control unit 21 of the second interview support apparatus 20 executing the control program 22P will be described. FIG. 11 is a block diagram showing functions realized by the control unit 21 of the second interview support device 20, and FIG. 12 is a schematic diagram showing an example of a screen. FIG. 12A shows an example of the interview support screen at the start of the interview, and FIG. 12B shows an example of the interview support screen during the interview. When the control unit 21 of the second interview support apparatus 20 executes the control program 22P stored in the storage unit 22, the control unit 21 reads out the subject information reading unit 201, the screen generation unit 202, the output unit 203, the image acquisition unit 204, The functions of the linguistic information acquisition unit 205, the voice acquisition unit 206, the linguistic information acquisition unit 207, the subject information storage unit 208, the answer reception unit 209, the policy reception unit 210, the question identification unit 211, and the score calculation unit 212 are realized. In the present embodiment, each of these functions is realized by the control unit 21 executing the control program 22P, but a part of them may be realized by a dedicated hardware circuit.

本実施形態の第2面接支援装置20において、面接を開始する前に、例えば面接官はカメラ27及びマイク28の動作確認を行い、カメラ27にて面接対象者を撮影でき、マイク28にて面接対象者の発話を集音できるようにカメラ27及びマイク28を配置する。なお、カメラ27は、例えば面接対象者の上半身又は全身を撮影できるように配置される。そして、面接を開始する際に、面接官は第2面接支援装置20の制御部21に制御プログラム22Pを実行させる。制御部21が制御プログラム22Pを実行した場合、対象者情報読出部201は、面接すべき面接対象者に関する情報を面接対象者DB23から読み出す。また対象者情報読出部201は、面接対象者に設定された質問内容を面接予定DB22aから読み出す。そして、画面生成部202は、対象者情報読出部201が読み出した面接対象者の情報及び質問内容に基づいて、図12Aに示すような面接支援画面を生成する。   In the second interview support apparatus 20 of the present embodiment, before starting an interview, for example, the interviewer checks the operation of the camera 27 and the microphone 28, can shoot the interview target person with the camera 27, and can interview the microphone 28. The camera 27 and the microphone 28 are arranged so that the speech of the target person can be collected. The camera 27 is arranged so as to be able to photograph, for example, the upper body or the whole body of the interview subject. Then, when starting the interview, the interviewer causes the control unit 21 of the second interview support device 20 to execute the control program 22P. When the control unit 21 executes the control program 22P, the subject information reading unit 201 reads information on the subject to be interviewed from the interview subject DB 23. In addition, the subject information reading unit 201 reads the question content set for the interview subject from the interview schedule DB 22a. Then, the screen generation unit 202 generates an interview support screen as shown in FIG. 12A based on the information of the interview target person and the contents of the question read by the target person information reading unit 201.

図12Aに示す画面は、面接対象者DB23から読み出された面接対象者の情報を表示するプロフィール欄を有する。例えば、面接対象者の氏名、年齢、性別、学歴、志望動機等が表示される。また、プロフィール欄は、面接中にカメラ27にて撮影される面接対象者の撮影画像(カメラ映像)の表示欄を有する。また図12Aに示す画面は、面接予定DB22aから読み出された質問内容を表示するQ&A欄を有する。なお、それぞれの質問内容には複数の回答例が設定されて記憶部22に記憶されており、質問内容と、この質問内容に設定された回答例とがQ&A欄に表示される。また、Q&A欄には、予め設定された回答例以外の回答の入力欄と、この入力欄に対する入力の終了を指示するためのOKボタンとを有する。更に図12Aに示す画面は、実施中の面接の方針を選択するための採用希望ボタン、深堀りボタン及び圧迫ボタンを表示し、面接中に選択された方針に応じたレコメンド質問を表示するレコメンド質問欄を有する。更に図12Aに示す画面は、面接中に行われる適性検査の結果等を表示する面接結果欄を有する。出力部203は、画面生成部202が生成した面接支援画面を表示部26に表示する。   The screen illustrated in FIG. 12A has a profile column that displays information on the interviewee read from the interviewee DB 23. For example, the name, age, gender, educational background, motivation, etc. of the interview target are displayed. The profile column has a display column for a captured image (camera video) of the interview subject photographed by the camera 27 during the interview. The screen shown in FIG. 12A has a Q & A column for displaying the content of the question read from the interview schedule DB 22a. In addition, a plurality of answer examples are set and stored in the storage unit 22 for each question content, and the question content and the answer example set for the question content are displayed in the Q & A column. The Q & A column has an input column for answers other than the preset answer example, and an OK button for instructing the end of the input in this input column. Further, the screen shown in FIG. 12A displays a hiring request button, a deep digging button, and a compression button for selecting an interview policy being carried out, and displays a recommendation question according to the policy selected during the interview. Column. Further, the screen shown in FIG. 12A has an interview result column for displaying the results of an aptitude test performed during the interview. The output unit 203 displays the interview support screen generated by the screen generation unit 202 on the display unit 26.

また、制御部21が制御プログラム22Pを実行した場合、画像取得部(取得部)204はカメラ27による撮影を開始し、音声取得部(取得部)206はマイク28による集音を開始する。画像取得部204は、取得した画像データを逐次非言語DB23dに記憶すると共に、非言語情報取得部205へ送出する。非言語情報取得部205は、面接対象者の撮影画像(画像データ)からモーションキャプチャ技術によって面接対象者の動きを抽出し、面接対象者の目線・視線の動き、顔・表情の動き、姿勢の変化、行動、運動等、面接対象者の挙動に関する情報(非言語情報)を取得する。また非言語情報取得部205は、取得した面接対象者の挙動に関する情報に基づいて、面接対象者の意図的動作及び無意識的動作に関する情報を取得し、更には、上述したような情報に基づいて面接対象者の状態を解析して解析結果に係る情報を取得する。対象者情報記憶部208は、非言語情報取得部205が取得した面接対象者の挙動に関する各種の非言語情報を面接対象者DB23の非言語DB23dに記憶する。非言語情報取得部205は、非言語情報として、例えばMicrosoft社製のEmotion API等のアプリケーションプログラムを用いて、面接対象者の撮影画像から面接対象者の感情を検出し、検出した感情を非言語DB23dに記憶してもよい。   When the control unit 21 executes the control program 22P, the image acquisition unit (acquisition unit) 204 starts shooting with the camera 27, and the audio acquisition unit (acquisition unit) 206 starts sound collection with the microphone 28. The image acquisition unit 204 sequentially stores the acquired image data in the non-language DB 23d and sends it to the non-language information acquisition unit 205. The non-linguistic information acquisition unit 205 extracts the motion of the interview subject from the captured image (image data) of the interview subject by the motion capture technique, Acquire information (non-verbal information) on the behavior of the interview subject, such as changes, behaviors, and exercises. Further, the non-verbal information acquisition unit 205 acquires information on the intentional and unconscious actions of the interviewee based on the acquired information on the behavior of the interviewee, and further, based on the information as described above. Analyze the state of the interview subject and acquire information related to the analysis result. The subject information storage unit 208 stores various kinds of non-lingual information regarding the behavior of the interview subject acquired by the non-language information acquiring unit 205 in the non-language DB 23d of the interview subject DB 23. The non-verbal information acquisition unit 205 detects the emotion of the interview target from the captured image of the interview target using an application program such as Microsoft's Emotion API as the non-linguistic information. It may be stored in the DB 23d.

音声取得部206は、取得した音声データを逐次言語DB23eに記憶すると共に、言語情報取得部207へ送出する。言語情報取得部207は、面接対象者の会話音声(音声データ)に対して各種の音声信号処理を行うことにより、一連の会話の会話時間、会話と会話の合間の時間、質問及び質問に対する回答に要する時間を取得する。また言語情報取得部207は、音声データから面接対象者の声のトーンを抽出し、抽出した声のトーンや発話状態等に基づいて、面接対象者の心理状態(感情)を取得する。また言語情報取得部207は、音声データをテキストデータに変換し、得られたテキストデータ中の各文言をグループ化すると共に、複数回出現するキーワードを抽出し、更には、上述したような情報に基づいて面接対象者の状態を解析して解析結果に係る情報を取得する。対象者情報記憶部208は、言語情報取得部207が取得した面接対象者の会話に基づく各種の言語情報を面接対象者DB23の言語DB23eに記憶する。言語情報取得部207は、言語情報として、面接対象者の会話音声から、面接官と面接対象者との会話の進捗状態や面接対象者の発話状態等を検出し、検出結果から面接対象者の感情を検出して言語DB23eに記憶してもよい。   The voice acquisition unit 206 sequentially stores the acquired voice data in the language DB 23e and sends it to the language information acquisition unit 207. The linguistic information acquisition unit 207 performs various kinds of audio signal processing on the conversational voice (voice data) of the interview subject, thereby conversing time for a series of conversations, time between conversations, questions, and answers to questions. Get the time it takes. The linguistic information acquisition unit 207 extracts the tone of the interview subject's voice from the voice data, and acquires the psychological state (emotion) of the interview subject based on the extracted voice tone, utterance state, and the like. The linguistic information acquisition unit 207 converts the speech data into text data, groups each word in the obtained text data, extracts a keyword that appears multiple times, and further converts the information as described above into information as described above. The state of the interview subject is analyzed based on the information and information related to the analysis result is acquired. The subject information storage unit 208 stores various language information based on the conversation of the interview subject acquired by the language information acquiring unit 207 in the language DB 23e of the interview subject DB 23. The linguistic information acquisition unit 207 detects, as linguistic information, the progress of the conversation between the interviewer and the interviewee, the utterance state of the interviewee, and the like from the conversational voice of the interviewee, and based on the detection result, The emotion may be detected and stored in the language DB 23e.

上述した各部の処理により、非言語DB23dには面接対象者の挙動に関する非言語情報が蓄積され、言語DB23eには面接対象者の会話に関する言語情報が蓄積される。スコア算出部(特定部)212は、非言語DB23d及び言語DB23eに蓄積される各種情報から各種スコアを算出し、算出した各種スコアを面接結果DB23fに記憶する。具体的には、スコア算出部212は、言語DB23eに記憶された解析結果情報(言語情報に基づく適性検査結果)及び非言語DB23dに記憶された解析結果情報(非言語情報に基づく適性検査結果)を面接結果DB23fに記憶する。なお、面接を開始する際に、面接対象者の面接対象者ID、性別、年齢、学歴、希望給与水準、会社側給与水準が面接結果DB23fに記憶される。スコア算出部212は、面接対象者の情報と、予め設定してある採用ターゲットの条件とに基づいて、面接対象者におけるマッチングスコアを算出して面接結果DB23fに記憶する。またスコア算出部212は、希望給与水準及び会社側給与水準に基づいて給与水準ギャップ率を算出し、給与水準ギャップ率から水準スコアを特定し、マッチングスコア及び水準スコアから採用スコアを算出し、採用スコアから優先度を特定し、それぞれ特定したスコアを面接結果DB23fに記憶する。なお、ここでの優先度は、各面接対象者の面接時点で既に面接が終了している面接対象者の中での暫定的な優先度である。   As a result of the processing of each unit described above, non-verbal information on the behavior of the interviewee is stored in the nonlingual DB 23d, and linguistic information on the conversation of the interviewee is stored in the language DB 23e. The score calculation unit (specification unit) 212 calculates various scores from various information stored in the non-language DB 23d and the language DB 23e, and stores the calculated various scores in the interview result DB 23f. Specifically, the score calculation unit 212 analyzes the analysis result information (the suitability test result based on the linguistic information) stored in the language DB 23e and the analysis result information (the suitability test result based on the non-linguistic information) stored in the non-language DB 23d. Is stored in the interview result DB 23f. At the start of the interview, the interview subject ID, gender, age, educational background, desired salary level, and company salary level of the interviewee are stored in the interview result DB 23f. The score calculation unit 212 calculates the matching score of the interviewee based on the information of the interviewee and the preset conditions of the adoption target, and stores the matching score in the interview result DB 23f. The score calculation unit 212 calculates a salary level gap rate based on the desired salary level and the company-side salary level, specifies a level score from the salary level gap rate, calculates a recruitment score from the matching score and the level score, and employs the recruitment score. The priority is specified from the score, and the specified score is stored in the interview result DB 23f. The priority here is a provisional priority among interviewees whose interviews have already been completed at the time of interview of each interviewee.

スコア算出部212が各種スコアを算出した場合、画面生成部202は、図12Aに示す画面中の面接結果欄に各種スコアを追加し、図12Bに示す画面に更新する。図12Bに示す画面は、面接結果として、面接対象者に対して算出されたマッチングスコア、採用スコア及び優先度を表示する。出力部203は、画面生成部202によって更新された面接支援画面を表示部26に表示する。なお、スコア算出部212が算出するスコアは、上述した例のほかに、例えば面接対象者の本気度を用いてもよく、面接対象者の非言語情報及び言語情報に基づいて特定でき面接対象者の状態を把握できるスコアを用いてもよい。なお、スコア算出部212は、非言語DB23d及び言語DB23eに記憶される解析結果情報が更新される都度、自動的に面接結果DB23fの内容を更新してもよい。また、図12A,Bに示す画面の面接結果欄に相性確認ボタンが設けられており、スコア算出部212は、入力部25を介して相性確認ボタンが操作された場合にも、面接結果DB23fの内容を更新し、面接結果欄の表示内容を更新する処理を行ってもよい。   When the score calculation unit 212 calculates various scores, the screen generation unit 202 adds various scores to the interview result column in the screen illustrated in FIG. 12A and updates the screen to the screen illustrated in FIG. 12B. The screen illustrated in FIG. 12B displays the matching score, the adoption score, and the priority calculated for the interviewee as the interview result. The output unit 203 displays the interview support screen updated by the screen generation unit 202 on the display unit 26. The score calculated by the score calculation unit 212 may be, for example, the seriousness of the interviewee, and may be specified based on the non-verbal information and linguistic information of the interviewee. Alternatively, a score that allows the user to grasp the state may be used. The score calculation unit 212 may automatically update the contents of the interview result DB 23f each time the analysis result information stored in the non-language DB 23d and the language DB 23e is updated. In addition, a compatibility check button is provided in the interview result column of the screens shown in FIGS. 12A and 12B, and the score calculation unit 212 stores the compatibility check button in the interview result DB 23f even when the compatibility check button is operated via the input unit 25. A process of updating the content and updating the display content of the interview result column may be performed.

面接官は面接中に面接支援画面のQ&A欄に表示された質問を面接対象者に行い、回答例A1〜A3の中から面接対象者の回答に近い回答例を入力部25にて選択する。なお、面接対象者の回答に近い回答例がない場合、面接官は、その他の回答の入力欄に面接対象者が行った回答を入力し、OKボタンを操作する。面接支援画面において、回答例A1〜A3のいずれかが操作(選択)された場合、又はその他の回答が入力された場合、回答受付部209は、面接対象者による質問に対する回答を受け付ける。回答受付部209が面接対象者の回答を受け付けた場合、質問特定部211は、質問設定テーブル221から次の質問内容を特定する。ここでは、質問特定部211は、回答受付部209が受け付けた直前の質問内容に対する面接対象者の回答に対応する質問設定テーブル221を特定し、特定した質問設定テーブル221から、事前の結果(面接前に判定されていた面接対象者の適性検査結果)と、リアルタイムの結果(面接中に判定された面接対象者の適性検査結果)とに対応する質問内容を特定する。なお、事前の結果は、例えば適性結果DB23bに記憶してある適性検査結果を用い、リアルタイムの結果は、例えば非言語DB23d又は言語DB23eに記憶してある解析結果情報を用いることができる。質問特定部211が次の質問内容を特定した場合、画面生成部202は、図12A又は図12Bに示す画面中のQ&A欄に次の質問内容及び回答例を表示して面接支援画面を更新する。出力部203は、画面生成部202によって更新された面接支援画面を表示部26に表示する。   The interviewer asks the interviewee the question displayed in the Q & A column of the interview support screen during the interview, and selects an answer example similar to the answer of the interviewee from the input examples 25 from answer examples A1 to A3. If there is no answer example close to the interviewee's answer, the interviewer inputs the answer made by the interviewee in the other answer input field and operates the OK button. When any one of the answer examples A1 to A3 is operated (selected) or another answer is input on the interview support screen, the answer receiving unit 209 receives an answer to the question by the interview target person. When the answer receiving unit 209 receives the answer of the interview subject, the question specifying unit 211 specifies the next question content from the question setting table 221. Here, the question specifying unit 211 specifies the question setting table 221 corresponding to the interview subject's answer to the content of the question immediately before received by the answer receiving unit 209, and, based on the specified question setting table 221, obtains a preliminary result (interview). The question content corresponding to the previously determined interview test suitability test result and the real-time result (the interview test suitability test result determined during the interview) are specified. Note that, for the preliminary result, for example, the suitability test result stored in the suitability result DB 23b is used, and for the real-time result, for example, the analysis result information stored in the non-language DB 23d or the language DB 23e can be used. When the question specifying unit 211 specifies the next question content, the screen generation unit 202 updates the interview support screen by displaying the next question content and an answer example in the Q & A column in the screen shown in FIG. 12A or 12B. . The output unit 203 displays the interview support screen updated by the screen generation unit 202 on the display unit 26.

面接官は面接中に面接方針を変更したい場合、図12A又は図12Bに示す画面において、いずれかの方針に対応するボタンを入力部25にて操作する。面接支援画面において、いずれかの方針に対応するボタンが操作(選択)された場合、方針受付部210は、面接の方針(方針に関する方針情報)を受け付ける。方針受付部210が面接の方針を受け付けた場合、質問特定部211は、質問設定テーブル221に基づいて次の質問内容(レコメンド質問)を特定する。ここでは、質問特定部211は、方針受付部210が受け付けた方針に対応する質問設定テーブル221を特定し、特定した質問設定テーブル221から、面接対象者に対する事前の結果及びリアルタイムの結果に対応する質問内容を特定する。質問特定部211が面接の方針に沿った質問内容を特定した場合、画面生成部202は、図12Bに示す画面中のレコメンド質問欄に、特定した質問内容及び回答例を表示して面接支援画面を更新する。出力部203は、画面生成部202によって更新された面接支援画面を表示部26に表示する。なお、質問特定部211は、第1面接支援装置10の質問特定部109のように、面接官から指定された方針に応じた質問内容を、質問決定用学習済モデルを用いて特定してもよい。この場合、質問決定用学習済モデルは記憶部22に記憶しておく。   When the interviewer wants to change the interview policy during the interview, he operates the input unit 25 on the screen shown in FIG. 12A or FIG. When a button corresponding to one of the policies is operated (selected) on the interview support screen, the policy receiving unit 210 receives an interview policy (policy information on the policy). When the policy receiving unit 210 receives the interview policy, the question specifying unit 211 specifies the next question content (recommended question) based on the question setting table 221. Here, the question specifying unit 211 specifies the question setting table 221 corresponding to the policy received by the policy receiving unit 210, and from the specified question setting table 221 corresponds to a prior result and a real-time result for the interview subject. Identify the content of the question. When the question specifying unit 211 specifies the content of the question according to the interview policy, the screen generating unit 202 displays the specified content of the question and the answer example in the recommended question column in the screen illustrated in FIG. To update. The output unit 203 displays the interview support screen updated by the screen generation unit 202 on the display unit 26. The question specifying unit 211 may specify the content of the question according to the policy specified by the interviewer using the learned model for question determination, like the question specifying unit 109 of the first interview support apparatus 10. Good. In this case, the learned model for question determination is stored in the storage unit 22.

上述した各部の処理により、第2面接支援装置20では、面接前に決定しておいた質問内容が表示され、この質問に対する面接対象者の回答が画面を介して入力された場合に、次の質問が表示され、面接官による面接を支援できる。また、次の質問は、直前の質問に対する回答及び面接対象者の特性検査結果等に基づいて決定されるので、面接対象者に対して適切な質問内容を決定できる。また、面接対象者に対する適性検査結果及び適性検査結果に基づく各種スコアがリアルタイムで算出されて表示されるので、面接官は各種スコアを把握した状態で面接を行うことができる。更に、面接官が面接の方針の変更指示を行った場合、方針に応じた質問内容がレコメンド質問として表示されるので、面接の方針に沿った適切な質問が設定され、採用につながるような有効な面接が可能となる。   By the processing of each unit described above, the second interview support apparatus 20 displays the content of the question determined before the interview, and when the answer of the interviewee to this question is input via the screen, the next A question will be displayed to assist the interviewer in the interview. Further, the next question is determined based on the answer to the immediately preceding question, the characteristic test result of the interviewee, and the like, so that the appropriate question content can be determined for the interviewee. In addition, the suitability test result for the interviewee and various scores based on the suitability test result are calculated and displayed in real time, so that the interviewer can conduct the interview while grasping the various scores. Furthermore, if the interviewer gives an instruction to change the interview policy, the content of the question according to the policy will be displayed as a recommended question, so that appropriate questions according to the interview policy will be set and effective Interview is possible.

次に、第1面接支援装置10が行う処理について説明する。図13は、第1面接支援装置10による面接対象者の登録処理の手順を示すフローチャートである。以下の処理は、第1面接支援装置10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。第1面接支援装置10の制御部11は、面接対象者に関する情報の登録指示を受け付けたか否かを判断する(S11)。例えば制御部11は、図5Aに示す初期画面において「面接対象者を登録する」ボタンが操作された場合、面接対象者に関する情報の登録指示を受け付ける。登録指示を受け付けていないと判断した場合(S11:NO)、制御部11は登録指示を受け付けるまで待機する。   Next, processing performed by the first interview support apparatus 10 will be described. FIG. 13 is a flowchart illustrating a procedure of the registration process of the interview target person by the first interview support apparatus 10. The following processing is executed by the control unit 11 according to the control program 12P stored in the storage unit 12 of the first interview support device 10. The control unit 11 of the first interview support device 10 determines whether or not an instruction to register information on the interviewee has been received (S11). For example, when the “register interviewee” button is operated on the initial screen shown in FIG. 5A, the control unit 11 receives an instruction to register information on the interviewee. When determining that the registration instruction has not been received (S11: NO), the control unit 11 waits until the registration instruction is received.

登録指示を受け付けたと判断した場合(S11:YES)、制御部11は、図5Bに示すような登録画面を表示部16に表示する(S12)。次に制御部11は、図5Bに示す画面を介して面接対象者の情報の登録方法を受け付け(S13)、受け付けた登録方法にて面接対象者に関する情報を取得する(S14)。例えば登録方法としてCSVが選択された場合、制御部11は、CSVフォーマットで面接対象者の情報が記載されたファイルから面接対象者の情報を取得する。制御部11は、取得した面接対象者に関する各種の情報を面接対象者DB13(DB13a〜13c)にそれぞれ記憶し(S15)、登録処理を終了する。   When determining that the registration instruction has been received (S11: YES), the control unit 11 displays a registration screen as shown in FIG. 5B on the display unit 16 (S12). Next, the control unit 11 receives a method of registering the information of the interview target via the screen shown in FIG. 5B (S13), and acquires information on the interview target by the received registration method (S14). For example, when CSV is selected as the registration method, the control unit 11 acquires the interviewee information from a file in which the interviewee information is described in a CSV format. The control unit 11 stores the acquired information on the interviewee in the interviewee DB 13 (DBs 13a to 13c) (S15), and ends the registration process.

なお、制御部11は、指定された登録方法にて取得した面接対象者の情報を面接対象者DB13に記憶するだけでなく、取得した面接対象者に関する情報に基づいて事前に行うべき各種の適性検査を行い、得られた情報も面接対象者DB13に記憶する。これにより、面接対象者によって入力された情報だけでなく、この情報に基づいて面接対象者のプロファイリングを行った結果(各種の適性検査結果)も面接対象者DB13(適性結果DB13b)に登録できる。   The control unit 11 not only stores the information of the interviewee acquired by the designated registration method in the interviewee DB 13, but also various kinds of suitability to be performed in advance based on the acquired information on the interviewee. An examination is performed, and the obtained information is also stored in the interview subject DB 13. As a result, not only the information input by the interviewee, but also the results of the profiling of the interviewee based on this information (various aptitude test results) can be registered in the interviewee DB 13 (fitness result DB 13b).

図14は、第1面接支援装置10による面接官又は質問内容の決定処理の手順を示すフローチャートである。第1面接支援装置10の制御部11は、面接官の決定指示を受け付けたか否かを判断する(S21)。例えば制御部11は、図5A又は図5Cに示す画面において「面接官を決める」ボタンが操作された場合、面接官の決定指示を受け付ける。面接官の決定指示を受け付けていないと判断した場合(S21:NO)、制御部11はステップS28に処理を移行する。面接官の決定指示を受け付けたと判断した場合(S21:YES)、制御部11は、面接対象者DB13に登録された面接対象者の情報を面接対象者DB13から読み出し(S22)、面接対象者の情報を一覧表示する面接官の決定画面を生成して表示部16に表示する(S23)。これにより、図6Aに示すような決定画面が表示される。なお、制御部11は、面接官がまだ決定されていない面接対象者の情報のみを表示する面接官の決定画面を生成してもよい。   FIG. 14 is a flowchart showing the procedure of the interviewer or question determination process performed by the first interview support apparatus 10. The control unit 11 of the first interview support apparatus 10 determines whether or not a decision instruction of the interviewer has been received (S21). For example, when the “determine interviewer” button is operated on the screen illustrated in FIG. 5A or 5C, the controller 11 accepts an instruction to determine the interviewer. When it is determined that the instruction for the interviewer has not been received (S21: NO), the control unit 11 shifts the processing to step S28. If it is determined that the instruction of the interviewer has been received (S21: YES), the control unit 11 reads the information of the interviewee registered in the interviewee DB13 from the interviewee DB13 (S22), and An interviewer decision screen for displaying a list of information is generated and displayed on the display unit 16 (S23). Thereby, a determination screen as shown in FIG. 6A is displayed. The control unit 11 may generate an interviewer determination screen that displays only information on interviewees for whom an interviewer has not yet been determined.

制御部11は、面接官の決定画面を介して、面接官の決定方法、面接の方針、面接官を決定すべき面接対象者の選択を受け付け、選択された面接対象者に対して、選択された決定方法で、選択された面接の方針に応じた面接官を特定する(S24)。なお、制御部11は、選択された面接対象者に適した面接官を面接官決定用学習済モデル121を用いて特定する。制御部11は、例えば面接官の決定画面に、特定した面接官の面接官IDを追加することにより、決定した面接官(特定結果)を表示する(S25)。   The control unit 11 receives, via the interviewer's determination screen, a method for determining the interviewer, an interview policy, and selection of the interviewee whose interviewer is to be determined, and the selected interviewee is selected. The interviewer according to the selected interview policy is specified by the determined method (S24). In addition, the control part 11 specifies the interviewer suitable for the selected interviewee using the trained model 121 for interviewer determination. The control unit 11 displays the determined interviewer (specific result), for example, by adding the interviewer ID of the identified interviewer to the interviewer determination screen (S25).

制御部11は、表示された面接官を、それぞれの面接対象者に対する面接官に決定する指示を受け付けたか否かを判断する(S26)。例えば制御部11は、図6Aに示す画面中の「決定する」ボタンが操作された場合、表示された面接官に対する決定指示を受け付ける。面接官に対する決定指示を受け付けたと判断した場合(S26:YES)、制御部11は、図6Aに示す画面に表示された各面接対象者に対応する面接官(特定結果)を面接予定DB12bに記憶する(S27)。具体的には、制御部11は、面接予定DB12bにおいて、決定した面接官の面接官IDに対応付けて、この面接対象者の面接対象者IDを記憶する。これにより、それぞれの面接対象者に対して最適な面接官を決定して登録できる。面接官の決定指示を受け付けていないと判断した場合(S26:NO)、制御部11はステップS27の処理をスキップする。   The control unit 11 determines whether an instruction to determine the displayed interviewer as an interviewer for each interviewee has been received (S26). For example, when the “determine” button on the screen illustrated in FIG. 6A is operated, the control unit 11 accepts a determination instruction for the displayed interviewer. If it is determined that the decision instruction for the interviewer has been received (S26: YES), the control unit 11 stores the interviewer (specific result) corresponding to each interviewee displayed on the screen shown in FIG. 6A in the interview schedule DB 12b. (S27). Specifically, the control unit 11 stores the interviewee ID of the interviewee in the interview schedule DB 12b in association with the interviewer ID of the determined interviewer. Thus, the most appropriate interviewer can be determined and registered for each interviewee. If it is determined that the interview instruction has not been received (S26: NO), the control unit 11 skips the process of step S27.

次に制御部11は、面接対象者に対する質問内容の決定指示を受け付けたか否かを判断する(S28)。例えば制御部11は、図5A又は図5Cに示す画面において「質問を決める」ボタンが操作された場合、いずれかの面接対象者に対する質問内容の決定指示を受け付ける。質問内容の決定指示を受け付けていないと判断した場合(S28:NO)、制御部11はステップS21に処理を戻す。   Next, the control unit 11 determines whether an instruction to determine the content of the question has been received for the interview target person (S28). For example, when the “determine question” button is operated on the screen illustrated in FIG. 5A or 5C, the control unit 11 accepts an instruction to determine the content of the question to one of the interviewees. If it is determined that the instruction to determine the content of the question has not been received (S28: NO), the control unit 11 returns the process to step S21.

質問内容の決定指示を受け付けたと判断した場合(S28:YES)、制御部11は、面接対象者DB13に登録された面接対象者の情報を面接対象者DB13から読み出し(S29)、面接対象者の情報を一覧表示する質問の決定画面を生成して表示部16に表示する(S30)。これにより、図6Bに示すような決定画面が表示される。なお、制御部11は、質問がまだ決定されていない面接対象者の情報のみを表示する質問の決定画面を生成してもよい。制御部11は、質問の決定画面を介して、質問の決定方法、面接の方針、質問を決定すべき面接対象者の選択を受け付け、選択された面接対象者に対して、選択された決定方法で、選択された面接の方針に応じた質問内容を特定する(S31)。なお、制御部11は、選択された面接対象者に適した質問内容を、質問決定用学習済モデル122を用いて特定する。制御部11は、例えば質問の決定画面に、特定した質問内容の識別情報を追加することにより、決定した質問内容(特定結果)を表示する(S32)。   If it is determined that the instruction to determine the content of the question has been received (S28: YES), the control unit 11 reads the information of the interviewee registered in the interviewee DB13 from the interviewee DB13 (S29), and A question determination screen for displaying a list of information is generated and displayed on the display unit 16 (S30). Thereby, a determination screen as shown in FIG. 6B is displayed. Note that the control unit 11 may generate a question determination screen that displays only information on interviewees for whom a question has not yet been determined. The control unit 11 accepts, via the question determination screen, a question determination method, an interview policy, and a selection of an interview target to determine a question. Then, the contents of the question according to the selected interview policy are specified (S31). Note that the control unit 11 specifies the question content suitable for the selected interviewee using the question determination learned model 122. The control unit 11 displays the determined question content (specific result), for example, by adding identification information of the specified question content to the question determination screen (S32).

制御部11は、表示された質問内容を、それぞれの面接対象者に対する質問内容に決定する指示を受け付けたか否かを判断する(S33)。例えば制御部11は、図6Bに示す画面中の「決定する」ボタンが操作された場合、表示された質問内容に対する決定指示を受け付ける。質問内容に対する決定指示を受け付けたと判断した場合(S33:YES)、制御部11は、図6Bに示す画面に表示された各面接対象者に対して決定した質問内容(特定結果)を面接予定DB12bに記憶する(S34)。具体的には、制御部11は、面接予定DB12bにおいて、この面接対象者の面接対象者IDに対応付けて、決定した質問内容の識別情報を記憶する。これにより、それぞれの面接対象者に対して最適な質問内容を決定して登録できる。質問内容に対する決定指示を受け付けていないと判断した場合(S33:NO)、制御部11はステップS34の処理をスキップする。   The control unit 11 determines whether or not an instruction to determine the displayed question content as the question content for each interviewee has been received (S33). For example, when the “determine” button on the screen illustrated in FIG. 6B is operated, the control unit 11 accepts a determination instruction for the displayed question content. If it is determined that the instruction to determine the content of the question has been received (S33: YES), the control unit 11 stores the content of the question (specific result) determined for each interviewee displayed on the screen shown in FIG. 6B in the scheduled interview DB 12b. (S34). Specifically, the control unit 11 stores the identification information of the determined question content in the interview schedule DB 12b in association with the interview target person ID of the interview target person. Thereby, it is possible to determine and register the most appropriate question content for each interviewee. When determining that the determination instruction for the question content has not been received (S33: NO), the control unit 11 skips the process of step S34.

上述した処理により、面接前に面接対象者に関する各種情報を取得して面接対象者DB13に登録することができる。また、登録した各情報に基づいて、面接前に面接対象者の適性検査及びプロファイリングを行うことができ、検査結果を面接対象者DB13に登録できる。よって、事前に面接対象者について把握でき、面接対象者に最適な面接官及び質問内容を設定できる。   Through the above-described processing, it is possible to acquire various types of information about the interviewee before the interview and register the information in the interviewee DB 13. In addition, based on the registered information, an aptitude test and profiling of the interviewee can be performed before the interview, and the inspection result can be registered in the interviewee DB 13. Therefore, the interviewee can be grasped in advance, and the interviewer and the content of the question most suitable for the interviewee can be set.

次に、第2面接支援装置20が行う処理について説明する。図15は、第2面接支援装置20による面接支援処理の手順を示すフローチャートである。以下の処理は、第2面接支援装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部11によって実行される。面接官は、面接を行う際に、カメラ27にて面接対象者を撮影でき、マイク28にて面接対象者の発話を集音できるようにカメラ27及びマイク28を配置し、第2面接支援装置20の制御部21に制御プログラム22Pを実行させる。これにより、制御部21は、面接すべき面接対象者に関する情報を面接対象者DB23から読み出し、読み出した情報に基づいて、図12Aに示すような面接支援画面を生成して表示部26に表示する(S41)。   Next, a process performed by the second interview support apparatus 20 will be described. FIG. 15 is a flowchart illustrating a procedure of an interview support process performed by the second interview support device 20. The following processing is executed by the control unit 11 according to the control program 22P stored in the storage unit 22 of the second interview support device 20. The interviewer arranges the camera 27 and the microphone 28 so that the interviewer can take a picture of the interview target with the camera 27 and collect the speech of the interview target with the microphone 28 when performing the interview. The control unit 21 of 20 executes the control program 22P. Thereby, the control unit 21 reads information about the interview target person to be interviewed from the interview target DB 23, generates an interview support screen as shown in FIG. (S41).

制御部21は、カメラ27による撮影を開始し、取得した画像データ(面接対象者の撮影画像)を順次非言語DB23dに記憶すると共に、記憶した画像データに基づいて面接対象者の動きを抽出し、面接対象者の挙動に関する各種の情報(非言語情報)を取得して非言語DB23dに逐次蓄積する。なお、面接対象者の撮影画像は、カメラ27にて取得された後に、又はカメラ27にて取得されて非言語DB23dに記憶された後に、表示中の面接支援画面におけるカメラ映像の表示欄に表示される。また制御部21は、マイク28による集音を開始し、取得した音声データ(面接対象者の会話音声)を順次言語DB23eに記憶すると共に、記憶した音声データに基づいて面接対象者の状態を抽出し、面接対象者の会話に関する各種の情報(言語情報)を取得して言語DB23eに逐次蓄積する。   The control unit 21 starts photographing by the camera 27, sequentially stores the acquired image data (the photographed image of the interviewee) in the non-language DB 23d, and extracts the movement of the interviewee based on the stored image data. Then, various information (non-language information) relating to the behavior of the interview target is acquired and sequentially stored in the non-language DB 23d. The captured image of the interviewee is displayed in the camera image display field of the displayed interview support screen after being acquired by the camera 27 or after being acquired by the camera 27 and stored in the non-language DB 23d. Is done. Further, the control unit 21 starts sound collection by the microphone 28, sequentially stores the acquired voice data (the conversation voice of the interview subject) in the language DB 23e, and extracts the state of the interview subject based on the stored voice data. Then, various kinds of information (language information) relating to the conversation of the interview target are acquired and sequentially stored in the language DB 23e.

制御部21は、上述したような撮影画像及び会話音声の取得処理と、取得した撮影画像及び会話音声に基づく面接対象者に対する解析処理(適性検査等)とを行いつつ、面接支援画面中のQ&A欄に表示された質問内容に対する回答例のいずれかの選択、又はその他の回答の入力を受け付けたか否かを判断する(S42)。質問内容に対する面接対象者による回答を受け付けたと判断した場合(S42:YES)、制御部21は、質問設定テーブル221に基づいて次の質問内容を特定し(S43)、面接支援画面中のQ&A欄に、特定した次の質問内容及び回答例を表示し、面接支援画面を更新する(S44)。なお、制御部21は、面接前に取得した面接対象者の情報から判定された適性検査結果(事前の結果)と、面接中の面接対象者の言語情報及び非言語情報から判定された適性検査結果(リアルタイムの結果)とに応じた質問内容を特定する。質問内容に対する面接対象者による回答を受け付けていないと判断した場合(S42:NO)、制御部21はステップS43,S44の処理をスキップする。   The control unit 21 performs the acquisition process of the photographed image and the conversational voice as described above, and the analysis process (e.g., aptitude test) for the interview target person based on the acquired photographed image and the conversational voice, and also performs the Q & A on the interview support screen. It is determined whether or not selection of any of the answer examples for the question content displayed in the column or input of other answers has been accepted (S42). If it is determined that the interviewee has accepted the answer to the question content (S42: YES), the control unit 21 specifies the next question content based on the question setting table 221 (S43), and the Q & A column in the interview support screen. Next, the identified next question content and answer example are displayed, and the interview support screen is updated (S44). In addition, the control unit 21 determines the suitability test result (prior result) determined from the information of the interview target acquired before the interview, and the suitability test determined from the linguistic information and the non-language information of the interview target during the interview. Identify the content of the question according to the result (real-time result). When it is determined that the interview target has not received the answer to the question (S42: NO), the control unit 21 skips the processing of steps S43 and S44.

また制御部21は、面接支援画面を介して面接の方針を受け付けたか否かを判断する(S45)。例えば制御部21は、図12A又は図12Bに示す面接支援画面中に表示したいずれかの方針に対応するボタンが操作された場合、操作されたボタンに対応する方針を受け付ける。面接の方針を受け付けたと判断した場合(S45:YES)、制御部21は、質問設定テーブル221に基づいてレコメンド質問を特定し(S46)、面接支援画面中のレコメンド質問欄に、特定したレコメンド質問の内容及び回答例を表示し、面接支援画面を更新する(S47)。なお、制御部21は、指定された面接の方針と、面接対象者に対する事前の適性検査結果及びリアルタイムの適性検査結果とに応じた質問内容を特定する。面接の方針を受け付けていないと判断した場合(S45:NO)、制御部21はステップS46,S47の処理をスキップする。   The control unit 21 also determines whether or not an interview policy has been accepted via the interview support screen (S45). For example, when a button corresponding to any of the policies displayed on the interview support screen shown in FIG. 12A or 12B is operated, the control unit 21 accepts the policy corresponding to the operated button. If it is determined that the interview policy has been accepted (S45: YES), the control unit 21 specifies a recommendation question based on the question setting table 221 (S46), and displays the specified recommendation question in the recommendation question column on the interview support screen. Is displayed, and the interview support screen is updated (S47). In addition, the control unit 21 specifies the content of the question according to the designated interview policy, the preliminary suitability test result and the real-time suitability test result for the interviewee. If it is determined that the interview policy has not been received (S45: NO), the control unit 21 skips the processing of steps S46 and S47.

また制御部21は、面接支援画面を介して相性確認の実行指示を受け付けたか否かを判断する(S48)。例えば制御部21は、図12A又は図12Bに示す面接支援画面中の面接結果欄に表示した相性確認ボタンが操作された場合、相性確認の実行指示を受け付ける。相性確認の実行指示を受け付けたと判断した場合(S48:YES)、制御部21は、非言語DB23d及び言語DB23eに蓄積された各種情報から各種スコアを算出する(S49)。例えば制御部21は、面接対象者の情報と、予め設定してある採用ターゲットの条件とに基づくマッチングスコア等を算出する。制御部21は、算出した各種スコアを面接結果DB23fに記憶すると共に、面接支援画面中の面接結果欄に各種スコアを表示し、面接支援画面を更新する(S50)。なお、制御部21は、適宜のタイミングで算出する各種スコアを、時系列的に面接結果DB23fに蓄積してもよいし、最新のスコアのみを面接結果DB23fに記憶してもよい。相性確認の実行指示を受け付けていないと判断した場合(S48:NO)、制御部21はステップS49,S50の処理をスキップする。   Further, the control unit 21 determines whether or not an instruction to execute compatibility check has been received via the interview support screen (S48). For example, when the compatibility check button displayed in the interview result column in the interview support screen shown in FIG. 12A or 12B is operated, the control unit 21 receives an instruction to execute compatibility check. When determining that the execution instruction of the compatibility check has been received (S48: YES), the control unit 21 calculates various scores from various information accumulated in the non-language DB 23d and the language DB 23e (S49). For example, the control unit 21 calculates a matching score and the like based on the information of the interview target person and preset conditions of the employed target. The control unit 21 stores the calculated various scores in the interview result DB 23f, displays the various scores in the interview result column of the interview support screen, and updates the interview support screen (S50). Note that the control unit 21 may accumulate various scores calculated at appropriate timing in the interview result DB 23f in chronological order, or may store only the latest score in the interview result DB 23f. When determining that the instruction to execute the compatibility check has not been received (S48: NO), the control unit 21 skips the processing of steps S49 and S50.

制御部21は、例えば面接支援画面中の終了ボタンが操作されることによって、面接の終了指示を受け付けたか否かを判断する(S51)。制御部21は、終了指示を受け付けていないと判断した場合(S51:NO)、ステップS42の処理に戻り、ステップS42〜S51の処理を繰り返し、終了指示を受け付けたと判断した場合(S51:YES)、処理を終了する。   The control unit 21 determines whether or not an instruction to end the interview has been received, for example, by operating an end button in the interview support screen (S51). When determining that the termination instruction has not been received (S51: NO), the control unit 21 returns to the processing of step S42, repeats the processing of steps S42 to S51, and determines that the termination instruction has been received (S51: YES). , And the process ends.

第2面接支援装置20は、上述した処理により、面接前に取得した面接対象者の情報に基づく適性検査結果と、面接中に取得する面接対象者の撮影画像及び会話音声に基づく適性検査結果とを考慮して、それぞれの面接対象者に対する採用スコアを算出でき、採用の優先度を特定できる。図16は、面接結果画面例を示す模式図である。第2面接支援装置20の制御部21は、例えば入力部25を介して面接結果画面の表示指示を受け付けた場合、それぞれの面接対象者の情報、適性検査結果、各種スコア等を面接対象者DB23から読み出して、図16に示すような面接結果画面を生成して表示部26に表示する。図16に示す例は、面接対象者の氏名、適性検査結果、優先度、マッチングスコア、採用スコア等を表示する。なお、適性検査結果は、事前に判定された検査結果と、リアルタイムに判定された検査結果とをそれぞれ表示してもよいし、2つの検査結果に基づいて判定された総合的な検査結果を表示してもよい。このような画面により、それぞれの面接対象者における適性検査結果を把握でき、各種スコア及び優先度を比較することができる。なお、面接結果画面の構成は図16に示す例に限らず、例えば各面接対象者の希望年収、会社側の支払い可能年収等を表示してもよい。   The second interview support apparatus 20 performs the suitability test result based on the information of the interview subject acquired before the interview, and the suitability test result based on the photographed image and the conversation voice of the interview subject acquired during the interview by the above-described processing. In consideration of the above, the recruitment score for each interviewee can be calculated, and the priority of recruitment can be specified. FIG. 16 is a schematic diagram showing an example of the interview result screen. For example, when the control unit 21 of the second interview support apparatus 20 receives an instruction to display an interview result screen via the input unit 25, the control unit 21 stores information of each interviewee, aptitude test results, various scores, and the like in the interviewee DB 23. And an interview result screen as shown in FIG. 16 is generated and displayed on the display unit 26. The example shown in FIG. 16 displays the names of interviewees, aptitude test results, priorities, matching scores, adoption scores, and the like. As the suitability test result, a test result determined in advance and a test result determined in real time may be displayed, or a comprehensive test result determined based on two test results may be displayed. May be. With such a screen, it is possible to grasp the suitability test results of each interviewee and compare various scores and priorities. The structure of the interview result screen is not limited to the example shown in FIG. 16, and for example, the desired annual income of each interviewee, the payable annual income of the company, etc. may be displayed.

本実施形態では、面接を行う前に、面接対象者に関する情報に基づいて各種の適性検査を行うことにより、面接対象者のIQやEQ、行動心理学上の各タイプの分類等の解析を行うことができる。そして、その解析結果に応じて面接対象者に最適な面接官及び面接時の質問を設定することにより、より有効な面接を行うための準備が可能となる。また面接中に、面接支援画面において、質問に対する面接対象者の回答に応じた次の質問を提示したり、面接の方針に応じたレコメンド質問を提示することができ、面接官による面接を支援できる。また面接中に、面接対象者の挙動に関する情報や会話内容に関する情報に基づいて各種の適性検査を行うことにより、面接対象者の行動心理学上の各タイプの分類結果をリアルタイムに解析できる。更に、リアルタイムでの解析結果に基づいて、所定の採用ターゲットの条件に対する面接対象者の採用スコアをリアルタイムに分析でき、分析結果を面接官に提示することにより、面接対象者に対する各種スコアをリアルタイムで把握できる。このようにそれぞれの面接対象者に対して最適な面接官及び最適な質問で面接に臨むことにより、会社が欲しい人材を確実に見出して採用し損なうことを回避し、また、会社が欲しい人材による採用の辞退を抑制することが期待できる。   In the present embodiment, before conducting the interview, various aptitude tests are performed based on the information on the interviewees, thereby analyzing the IQ and EQ of the interviewees, classification of each type in behavioral psychology, and the like. be able to. Then, by setting an interviewer and an interview question most suitable for the interviewee according to the analysis result, it becomes possible to prepare for conducting a more effective interview. During the interview, on the interview support screen, the next question according to the interviewee's answer to the question can be presented, or the recommended question according to the interview policy can be presented, and the interview by the interviewer can be supported . In addition, during the interview, various types of aptitude tests are performed based on the information on the behavior of the interviewee and the information on the conversation content, so that the classification results of each type of behavioral psychology of the interviewee can be analyzed in real time. Furthermore, based on the analysis results in real time, the recruitment score of the interviewee with respect to the predetermined recruitment target conditions can be analyzed in real time, and by presenting the analysis result to the interviewer, various scores for the interviewee can be obtained in real time. I can understand. In this way, by interviewing each interviewee with the most appropriate interviewer and the most appropriate questions, the company can be sure to find and recruit the human resources it wants, and to avoid the failure of hiring the company. It can be expected that refusal of adoption will be suppressed.

本実施形態では、面接対象者の履歴書、職務経歴書、志望動機等のように事前に取得できる情報だけでなく、面接中の面接対象者の会話内容及び挙動(動作や表情)に関する情報も含めた各種の情報を解析して面接対象者のことを分析する。よって、人間では見落としてしまうような事項の見落としを抑制でき、また、面接官個人の価値観や感情による偏った評価を抑制できる。また、それぞれの面接対象者を分析した結果を示す各種のスコアを提示できるので、採用すべき面接対象者を決定することを支援できる。   In the present embodiment, not only information that can be obtained in advance, such as a resume, a job history, and a motivation for the interviewee, but also information about the conversation content and behavior (actions and facial expressions) of the interviewee during the interview are included. Analyze the interviewees by analyzing various information including them. Therefore, it is possible to suppress oversight of items that would be overlooked by humans, and it is possible to suppress biased evaluation based on the values and feelings of the individual interviewer. In addition, since various scores indicating the results of analyzing each interviewee can be presented, it is possible to assist in determining the interviewees to be adopted.

(実施形態2)
実施形態1の第2面接支援装置20が、面接中に取得する撮影画像及び会話音声に基づいて面接に関するスコアを算出する構成を更に有する実施形態について説明する。本実施形態の第1面接支援装置10は、実施形態1と同様の構成を有し同様の処理を行うので説明を省略する。また本実施形態の第2面接支援装置20は、実施形態1と同様の構成を有し、更に図17に示すような面接履歴DB22bを記憶部22に記憶する。なお、同様の構成については説明を省略する。
(Embodiment 2)
An embodiment in which the second interview support apparatus 20 of the first embodiment further has a configuration for calculating a score related to an interview based on a captured image and a conversation voice acquired during the interview will be described. The first interview support apparatus 10 according to the present embodiment has the same configuration as the first embodiment and performs the same processing, so that the description is omitted. Further, the second interview support apparatus 20 of the present embodiment has the same configuration as that of the first embodiment, and further stores an interview history DB 22b as shown in FIG. The description of the same configuration is omitted.

図17は、面接履歴DB22bの構成例を示す模式図である。面接履歴DB22bは、例えば実施された面接毎に設けられ、それぞれの面接について面接開始から所定時間毎の面接に関する情報を記憶している。図17に示す面接履歴DB22bは、開始時間列、終了時間列、画像データ列、音声データ列、面接スコア列等を含む。開始時間列及び終了時間列は、面接の開始から終了までの間における所定の時間帯の開始時点の時間及び終了時点の時間をそれぞれ記憶する。なお、図17に示す例では、開始時間及び終了時間は、面接開始からの時間を「分:秒」で示しているが、日時情報等を用いてもよい。画像データ列は、面接対象者の面接時における撮影画像のデータを記憶し、音声データ列は、面接対象者の面接時における会話の音声データを記憶する。なお、撮影画像のデータ及び音声データは、面接履歴DB22bに記憶されるほかに、記憶部22の所定領域又は第2面接支援装置20に接続された外部の記憶装置に記憶されてもよい。この場合、画像データ列及び音声データ列は、撮影画像のデータ及び音声データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。面接スコア列は、例えば面接対象者の画像データ及び音声データに基づいて算出(特定)された面接のスコアを記憶する。   FIG. 17 is a schematic diagram illustrating a configuration example of the interview history DB 22b. The interview history DB 22b is provided, for example, for each interview that has been performed, and stores information on interviews at predetermined time intervals from the start of the interview for each interview. The interview history DB 22b illustrated in FIG. 17 includes a start time column, an end time column, an image data column, a voice data column, an interview score column, and the like. The start time column and the end time column store the time at the start time and the time at the end time of a predetermined time zone from the start to the end of the interview, respectively. In the example shown in FIG. 17, the start time and the end time indicate the time from the start of the interview in “minute: second”, but date and time information may be used. The image data string stores data of a captured image of the interview subject at the time of the interview, and the audio data string stores speech data of a conversation of the interview subject at the time of the interview. Note that the data of the captured image and the audio data may be stored in a predetermined area of the storage unit 22 or an external storage device connected to the second interview support device 20 in addition to being stored in the interview history DB 22b. In this case, the image data sequence and the audio data sequence store information (for example, a file name indicating a storage location of the data) for reading the data and the audio data of the captured image. The interview score column stores, for example, an interview score calculated (specified) based on the image data and audio data of the interview subject.

面接履歴DB22bにおいて、所定の時間帯は、図17に示すように5分毎に限定されない。例えば第2面接支援装置20が、面接対象者の撮影画像及び会話音声に基づいて、面接の開始から終了までの間において、自己紹介の時間帯、面接官からの質問の時間帯、面接対象者からの質問の時間帯、雑談の時間帯等、面接中の各時間帯(シーン)を判別できる場合、それぞれ判別した時間帯を用いてもよい。なお、第2面接支援装置20は、面接履歴DB22bに各データを記憶する代わりに、非言語DB23dにそれぞれの時間帯に応じた画像データ及び面接スコアを記憶し、言語DB23eにそれぞれの時間帯に応じた音声データ及び面接スコアを記憶する構成でもよい。   In the interview history DB 22b, the predetermined time period is not limited to every five minutes as shown in FIG. For example, during the period from the start to the end of the interview, the second interview support apparatus 20 uses the photographed image and the conversational voice of the interview target to introduce themselves, ask questions from the interviewer, If it is possible to determine each time zone (scene) during the interview, such as the time zone of a question from the user, the time zone of a chat, etc., the time zones determined respectively may be used. The second interview support apparatus 20 stores the image data and the interview score corresponding to each time zone in the non-language DB 23d instead of storing each data in the interview history DB 22b, and stores the image data and the interview score in the language DB 23e. A configuration in which the corresponding voice data and interview score may be stored.

図18は、第2面接支援装置20の制御部21によって実現される機能を示すブロック図、図19は画面例を示す模式図である。本実施形態の第2面接支援装置20の制御部21は制御プログラム22Pを実行することによって、図11に示す各機能に加えて、面接スコア算出部213及び面接履歴表示部214の各機能を実現する。図18では、面接スコア算出部213及び面接履歴表示部214以外の各部の図示を省略する。   FIG. 18 is a block diagram illustrating functions realized by the control unit 21 of the second interview support device 20, and FIG. 19 is a schematic diagram illustrating a screen example. The control unit 21 of the second interview support device 20 of the present embodiment executes the control program 22P to realize the functions of the interview score calculation unit 213 and the interview history display unit 214 in addition to the functions shown in FIG. I do. In FIG. 18, illustration of each unit other than the interview score calculation unit 213 and the interview history display unit 214 is omitted.

面接スコア算出部213は、例えば面接中に取得した面接対象者の撮影画像及び会話音声に基づいて、面接中のそれぞれの時間帯における面接に関するスコアを特定(算出)する。面接のスコアは、例えば面接中に面接対象者DB23に逐次記憶される各情報に基づいて算出され、面接が良好に進行しているか否かを例えば100点満点で示す。面接スコア算出部213は、例えば面接対象者の撮影画像のデータ及び音声データに基づいて解析された面接対象者の状態の解析結果から面接のスコアを算出してもよい。例えば面接対象者の撮影画像及び会話音声を解析して得られた面接対象者の状態(解析結果)に応じて予めスコアが設定されており、面接スコア算出部213は、逐次得られる面接対象者の解析結果に応じたスコアを加算又は減算することにより面接のスコアを算出してもよい。なお、面接スコア算出部213は、それぞれの時間帯に取得した撮影画像及び会話音声に基づいて面接のスコアを算出してもよいし、面接開始からそれぞれの時間帯が経過するまでの間に取得した撮影画像及び会話音声に基づいて面接のスコアを算出してもよい。   The interview score calculation unit 213 specifies (calculates) a score related to the interview in each time zone during the interview, for example, based on the captured image and the conversation voice of the interview target acquired during the interview. The interview score is calculated based on, for example, each piece of information sequentially stored in the interview target person DB 23 during the interview, and indicates whether or not the interview is progressing satisfactorily with, for example, a perfect score of 100 points. The interview score calculation unit 213 may calculate an interview score from an analysis result of the state of the interview target analyzed based on, for example, data of a captured image of the interview target and audio data. For example, a score is set in advance according to the state (analysis result) of the interviewee obtained by analyzing the photographed image and the conversation voice of the interviewee, and the interview score calculator 213 determines the interviewee who is sequentially obtained. The score of the interview may be calculated by adding or subtracting a score according to the analysis result of the above. In addition, the interview score calculation unit 213 may calculate the score of the interview based on the captured image and the conversation voice acquired in each time slot, or may obtain the score of the interview from the start of the interview to the lapse of each time slot. The interview score may be calculated based on the captured image and the conversation voice.

面接スコア算出部213は、面接中のそれぞれの時間帯毎に、面接対象者DB23から読み出した画像データ及び音声データ、又は画像取得部204及び音声取得部206が取得した画像データ及び音声データを面接履歴DB22bに蓄積する。また面接スコア算出部213は、例えばそれぞれの時間帯が終了した時点で、それぞれの時間帯における面接スコアを算出して面接履歴DB22bに記憶する。なお、面接のスコアは、面接対象者の撮影画像及び会話音声だけでなく、面接官の会話音声も考慮して算出してもよく、第2面接支援装置20が面接官の撮影画像を取得する構成を有する場合、面接官の撮影画像も考慮して算出してもよい。   The interview score calculation unit 213 interviews the image data and the audio data read from the interview target person DB 23 or the image data and the audio data acquired by the image acquisition unit 204 and the audio acquisition unit 206 for each time period during the interview. The information is stored in the history DB 22b. Also, the interview score calculation unit 213 calculates an interview score in each time zone, for example, when each time zone ends, and stores the score in the interview history DB 22b. Note that the interview score may be calculated in consideration of not only the photographed image and the conversation voice of the interviewee but also the conversation voice of the interviewer, and the second interview support apparatus 20 acquires the photographed image of the interviewer. In the case of having the configuration, the calculation may be made in consideration of the photographed image of the interviewer.

面接履歴表示部214は、面接履歴DB22bに蓄積された各データに基づいて、面接履歴画面を生成して表示部26に表示する。第2面接支援装置20は、例えば入力部25を介して面接履歴の表示指示を受け付けた場合、図19Aに示すような面接履歴画面を生成して表示部26に表示する。図19Aに示す画面では、それぞれの面接について面接官の面接官ID、面接対象者の面接対象者ID、面接日、面接スコア等を表示する。面接履歴表示部214は、記憶部22に記憶してあるDB22a,22b,23から各情報を読み出して面接履歴画面を生成する。なお、図19Aに示す画面中に表示される面接スコアは、面接終了時点でのスコアであってもよく、面接履歴DB22bに各時間帯に応じて記憶してあるスコアから算出される値であってもよい。   The interview history display unit 214 generates an interview history screen based on the data accumulated in the interview history DB 22b and displays the screen on the display unit 26. For example, when receiving an instruction to display an interview history via the input unit 25, the second interview support device 20 generates an interview history screen as shown in FIG. 19A and displays the screen on the display unit 26. The screen shown in FIG. 19A displays the interviewer ID of the interviewer, the interviewee ID of the interviewee, the interview date, the interview score, and the like for each interview. The interview history display unit 214 reads each information from the DBs 22a, 22b, and 23 stored in the storage unit 22 and generates an interview history screen. The interview score displayed on the screen shown in FIG. 19A may be the score at the end of the interview, or a value calculated from the score stored in the interview history DB 22b according to each time period. You may.

図19Aに示す画面において、例えば入力部25を介していずれかの面接が選択された場合、第2面接支援装置20は、選択された面接の面接履歴DB22bから各データを読み出し、図19Bに示す画面を生成して表示部26に表示する。図19Bに示す画面では、選択された面接に関する情報(面接官ID、面接対象者ID、面接日、面接スコア)が表示されると共に、面接中に撮影された面接対象者の撮影画像が表示される。また図19Bに示す画面では、表示される撮影画像(動画)に対して面接の開始から終了までの間の任意の時点を指定するためのインジケータが表示されている。また、インジケータの上部には面接開始からの経過時間が表示され、下部にはそれぞれの時点で算出された面接スコアが表示されている。図19Bに示す画面において、入力部25を介してインジケータが操作された場合、第2面接支援装置20は、インジケータによって指定された時点から撮影画像の再生(表示)を行うことができる。なお、第2面接支援装置20は、面接対象者の撮影画像を表示部26に表示する場合、面接対象者の会話音声(音声データ)もスピーカ(図示せず)から音声出力する。これにより、面接履歴DB22bに蓄積した画像データ及び音声データを面接終了後に視聴することができる。また、面接におけるそれぞれのタイミングで算出された面接スコアが面接履歴画面に表示されるので、面接時の画像及び音声と共にその時点での面接スコアを確認できる。よって、面接官及び面接対象者は、面接終了後に、図19Bに示す画面によって面接の反省会を行うことができる。なお、面接スコアと共に、それぞれの時点において、面接官及び面接対象者のそれぞれにおける良い点、悪い点、課題等を表示させてもよい。これにより、面接後に面接官及び面接対象者のそれぞれに面接における良い点、悪い点、課題等をフィードバックすることができる。なお、それぞれの時点における面接官に対する良い点、悪い点、課題は、例えば面接官の上司や先輩によって入力される評価情報であってもよく、入力された評価情報は面接履歴DB22bに記憶されてもよい。また、それぞれの時点における面接対象者に対する良い点、悪い点、課題は、例えば転職エージェントによって入力される評価情報であってもよく、入力された評価情報は面接履歴DB22bに記憶されてもよい。   In the screen shown in FIG. 19A, for example, when any interview is selected via the input unit 25, the second interview support apparatus 20 reads each data from the interview history DB 22b of the selected interview, and shows the data shown in FIG. 19B. A screen is generated and displayed on the display unit 26. On the screen shown in FIG. 19B, information on the selected interview (interviewer ID, interviewee ID, interview date, interview score) is displayed, and a photographed image of the interviewee taken during the interview is displayed. You. On the screen shown in FIG. 19B, an indicator for designating an arbitrary point in time between the start and the end of the interview for the displayed captured image (moving image) is displayed. The elapsed time from the start of the interview is displayed above the indicator, and the interview score calculated at each time is displayed below the indicator. When the indicator is operated via the input unit 25 on the screen shown in FIG. 19B, the second interview support apparatus 20 can reproduce (display) the captured image from the time point designated by the indicator. When displaying the captured image of the interviewee on the display unit 26, the second interview support apparatus 20 also outputs the conversational voice (voice data) of the interviewee from a speaker (not shown). Thereby, the image data and the audio data stored in the interview history DB 22b can be viewed after the interview is completed. In addition, since the interview score calculated at each timing of the interview is displayed on the interview history screen, the interview score at that time can be confirmed together with the image and sound at the time of the interview. Therefore, after the interview, the interviewer and the interviewee can hold an interview reflection meeting on the screen shown in FIG. 19B. In addition, at each time point, good points, bad points, tasks, and the like of the interviewer and the interviewee may be displayed together with the interview score. Thereby, after the interview, good points, bad points, issues, etc. in the interview can be fed back to each of the interviewer and the interviewee. The good points, bad points, and tasks for the interviewer at each point in time may be, for example, evaluation information input by the supervisor or senior of the interviewer, and the input evaluation information is stored in the interview history DB 22b. Is also good. The good points, bad points, and tasks for the interview target person at each point in time may be, for example, evaluation information input by the job change agent, and the input evaluation information may be stored in the interview history DB 22b.

上述した構成により、本実施形態の第2面接支援装置20は、実施形態1と同様の処理を行いつつ、面接中に図17に示す面接履歴DB22bに各データを蓄積する。このように面接履歴DB22bに面接に関する情報が蓄積されることにより、面接終了後に、面接履歴DB22bに蓄積したデータに基づいて、面接履歴画面にて面接を再現できる。   With the configuration described above, the second interview support apparatus 20 of the present embodiment accumulates each data in the interview history DB 22b shown in FIG. 17 during the interview while performing the same processing as in the first embodiment. By accumulating information on the interview in the interview history DB 22b in this manner, the interview can be reproduced on the interview history screen based on the data accumulated in the interview history DB 22b after the interview.

図19Bに示す画面において、例えば任意の面接スコアを入力するための入力欄を設けてもよい。そして、第2面接支援装置20は、入力部25を介して任意の面接スコアが入力された場合に、入力された面接スコアに対応する時間帯の撮影画像及び会話音声を再生される構成としてもよい。この場合、面接官及び面接対象者は、例えば面接スコアの低い箇所(時間帯)の撮影画像及び会話音声をまとめて視聴したり、面接スコアの高い箇所(時間帯)の撮影画像及び会話音声をまとめて視聴することができる。よって、面接官及び面接対象者は、効率よく面接の画像及び音声を視聴することができ、効率よく面接を振り返ることができる。   On the screen shown in FIG. 19B, for example, an input field for inputting an arbitrary interview score may be provided. Then, the second interview support device 20 may be configured such that, when an arbitrary interview score is input via the input unit 25, the captured image and the conversation voice in the time zone corresponding to the input interview score are reproduced. Good. In this case, the interviewer and the interviewee can, for example, collectively view the captured image and the conversation voice at the location (time zone) with a low interview score, or view the captured image and the conversation voice at the location (time zone) with a high interview score. You can watch them all together. Therefore, the interviewer and the interviewee can efficiently view the image and sound of the interview, and can efficiently look back on the interview.

また、面接履歴DB22bは、例えば面接官の新人研修のように、他の面接官が面接の研修や練習を行う際に用いることができる。この場合にも、図19Aに示す画面においていずれかの面接が選択され、第2面接支援装置20は、選択された面接の面接履歴DB22bから各データを読み出し、図19Bに示す画面を生成して表示部26に表示する。これにより、他の面接官が行った面接の撮影画像及び会話音声を視聴することができると共に、それぞれのタイミングでの面接スコアを把握できる。よって、面接の状況とスコアとに基づいて面接のやり方を学ぶことができ、面接の練習を行うことができる。また例えば、各面接官の性格やキャラクタを特定し、性格やキャラクタに対応付けて、面接中に取得した会話音声及び面接対象者の撮影画像(面接履歴)を蓄積してもよい。この場合、面接の練習をしたい面接官は、自身の性格やキャラクタに適した面接履歴を学習教材として用いることにより、それぞれの面接官に応じた練習を行うことができる。   Also, the interview history DB 22b can be used when another interviewer conducts interview training or practice, for example, as a newcomer training for interviewers. In this case as well, one of the interviews is selected on the screen shown in FIG. 19A, and the second interview supporting apparatus 20 reads each data from the interview history DB 22b of the selected interview, and generates the screen shown in FIG. 19B. It is displayed on the display unit 26. As a result, it is possible to view the photographed image and the conversation voice of the interview conducted by another interviewer, and to understand the interview score at each timing. Therefore, it is possible to learn an interview method based on the interview situation and the score, and to practice the interview. Further, for example, the character or character of each interviewer may be specified, and the conversation voice acquired during the interview and the captured image (interview history) of the interviewee may be stored in association with the character or character. In this case, the interviewer who wants to practice the interview can use the interview history suitable for his / her personality and character as a learning teaching material, so that he / she can practice according to each interviewer.

本実施形態において、第2面接支援装置20は、面接中に取得した撮影画像及び会話音声と、それぞれのタイミングでの面接スコアとに基づいて、面接の手本となるべき面接官の行動や言動を蓄積する構成を有してもよい。例えば、第2面接支援装置20は、所定値以上の面接スコアが得られた面接中の撮影画像及び会話音声において、面接対象者の行動や言動に対して面接官がとった行動や言動を抽出して蓄積する。そして、第2面接支援装置20は、蓄積した手本となるべき面接官の行動や言動を、例えば所定の面接官用キャラクタの画像を用いて再現することにより、面接の手本を示すことができる。具体的には、第2面接支援装置20は、蓄積した撮影画像及び会話音声に基づいて、面接官用キャラクタが手本となるべき面接官の行動(動作)を行う動画を生成して表示部26に表示し、手本となるべき面接官が発する可能性の高い会話音声を生成してスピーカから出力する。このように面接官用キャラクタによる映像及び音声によって面接の手本が示されることにより、効率よく面接のやり方を学習できる。なお、面接対象者の行動や言動に対して面接官がとるべき行動や言動を、学習済モデルを用いて特定してもよい。この場合、例えば第2面接支援装置20は、面接中に蓄積した撮影画像及び会話音声を用いて、面接対象者の言動や行動を示す撮影画像(画像情報)及び会話音声(音声情報)が入力された場合に、面接官がとるべき行動や言動を示す情報を出力するように学習済モデルを再学習させることができる。このような学習済モデルを用いることにより、バーチャルな面接官を生成することができる。   In the present embodiment, the second interview support apparatus 20 performs the actions and actions of the interviewer to be a model for the interview based on the captured image and conversation voice acquired during the interview and the interview score at each timing. May be stored. For example, the second interview support apparatus 20 extracts the action or behavior of the interviewer with respect to the action or behavior of the interview target person from the captured image and the conversation voice during the interview in which the interview score equal to or greater than the predetermined value is obtained. And accumulate. Then, the second interview support apparatus 20 can show the model of the interview by reproducing the accumulated actions and behaviors of the interviewer to be used as the model, for example, using a predetermined image for the interviewer character. it can. Specifically, the second interview support apparatus 20 generates a moving image in which the interviewer character performs the action (action) of the interviewer to be used as a model based on the accumulated captured image and conversation voice, and displays the generated moving image. 26, a conversational voice that is likely to be uttered by the interviewer to be modeled is generated and output from the speaker. As described above, the model of the interview is indicated by the video and the sound of the interviewer character, so that the manner of the interview can be efficiently learned. In addition, the action or behavior that the interviewer should take in response to the behavior or behavior of the interview target person may be specified using the learned model. In this case, for example, the second interview support apparatus 20 uses the photographed image and the conversation voice accumulated during the interview to input a photographed image (image information) and the conversation voice (voice information) indicating the words and actions of the interview subject. If so, the trained model can be re-learned so as to output information indicating the action or behavior that the interviewer should take. By using such a trained model, a virtual interviewer can be generated.

また本実施形態において、第2面接支援装置20は、面接中に取得した撮影画像及び会話音声に基づいて、例えば面接対象者からよくある質問や面接官が回答に困った質問等を抽出して蓄積する構成を有してもよい。そして、第2面接支援装置20は、蓄積した質問を、例えば所定の面接対象者用キャラクタの画像を用いて再現することにより、面接の練習相手を面接官に提供することができる。具体的には、第2面接支援装置20は、蓄積した撮影画像及び会話音声に基づいて、面接対象者用キャラクタが、蓄積した質問を行う動画及び会話音声を生成して表示部26及びスピーカにて出力する。このように面接対象者用キャラクタによる映像及び音声によって練習相手を提供できるので、面接官は面接の練習相手を探す必要がなく、面接の練習を自主的に行うことができる。なお、図19Bに示す画面において、面接対象者用キャラクタの画像を表示させることにより、図19Bに示す画面を介して面接官は面接の練習を行うことができる。   Further, in the present embodiment, the second interview support apparatus 20 extracts, for example, a frequently asked question from the interviewee or a question that the interviewer has trouble answering, based on the captured image and the conversation voice acquired during the interview. It may have a configuration for storing. Then, the second interview support apparatus 20 can provide the interviewer with a training partner for the interview by reproducing the accumulated question using, for example, an image of the character for the predetermined interviewee. More specifically, the second interview support apparatus 20 generates a video and a conversation voice for the interview target character to perform the accumulated question based on the stored captured image and conversation voice, and outputs the video and the conversation voice to the display unit 26 and the speaker. Output. As described above, since the practice partner can be provided by the video and audio of the character for the interview target, the interviewer does not need to search for the practice partner of the interview, and can practice the interview independently. By displaying the image of the character for the interview target on the screen shown in FIG. 19B, the interviewer can practice the interview via the screen shown in FIG. 19B.

また本実施形態において、第2面接支援装置20は、面接中に取得した撮影画像及び会話音声に基づいて、例えば面接官がよく行う質問や面接対象者が回答に困った質問等を抽出して蓄積する構成を有してもよい。そして、第2面接支援装置20は、蓄積した質問を、例えば所定の面接官用キャラクタの画像を用いて再現することにより、面接の練習相手を面接対象者に提供することができる。具体的には、第2面接支援装置20は、蓄積した撮影画像及び会話音声に基づいて、面接官用キャラクタが、蓄積した質問を行う動画及び会話音声を生成して表示部26及びスピーカにて出力する。このように面接官用キャラクタによる映像及び音声によって練習相手を面接対象者に提供できるので、面接対象者は面接の練習相手を探すことなく自主的に面接の練習を行うことができる。なお、図19Bに示す画面において、面接官用キャラクタの画像を表示させることにより、図19Bに示す画面を介して面接対象者は面接の練習を行うことができる。   In the present embodiment, the second interview support apparatus 20 extracts, for example, questions frequently asked by the interviewer and questions that the interviewee has difficulty answering, based on the captured image and the conversation voice acquired during the interview. You may have the structure which accumulates. Then, the second interview support apparatus 20 can provide the interview subject to the interview practice partner by reproducing the accumulated question using, for example, an image of a predetermined interviewer character. More specifically, the second interview support apparatus 20 generates a video and a conversation voice for the interviewer character to ask the accumulated question based on the accumulated photographed image and conversation voice, and uses the display unit 26 and the speaker. Output. As described above, since the interview partner can be provided to the interview subject by the video and audio of the interviewer character, the interview subject can independently practice the interview without searching for the interview practice partner. By displaying an image of the character for the interviewer on the screen shown in FIG. 19B, the interviewee can practice the interview via the screen shown in FIG. 19B.

上述した各実施形態の第1面接支援装置10及び第2面接支援装置20は、従業員の人事採用面接を支援するだけでなく、入学試験や資格試験における面接や、従業員の人事評価のための面接等、各種の面接を支援する装置にも適用できる。   The first interview support device 10 and the second interview support device 20 of each of the above-described embodiments not only support employee recruitment interviews, but also for interviews in entrance examinations and qualification tests, and for personnel evaluations of employees. It can also be applied to devices that support various interviews, such as interviews.

今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is an example in all respects, and should be considered as not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 第1面接支援装置
11 制御部
12 記憶部
20 第2面接支援装置
21 制御部
22 記憶部
102 対象者情報取得部
106 面接官特定部
109 質問特定部
121 面接官決定用学習済モデル
122 質問決定用学習済モデル
202 画面生成部
203 出力部
204 画像取得部
206 音声取得部
212 スコア算出部
Reference Signs List 10 first interview support device 11 control unit 12 storage unit 20 second interview support device 21 control unit 22 storage unit 102 subject information acquisition unit 106 interviewer identification unit 109 question identification unit 121 trained model for interviewer determination 122 question determination Learned model 202 screen generation unit 203 output unit 204 image acquisition unit 206 audio acquisition unit 212 score calculation unit

Claims (23)

コンピュータに、
面接対象者に関する情報を入力部を介して取得し、
面接対象者に関する情報が入力された場合に、前記面接対象者に適した面接官の情報を出力するように学習された第1学習済モデルに、取得した前記面接対象者に関する情報を入力し前記第1学習済モデルから出力される前記面接官の情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官を特定し
面接対象者に関する情報が入力された場合に、前記面接対象者に対する質問内容の情報を出力するように学習された第2学習済モデルに、取得した前記面接対象者に関する情報を入力し、前記第2学習済モデルから出力される前記質問内容の情報に基づいて、前記面接対象者に対する質問内容を特定する
処理を実行させるプログラム。
On the computer,
Obtain information about the interviewee via the input unit ,
When information about the interviewee is input, the first trained model that has been learned to output information on the interviewer suitable for the interviewee , inputs the acquired information about the interviewee, Based on the information of the interviewer output from the first trained model , specify an interviewer to interview the interviewee from a plurality of interviewers,
When information about the interview subject is input, the acquired information about the interview subject is input to the second trained model that has been learned to output information on the content of the question to the interview subject, 2 based on the information of the question content which is output from the learned model, a program for executing processing for specifying a question Description for the interview subject.
前記コンピュータに、
面接の方針に関する方針情報を取得し、
取得した前記方針情報及び前記面接対象者に関する情報を前記第1学習済モデルに入力し、前記第1学習済モデルから出力される前記面接官の情報に基づいて、前記面接対象者の面接を行う面接官を特定し
取得した前記方針情報及び前記面接対象者に関する情報を前記第2学習済モデルに入力し、前記第2学習済モデルから出力される前記質問内容の情報に基づいて、前記面接対象者に対する質問内容を特定する
処理を実行させる請求項1に記載のプログラム。
On the computer,
Obtain policy information about the interview policy,
The acquired policy information and the information on the interviewee are input to the first trained model , and the interviewer is interviewed based on the information of the interviewer output from the first trained model. Identify the interviewer,
Information about the acquired policy information and the interviewee's input to the second learned model, based on the question content information to be outputted from the second trained model question Description for the interviewee's The program according to claim 1, wherein the program is configured to execute a process of identifying the program.
前記コンピュータに、
前記面接対象者に関する情報を、前記面接対象者の面接を行う面接官に特定された前記面接官の面接予定情報として記憶部に記憶する
処理を実行させる請求項1又は2に記載のプログラム。
On the computer,
The information about the interviewee's program according to claim 1 or 2 to execute the process of storing in the storage unit as the interview schedule information for that the interviewer to interviewer performing interviews the interviewer subject.
前記コンピュータに、
前記第2学習済モデルから出力される前記質問内容の情報に基づいて特定された前記面接対象者に対する質問内容を出力する
処理を実行させる請求項1から3までのいずれかひとつに記載のプログラム。
On the computer,
The program according to any one of claims 1 to 3, further comprising: executing a process of outputting a question content to the interview target identified based on the question content information output from the second learned model .
前記コンピュータに、
前記面接対象者の面接時の画像情報及び音声情報を取得し、
取得した前記画像情報を解析して、前記面接対象者の挙動に関する状態を特定し、
取得した前記音声情報を解析して、前記面接対象者の会話内容に関する状態を特定し、
特定した前記面接対象者の挙動に関する状態及び会話内容に関する状態に応じて、前記面接対象者の採用に関するスコアを特定し、
特定した前記スコアを出力する
処理を実行させる請求項1から4までのいずれかひとつに記載のプログラム。
On the computer,
It acquires image information and audio information interview the interviews subject,
Analyze the acquired image information , identify the state related to the behavior of the interview subject,
Analyze the acquired voice information , identify the state related to the conversation content of the interviewee,
According to the state related to the behavior of the identified interviewee and the state related to the conversation content, the score related to the adoption of the interviewee is identified,
The program according to any one of claims 1 to 4, wherein the program executes a process of outputting the specified score.
前記コンピュータに、
取得した前記画像情報及び音声情報を解析して特定された前記面接対象者の挙動に関する状態及び会話内容に関する状態に応じて、前記面接対象者に対する質問内容を特定し、
特定した前記質問内容を出力する
処理を実行させる請求項に記載のプログラム。
On the computer,
Analyzing the acquired image information and audio information , according to the state related to the behavior of the interviewee and the state related to the conversation content, to identify the content of the question to the interviewee,
The program according to claim 5 , wherein the program executes a process of outputting the identified question content.
前記コンピュータに、
面接の方針に関する方針情報を取得し、
取得した前記方針情報と、取得した前記画像情報及び音声情報を解析して特定された前記面接対象者の挙動に関する状態及び会話内容に関する状態とに応じて、前記面接対象者に対する質問内容を特定し、
特定した前記質問内容を出力する
処理を実行させる請求項5又は6に記載のプログラム。
On the computer,
Obtain policy information about the interview policy,
According to the acquired policy information , the state of the behavior of the interview subject and the state of the conversation content identified by analyzing the acquired image information and audio information, the content of the question to the interview subject is identified. ,
The program according to claim 5 , wherein the program executes a process of outputting the identified content of the question.
前記コンピュータに、
取得した前記面接対象者の面接時の画像情報を解析して特定された前記面接対象者の挙動に関する状態と、取得した前記面接対象者の面接時の音声情報を解析して特定された前記面接対象者の会話内容に関する状態とに応じて、前記面接対象者の面接の進行状態に関するスコアを特定する
処理を実行させる請求項5から7までのいずれかひとつに記載のプログラム。
On the computer,
The state related to the behavior of the interview subject identified by analyzing the acquired image information of the interview subject during the interview, and the interview identified by analyzing the acquired voice information of the interview subject during the interview The program according to any one of claims 5 to 7, wherein the program is configured to execute a process of specifying a score relating to an interview progress state of the interview target according to a state relating to a conversation content of the target person .
前記コンピュータに、
前記面接対象者の面接中の所定時間毎に前記面接対象者の面接の進行状態に関するスコアを特定し、
特定した前記面接の進行状態に関するスコアと、前記所定時間毎に取得した前記画像情報及び音声情報とを対応付けて記憶部に記憶する
処理を実行させる請求項8に記載のプログラム。
On the computer,
Identify scores for progress of the interviewee's interview at predetermined times during the interview the interviews subject,
The program according to claim 8, wherein the storage section associates the identified score regarding the progress of the interview with the image information and the audio information acquired at each of the predetermined times and stores the score in the storage unit.
前記コンピュータに、
前記面接対象者の面接の進行状態に関するスコアを受け付け、
受け付けたスコアに対応付けて記憶されている前記画像情報及び音声情報を前記記憶部から読み出し、
読み出した前記画像情報及び音声情報を出力する
処理を実行させる請求項9に記載のプログラム。
On the computer,
Receiving a score regarding the progress of the interview of the interview subject ,
The image information and the audio information stored in association with the received score are read from the storage unit,
The program according to claim 9, wherein the program executes a process of outputting the read image information and audio information.
前記コンピュータに、
前記記憶部に記憶してある前記画像情報及び音声情報を用いて、面接対象者の言動に係る画像情報及び音声情報に基づいて面接官が行うべき言動に係る情報を出力するように学習された学習済モデルを再学習させる
処理を実行させる請求項又は1に記載のプログラム。
On the computer,
Using the image information and the voice information stored in the storage unit, it has been learned to output information related to the behavior that the interviewer should perform based on the image information and the voice information related to the behavior of the interviewee. the program according to claim 9 or 1 0 to execute processing to relearn learned model.
コンピュータに、
面接対象者の面接時の画像情報及び音声情報を入力部を介して取得し、
取得した前記画像情報を解析して、前記面接対象者の挙動に関する状態を特定し、
取得した前記音声情報を解析して、前記面接対象者の会話内容に関する状態を特定し、
特定した前記面接対象者の挙動に関する状態及び会話内容に関する状態と、予め設定してある採用ターゲットに関する条件との適合度を算出し、
算出した前記適合度に応じて、前記面接対象者の採用に関するスコアを特定し、
特定した前記スコアを出力する
処理を実行させるプログラム。
On the computer,
Acquisition of image information and audio information at the time of interview of the interviewee via the input unit ,
Analyze the acquired image information , identify the state related to the behavior of the interview subject,
Analyze the acquired voice information , identify the state related to the conversation content of the interviewee,
Calculating the degree of conformity between the state related to the behavior of the interview subject and the state related to the content of the conversation, and the condition related to the previously set hiring target,
According to the calculated degree of fitness, a score related to the recruitment of the interviewee is specified,
A program for executing a process of outputting the specified score.
前記コンピュータに、
面接対象者の挙動に関する状態及び会話内容に関する状態に対応付けて質問内容が記憶してあるテーブルを用いて、取得した前記画像情報及び音声情報を解析して特定された前記面接対象者の挙動に関する状態及び会話内容に関する状態に応じて、前記面接対象者に対する質問内容を特定し、
特定した前記質問内容を出力する
処理を実行させる請求項12に記載のプログラム。
On the computer,
Using a table in which the contents of the question are stored in association with the state related to the behavior of the interview target and the state related to the conversation content, the acquired image information and audio information are analyzed to determine the behavior of the interview target. According to the state and the state related to the conversation content, specify the content of the question to the interview subject,
The program according to claim 12, wherein the program executes a process of outputting the identified content of the question.
前記コンピュータに、
面接の方針に関する方針情報を取得し、
面接の方針、面接対象者の挙動に関する状態及び会話内容に関する状態に対応付けて質問内容が記憶してあるテーブルを用いて、取得した前記方針情報と、取得した前記画像情報及び音声情報を解析して特定された前記面接対象者の挙動に関する状態及び会話内容に関する状態とに応じて、前記面接対象者に対する質問内容を特定し、
特定した前記質問内容を出力する
処理を実行させる請求項12又は13に記載のプログラム。
On the computer,
Obtain policy information about the interview policy,
Using a table in which the contents of the question are stored in association with the interview policy, the state of the interviewee's behavior and the state of the conversation, the obtained policy information and the obtained image information and audio information are analyzed. According to the state related to the behavior of the interview target person and the state related to the conversation content specified in the above, the content of the question to the interview target person is specified,
The program according to claim 12, wherein the program executes a process of outputting the identified content of the question.
前記コンピュータに、
面接対象者の状態に応じて予め設定されている、前記面接対象者の面接が良好に進行しているか否かを示す面接の進行状態に関するスコアに基づいて、取得した前記面接対象者の面接時の画像情報を解析して特定された前記面接対象者の挙動に関する状態と、取得した前記面接対象者の面接時の音声情報を解析して特定された前記面接対象者の会話内容に関する状態とに応じて、前記面接対象者の面接が良好に進行しているか否かを示す面接の進行状態に関するスコアを特定する
処理を実行させる請求項12から14までのいずれかひとつに記載のプログラム。
On the computer,
At the time of the interview of the interviewee acquired based on a score related to the progress of the interview, which is set in advance according to the state of the interviewee and indicates whether the interview of the interviewee is progressing favorably or not. The state related to the behavior of the interviewee identified by analyzing the image information, and the state related to the conversation content of the interviewee identified by analyzing the acquired voice information of the interviewee during the interview The program according to any one of claims 12 to 14, further comprising the step of: executing a process of specifying a score regarding an interview progress state indicating whether or not the interview of the interview target is progressing satisfactorily .
前記コンピュータに、
前記面接対象者の面接中の所定時間毎に前記面接対象者の面接の進行状態に関するスコアを特定し、
特定した前記面接の進行状態に関するスコアと、前記所定時間毎に取得した前記画像情報及び音声情報とを対応付けて記憶部に記憶する
処理を実行させる請求項15に記載のプログラム。
On the computer,
Identify scores for progress of the interviewee's interview at predetermined times during the interview the interviews subject,
The program according to claim 15, wherein the storage section associates the identified score regarding the progress of the interview with the image information and the audio information acquired at each of the predetermined times and stores the score in the storage unit.
前記コンピュータに、
前記面接対象者の面接の進行状態に関するスコアを受け付け、
受け付けたスコアに対応付けて記憶されている前記画像情報及び音声情報を前記記憶部から読み出し、
読み出した前記画像情報及び音声情報を出力する
処理を実行させる請求項16に記載のプログラム。
On the computer,
Receiving a score regarding the progress of the interview of the interview subject ,
The image information and the audio information stored in association with the received score are read from the storage unit,
The program according to claim 16, wherein the program executes a process of outputting the read image information and audio information.
前記コンピュータに、
前記記憶部に記憶してある前記画像情報及び音声情報を用いて、面接対象者の言動に係る画像情報及び音声情報に基づいて面接官が行うべき言動に係る情報を出力するように学習された学習済モデルを再学習させる
処理を実行させる請求項1又は1に記載のプログラム。
On the computer,
Using the image information and the voice information stored in the storage unit, it has been learned to output information related to the behavior that the interviewer should perform based on the image information and the voice information related to the behavior of the interviewee. program according to claim 1 6 or 1 7 to execute a process of retraining the learned model.
面接対象者に関する情報を取得する取得部と、
面接対象者に関する情報が入力された場合に、前記面接対象者に適した面接官の情報を出力するように学習された第1学習済モデルに、取得した前記面接対象者に関する情報を入力し前記第1学習済モデルから出力される前記面接官の情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官を特定する面接官特定部と、
面接対象者に関する情報が入力された場合に、前記面接対象者に対する質問内容の情報を出力するように学習された第2学習済モデルに、取得した前記面接対象者に関する情報を入力し、前記第2学習済モデルから出力される前記質問内容の情報に基づいて、前記面接対象者に対する質問内容を特定する質問特定部と
を備える情報処理装置。
An acquisition unit that acquires information about the interviewee,
When information about the interviewee is input, the first trained model that has been learned to output information on the interviewer suitable for the interviewee , inputs the acquired information about the interviewee, An interviewer specifying unit that specifies an interviewer who interviews the interviewee from a plurality of interviewers based on the information of the interviewer output from the first trained model ,
When information about the interview subject is input, the acquired information about the interview subject is input to the second trained model that has been learned to output information on the content of the question to the interview subject, 2 on the basis of information of the question content which is output from the learned model, the information processing apparatus and a question specifying unit for specifying a question Description for the interview subject.
面接対象者の面接時の画像情報及び音声情報を取得する取得部と、
取得した前記画像情報を解析して、前記面接対象者の挙動に関する状態を特定する挙動特定部と、
取得した前記音声情報を解析して、前記面接対象者の会話内容に関する状態を特定する会話特定部と、
特定した前記面接対象者の挙動に関する状態及び会話内容に関する状態と、予め設定してある採用ターゲットに関する条件との適合度を算出する適合度算出部と、
算出した前記適合度に応じて、前記面接対象者の採用に関するスコアを特定する特定部と、
特定した前記スコアを出力する出力部と
を備える情報処理装置。
An acquisition unit that acquires image information and audio information at the time of the interview of the interview target person,
Analyzing the acquired image information , a behavior specifying unit that specifies a state related to the behavior of the interview subject,
Analyzing the acquired voice information , a conversation specifying unit that specifies a state related to the conversation content of the interview target person,
A suitability calculating unit that calculates the suitability of the specified state regarding the behavior of the interview target person and the state related to the conversation content and the preset condition regarding the employed target;
A specifying unit that specifies a score related to the recruitment of the interviewee according to the calculated degree of conformity ;
An output unit configured to output the specified score.
コンピュータが、
面接対象者に関する情報を取得し、
面接対象者に関する情報が入力された場合に、前記面接対象者に適した面接官の情報を出力するように学習された第1学習済モデルに、取得した前記面接対象者に関する情報を入力し前記第1学習済モデルから出力される前記面接官の情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官を特定し
面接対象者に関する情報が入力された場合に、前記面接対象者に対する質問内容の情報を出力するように学習された第2学習済モデルに、取得した前記面接対象者に関する情報を入力し、前記第2学習済モデルから出力される前記質問内容の情報に基づいて、前記面接対象者に対する質問内容を特定する
処理を実行する情報処理方法。
Computer
Get information about the interviewees,
When information about the interviewee is input, the first trained model that has been learned to output information on the interviewer suitable for the interviewee , inputs the acquired information about the interviewee, Based on the information of the interviewer output from the first trained model , specify an interviewer to interview the interviewee from a plurality of interviewers,
When information about the interview subject is input, the acquired information about the interview subject is input to the second trained model that has been learned to output information on the content of the question to the interview subject, 2 on the basis of the question content information output from the learned model, an information processing method for executing a process for identifying the Ask Description for the interview subject.
コンピュータが、
面接対象者の面接時の画像情報及び音声情報を取得し、
取得した前記画像情報を解析して、前記面接対象者の挙動に関する状態を特定し、
取得した前記音声情報を解析して、前記面接対象者の会話内容に関する状態を特定し、
特定した前記面接対象者の挙動に関する状態及び会話内容に関する状態と、予め設定してある採用ターゲットに関する条件との適合度を算出し、
算出した前記適合度に応じて、前記面接対象者の採用に関するスコアを特定し、
特定した前記スコアを出力する
処理を実行する情報処理方法。
Computer
Acquire image information and audio information at the time of the interview of the interviewee,
Analyze the acquired image information , identify the state related to the behavior of the interview subject,
Analyze the acquired voice information , identify the state related to the conversation content of the interviewee,
Calculating the degree of conformity between the specified state regarding the behavior of the interview target person and the state regarding the conversation content, and the preset condition regarding the employed target,
According to the calculated degree of fitness, a score related to the recruitment of the interviewee is specified,
An information processing method for executing a process of outputting the specified score.
コンピュータが、
面接対象者に関する情報を取得し、
面接対象者に関する情報が入力された場合に、前記面接対象者に適した面接官の情報を出力するように学習された第1学習済モデルに、取得した前記面接対象者に関する情報を入力し前記第1学習済モデルから出力される前記面接官の情報に基づいて、複数の面接官から前記面接対象者の面接を行う面接官を特定し
面接対象者に関する情報が入力された場合に、前記面接対象者に対する質問内容の情報を出力するように学習された第2学習済モデルに、取得した前記面接対象者に関する情報を入力し、前記第2学習済モデルから出力される前記質問内容の情報に基づいて、前記面接対象者に対する質問内容を特定し、
特定した前記質問内容を出力し、
前記面接対象者の面接時の画像情報及び音声情報を取得し、
取得した前記画像情報を解析して、前記面接対象者の挙動に関する状態を特定し、
取得した前記音声情報を解析して、前記面接対象者の会話内容に関する状態を特定し、
特定した前記面接対象者の挙動に関する状態及び会話内容に関する状態と、予め設定してある採用ターゲットに関する条件との適合度を算出し、
算出した前記適合度に応じて、前記面接対象者の採用に関するスコアを特定し、
特定した前記スコアを出力する
処理を実行する情報処理方法。
Computer
Get information about the interviewees,
When information about the interviewee is input, the first trained model that has been learned to output information on the interviewer suitable for the interviewee , inputs the acquired information about the interviewee, Based on the information of the interviewer output from the first trained model , specify an interviewer to interview the interviewee from a plurality of interviewers,
When information about the interview subject is input, the acquired information about the interview subject is input to the second trained model that has been learned to output information on the content of the question to the interview subject, 2 based on the information of the question content which is output from the learned model, to identify questions Description for the interviewee's
Output the content of the identified question,
Acquiring image information and audio information at the time of the interview of the interview target person,
Analyze the acquired image information , identify the state related to the behavior of the interview subject,
Analyze the acquired voice information , identify the state related to the conversation content of the interviewee,
Calculating the degree of conformity between the state related to the behavior of the interview subject and the state related to the content of the conversation, and the condition related to the previously set hiring target,
According to the calculated degree of fitness, a score related to the recruitment of the interviewee is specified,
An information processing method for executing a process of outputting the specified score.
JP2018229268A 2018-12-06 2018-12-06 Program, information processing apparatus and information processing method Active JP6649461B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018229268A JP6649461B1 (en) 2018-12-06 2018-12-06 Program, information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018229268A JP6649461B1 (en) 2018-12-06 2018-12-06 Program, information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP6649461B1 true JP6649461B1 (en) 2020-02-19
JP2020091735A JP2020091735A (en) 2020-06-11

Family

ID=69568241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018229268A Active JP6649461B1 (en) 2018-12-06 2018-12-06 Program, information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP6649461B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7166006B2 (en) * 2020-05-26 2022-11-07 株式会社ニューギン game machine
JPWO2022059088A1 (en) * 2020-09-16 2022-03-24
JP7164258B1 (en) 2022-06-22 2022-11-01 株式会社Value market Information processing system, information processing method and program
JP7278011B1 (en) * 2022-12-06 2023-05-19 株式会社Okan Information processing system, information processing method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263537A (en) * 2002-03-07 2003-09-19 Sanyo Electric Co Ltd Communication method, communication system, central device, computer program, and storage medium
JP5449434B2 (en) * 2012-03-12 2014-03-19 ソフトバンクモバイル株式会社 Interview support server device, system, and program
JP6042015B1 (en) * 2016-06-07 2016-12-14 株式会社採用と育成研究社 Online interview evaluation apparatus, method and program
JP6500142B1 (en) * 2018-03-20 2019-04-10 ヤフー株式会社 Selection device, selection method, and selection program

Also Published As

Publication number Publication date
JP2020091735A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
JP6649461B1 (en) Program, information processing apparatus and information processing method
Naim et al. Automated analysis and prediction of job interview performance
Timming The effect of foreign accent on employability: A study of the aural dimensions of aesthetic labour in customer-facing and non-customer-facing jobs
CN115413348B (en) System and method for automatically verifying and quantifying interview question answers
JP6531323B1 (en) PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD
US7966265B2 (en) Multi-modal automation for human interactive skill assessment
US20170213190A1 (en) Method and system for analysing subjects
JP2020154093A (en) Education support system, method, and program
JP6664818B1 (en) Program, information processing apparatus and information processing method
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
WO2018112134A2 (en) Computer automated method and system for measurement of user energy, attitude, and interpersonal skills
JP6576141B2 (en) A program that can estimate the group state from characteristic words
JP7334913B2 (en) Interview support system
JP2015104078A (en) Imaging apparatus, imaging system, server, imaging method and imaging program
KR101800546B1 (en) Virtual interview system
US20230290505A1 (en) Context Aware Assessment
KR102503488B1 (en) Collaborative methods and systems for the diagnosis and treatment of developmental disorders
JP6724227B1 (en) Conference support device, conference support method, and conference support program
JP7040593B2 (en) Customer service support device, customer service support method, and customer service support program
Tripathi et al. Discover cross-modal human behavior analysis
JP2023055296A (en) Compatibility assessment system, method, and program
WO2023112745A1 (en) Information processing method, information processing device and information processing program
JP7152825B1 (en) VIDEO SESSION EVALUATION TERMINAL, VIDEO SESSION EVALUATION SYSTEM AND VIDEO SESSION EVALUATION PROGRAM
US20230116808A1 (en) Information processing device and program
WO2022180862A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6649461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350