JP7496098B1 - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP7496098B1
JP7496098B1 JP2023209444A JP2023209444A JP7496098B1 JP 7496098 B1 JP7496098 B1 JP 7496098B1 JP 2023209444 A JP2023209444 A JP 2023209444A JP 2023209444 A JP2023209444 A JP 2023209444A JP 7496098 B1 JP7496098 B1 JP 7496098B1
Authority
JP
Japan
Prior art keywords
information processing
interview
evaluation
recruiter
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023209444A
Other languages
Japanese (ja)
Inventor
太一 遠藤
Original Assignee
株式会社リブセンス
Filing date
Publication date
Application filed by 株式会社リブセンス filed Critical 株式会社リブセンス
Application granted granted Critical
Publication of JP7496098B1 publication Critical patent/JP7496098B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】求人者と求職者との面談内容を管理しやすい情報処理システム等を提供する。
【解決手段】本発明の一態様によれば、求人者と求職者とのオンライン面談を支援する情報処理システムが提供される。この情報処理システムは、制御部を備える。制御部は、次の各ステップを実行するように構成される。面談実行ステップでは、求人者と求職者とのオンライン面談を実行させる。抽出ステップでは、オンライン面談の一部である重要箇所を抽出する。表示制御ステップでは、抽出された重要箇所を要約した要約テキストを求人者に視認可能に表示させる。評価付与ステップでは、求人者による要約テキストに対応する評価を、要約テキストに紐づけて付与する。
【選択図】図1

The present invention provides an information processing system etc. that makes it easy to manage the content of interviews between employers and job seekers.
[Solution] According to one aspect of the present invention, there is provided an information processing system that supports online interviews between recruiters and job seekers. The information processing system includes a control unit. The control unit is configured to execute the following steps. In the interview execution step, an online interview between the recruiter and the job seeker is executed. In the extraction step, important points that are part of the online interview are extracted. In the display control step, a summary text summarizing the extracted important points is displayed visibly to the recruiter. In the evaluation assignment step, an evaluation by the recruiter corresponding to the summary text is assigned in association with the summary text.
[Selected Figure] Figure 1

Description

特許法第30条第2項適用 令和5年3月29日に、株式会社リブセンスのウェブサイトhttps://www.livesense.co.jp/news/2023/03/29/4196/にて公開Application of Article 30, Paragraph 2 of the Patent Act Published on March 29, 2023 on the Livesense Corporation website https://www.livesense.co.jp/news/2023/03/29/4196/

本発明は、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

近年、通信回線を介して企業等の採用面接を行う場面が増えてきている。例えば、特許文献1には、面接時の音声データに含まれている情報をユーザが確認しやすくする技術が開示されている。 In recent years, there has been an increase in the number of cases where job interviews are conducted at companies and other organizations via communication lines. For example, Patent Document 1 discloses a technology that makes it easier for users to check information contained in voice data from an interview.

特開2021-26686号公報JP 2021-26686 A

ところで、企業等の求人者においては、採用プロセスにおいて判断のぶれを少なくする必要がある。また、このような観点で、求職者との面談内容を適切に管理する必要がある。 Meanwhile, companies and other employers need to minimize inconsistencies in their judgment during the hiring process. From this perspective, it is also necessary to properly manage the content of interviews with job seekers.

本発明では上記事情に鑑み、求人者と求職者との面談内容を管理しやすい情報処理システム等を提供することとした。 In consideration of the above circumstances, the present invention aims to provide an information processing system etc. that makes it easy to manage the content of interviews between employers and job seekers.

本発明の一態様によれば、求人者と求職者とのオンライン面談を支援する情報処理システムが提供される。この情報処理システムは、制御部を備える。制御部は、次の各ステップを実行するように構成される。面談実行ステップでは、求人者と求職者とのオンライン面談を実行させる。抽出ステップでは、オンライン面談の一部である重要箇所を抽出する。表示制御ステップでは、抽出された重要箇所を要約した要約テキストを求人者に視認可能に表示させる。評価付与ステップでは、求人者による要約テキストに対応する評価を、要約テキストに紐づけて付与する。 According to one aspect of the present invention, there is provided an information processing system that supports online interviews between an employer and a job seeker. The information processing system includes a control unit. The control unit is configured to execute the following steps. In the interview execution step, an online interview between an employer and a job seeker is executed. In the extraction step, important points that are part of the online interview are extracted. In the display control step, a summary text summarizing the extracted important points is displayed visibly to the employer. In the evaluation assignment step, an evaluation by the employer corresponding to the summary text is assigned in association with the summary text.

このような態様によれば、求人者と求職者との面談内容を管理しやすい情報処理システム等が提供される。 According to this aspect, an information processing system that can easily manage the content of interviews between employers and job seekers is provided.

情報処理システムの全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of an information processing system; 求人者端末のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of a recruiter terminal. 情報処理装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the information processing device. 情報処理装置の機能構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the information processing device. 情報処理方法の流れを示すシーケンス図である。FIG. 11 is a sequence diagram showing the flow of an information processing method. 求人者端末の表示部に表示される画面の一例を示す図である。FIG. 13 is a diagram showing an example of a screen displayed on a display unit of the recruiter terminal. 求人者端末の表示部に表示される画面の一例を示す図である。FIG. 13 is a diagram showing an example of a screen displayed on a display unit of a recruiter terminal. 評価テンプレート群の一例を示す図である。FIG. 13 is a diagram illustrating an example of an evaluation template group. 求人者端末の表示部に表示される画面の一例を示す図である。FIG. 13 is a diagram showing an example of a screen displayed on a display unit of a recruiter terminal. 会話テキストの一例を示す図である。FIG. 13 is a diagram showing an example of a conversation text. 求人者端末の表示部に表示される画面の一例を示す図である。FIG. 13 is a diagram showing an example of a screen displayed on a display unit of a recruiter terminal. 求人者端末の表示部に表示される画面の一例を示す図である。FIG. 13 is a diagram showing an example of a screen displayed on a display unit of the recruiter terminal. 求人者端末の表示部に表示される画面の一例を示す図である。FIG. 13 is a diagram showing an example of a screen displayed on a display unit of a recruiter terminal.

以下、本発明の実施形態について説明する。なお、以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 The following describes embodiments of the present invention. Note that the various features shown in the following embodiments can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 The program for implementing the software used in this embodiment may be provided as a non-transitory computer-readable recording medium, or may be provided so that it can be downloaded from an external server, or may be provided so that the program is started on an external computer and its functions are implemented on a client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 In this embodiment, a "unit" may also include, for example, a combination of hardware resources implemented by a circuit in the broad sense and software information processing that can be specifically realized by these hardware resources. In addition, this embodiment handles various types of information, which may be represented, for example, by physical values of signal values representing voltage and current, high and low signal values as a binary bit collection consisting of 0 or 1, or quantum superposition (so-called quantum bits), and communication and calculations may be performed on a circuit in the broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 In the broad sense, a circuit is a circuit realized by at least appropriately combining a circuit, circuitry, a processor, and memory. In other words, it includes application specific integrated circuits (ASICs), programmable logic devices (e.g., simple programmable logic devices (SPLDs), complex programmable logic devices (CPLDs), and field programmable gate arrays (FPGAs)), etc.

1.ハードウェア構成
本節では、本実施形態にかかる情報処理システム1のハードウェア構成について説明する。図1は、情報処理システム1の全体構成を示すブロック図である。
1. Hardware Configuration In this section, a hardware configuration of an information processing system 1 according to the present embodiment will be described. FIG 1 is a block diagram showing the overall configuration of the information processing system 1.

1.1 情報処理システム1
情報処理システム1は、採用プロセスにおける求人者と求職者とのオンライン面談を支援するためのコンピュータシステムである。求人者とは、1又は複数の労働者が従業者として所属する組織である。組織は、企業、官公庁、病院、学校、その他の団体、又はこれらに属する部署であってよい。実際には、求人者である組織に所属する面接官がオンライン面談を担当する。面接官は採用プロセスにおいて求人者の代表者の役割を担うため、以下で「面接官」との記載は「求人者」と読み替えられ得、「求人者」との記載は「面接官」と読み替えられ得る。
1.1 Information Processing System 1
The information processing system 1 is a computer system for supporting online interviews between recruiters and job seekers in the recruitment process. The recruiter is an organization to which one or more workers belong as employees. The organization may be a company, a government agency, a hospital, a school, or other organization, or a department belonging to any of these. In reality, an interviewer belonging to the recruiter organization is in charge of the online interview. Since the interviewer plays the role of the recruiter's representative in the recruitment process, in the following, the description of "interviewer" can be read as "recruiter", and the description of "recruiter" can be read as "interviewer".

情報処理システム1は、情報処理装置2と、求人者端末3と、求職者端末4とを備える。情報処理装置2、求人者端末3及び求職者端末4は、インターネット等のネットワークNWを介して互いに通信可能に接続される。なお、情報処理システム1に例示されるシステムとは、1つ又はそれ以上の装置又は構成要素からなるものである。したがって、情報処理装置2単体であってもシステムの一例となる。 The information processing system 1 comprises an information processing device 2, an employer terminal 3, and a job seeker terminal 4. The information processing device 2, the employer terminal 3, and the job seeker terminal 4 are communicatively connected to each other via a network NW such as the Internet. Note that a system exemplified as the information processing system 1 is made up of one or more devices or components. Therefore, even the information processing device 2 alone is an example of a system.

1.2 求人者端末3
求人者端末3は、求人者である組織に所属する面接官が操作するコンピュータ端末である。求人者端末3は、求職者とのオンライン面談において面接官により操作され、オンライン面談後に情報処理装置2が管理する面談の内容を閲覧又は評価するために面接官により操作される。例えば求人者端末3は、スマートフォン、タブレット端末、パーソナルコンピュータ、又はその他入出力可能な通信端末である。
1.2 Recruiter terminal 3
The recruiter terminal 3 is a computer terminal operated by an interviewer belonging to an organization that is the recruiter. The recruiter terminal 3 is operated by the interviewer in an online interview with a job seeker, and is operated by the interviewer after the online interview to view or evaluate the content of the interview managed by the information processing device 2. For example, the recruiter terminal 3 is a smartphone, a tablet terminal, a personal computer, or other communication terminal capable of input and output.

図2は、求人者端末3のハードウェア構成を示すブロック図である。求人者端末3は、制御部31と、通信部35と、記憶部36と、入力部37と、表示部38と、音声出力部39とを備え、これらの構成要素が求人者端末3の内部において通信バスを介して電気的に接続されている。制御部31、通信部35及び記憶部36については、後述の、情報処理装置2における制御部21、通信部25及び記憶部26と略同様のため省略する。 Figure 2 is a block diagram showing the hardware configuration of the recruiter terminal 3. The recruiter terminal 3 comprises a control unit 31, a communication unit 35, a memory unit 36, an input unit 37, a display unit 38, and an audio output unit 39, and these components are electrically connected via a communication bus inside the recruiter terminal 3. The control unit 31, communication unit 35, and memory unit 36 are omitted because they are substantially similar to the control unit 21, communication unit 25, and memory unit 26 in the information processing device 2 described below.

入力部37は、求人者端末3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部37は、表示部38と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザである面接官は、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。すなわち、入力部37がユーザによってなされた操作入力を受け付ける。当該入力が命令信号として、通信バスを介して制御部31に転送され、制御部31が必要に応じて所定の制御や演算を実行しうる。 The input unit 37 may be included in the housing of the recruiter terminal 3, or may be attached externally. For example, the input unit 37 may be implemented as a touch panel integrated with the display unit 38. If it is a touch panel, the interviewer, who is the user, can input tapping, swiping, and the like. Of course, switch buttons, a mouse, a QWERTY keyboard, and the like may be used instead of a touch panel. In other words, the input unit 37 accepts operational inputs made by the user. The input is transferred as a command signal via the communication bus to the control unit 31, and the control unit 31 can execute predetermined control and calculations as necessary.

また入力部37は、画像を撮影するためのカメラ及び音声を入力するためのマイクを含む。画像は静止画であってもよいし、動画であってもよい。すなわち、入力部37は、ユーザを撮影した画像又はユーザによって発せられた音声を取得する。当該入力は、画像データ又は音声データとして、通信バスを介して制御部31に転送され、制御部31が必要に応じて所定の制御や演算を実行しうる。 The input unit 37 also includes a camera for capturing images and a microphone for inputting audio. The images may be still images or video. That is, the input unit 37 acquires images of the user or audio uttered by the user. The input is transferred as image data or audio data to the control unit 31 via the communication bus, and the control unit 31 can execute predetermined control or calculations as necessary.

表示部38は、例えば、求人者端末3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部38は、ユーザが操作可能なグラフィカルユーザインターフェース(GraphicalUserInterface:GUI)の画面を表示する。これは例えば、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスを、求人者端末3の種類に応じて使い分けて実施することが好ましい。 The display unit 38 may be, for example, included in the housing of the recruiter terminal 3, or may be attached externally. The display unit 38 displays a graphical user interface (Graphical User Interface: GUI) screen that can be operated by the user. This is preferably implemented by using display devices such as a CRT display, a liquid crystal display, an organic EL display, and a plasma display, depending on the type of recruiter terminal 3.

音声出力部39は、例えば、求人者端末3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。音声出力部39は、ユーザが認識可能な音声を出力する。音声出力部39は、無指向性スピーカーであってもよいし、指向性スピーカーであってもよいし、これらの両方を有していてもよい。 The audio output unit 39 may be, for example, included in the housing of the recruiter terminal 3, or may be attached externally. The audio output unit 39 outputs audio that can be recognized by the user. The audio output unit 39 may be an omnidirectional speaker, a directional speaker, or may have both.

1.3 求職者端末4
求職者端末4は、求職者が操作するコンピュータ端末である。求職者端末4は、求人者側の面接官とのオンライン面談において求職者により操作される。例えば求職者端末4は、スマートフォン、タブレット端末、パーソナルコンピュータ、又はその他入出力可能な通信端末である。求職者端末4は、制御部と、通信部と、記憶部と、入力部と、表示部と、音声出力部とを備え、これらの構成要素が求職者端末4の内部において通信バスを介して電気的に接続されている。制御部、通信部、記憶部、入力部、表示部及び音声出力部は、上述の求人者端末3における制御部31、通信部35、記憶部36、入力部37、表示部38及び音声出力部39の記載を参照されたい。
1.3 Job Seeker Terminal 4
The job seeker terminal 4 is a computer terminal operated by the job seeker. The job seeker terminal 4 is operated by the job seeker during an online interview with an interviewer from the employer's side. For example, the job seeker terminal 4 is a smartphone, a tablet terminal, a personal computer, or other communication terminal capable of input and output. The job seeker terminal 4 includes a control unit, a communication unit, a memory unit, an input unit, a display unit, and an audio output unit, and these components are electrically connected via a communication bus inside the job seeker terminal 4. For the control unit, communication unit, memory unit, input unit, display unit, and audio output unit, please refer to the descriptions of the control unit 31, communication unit 35, memory unit 36, input unit 37, display unit 38, and audio output unit 39 in the employer's terminal 3 described above.

1.4 情報処理装置2
情報処理装置2は、採用プロセスにおける求人者と求職者とのオンライン面談を支援するコンピュータである。具体的には情報処理装置2は、求人者と求職者とが採用プロセスにおいてオンライン面談を実行し、オンライン面談の内容を管理する。例えば情報処理装置2は、サーバ・コンピュータである。
1.4 Information processing device 2
The information processing device 2 is a computer that supports online interviews between recruiters and job seekers in the hiring process. Specifically, the information processing device 2 executes online interviews between recruiters and job seekers in the hiring process and manages the contents of the online interviews. For example, the information processing device 2 is a server computer.

図3は、情報処理装置2のハードウェア構成を示すブロック図である。情報処理装置2は、制御部21と、通信部25と、記憶部26とを備え、これらの構成要素が情報処理装置2の内部において通信バスを介して電気的に接続されている。 Figure 3 is a block diagram showing the hardware configuration of the information processing device 2. The information processing device 2 includes a control unit 21, a communication unit 25, and a storage unit 26, and these components are electrically connected via a communication bus inside the information processing device 2.

制御部21は、プロセッサ22と、ROM23と、RAM24とを備える。プロセッサ22は、ROM23又は記憶部26に記憶されたプログラムを実行することにより、各機能を実現する。各機能については次節で詳述する。ROM23は、ROM(Read-only memory)等の非一時的な記憶媒体であり、プロセッサ22が各種制御又は演算を行うための各種プログラム又はデータが予め格納されている。RAM24は、RAM(Random Access Memory)等の揮発性記憶媒体であり、プロセッサ22の動作時に一時的に情報を保持するための記憶領域である。このRAM24には、本実施形態による各種処理を行うためのエリアが確保可能になっている。 The control unit 21 includes a processor 22, a ROM 23, and a RAM 24. The processor 22 executes programs stored in the ROM 23 or the storage unit 26 to realize each function. Each function will be described in detail in the next section. The ROM 23 is a non-transient storage medium such as a read-only memory (ROM), and stores in advance various programs or data for the processor 22 to perform various controls or calculations. The RAM 24 is a volatile storage medium such as a random access memory (RAM), and is a storage area for temporarily holding information when the processor 22 is operating. Areas for performing various processes according to this embodiment can be secured in this RAM 24.

通信部25はネットワークNWに接続するための通信インターフェースである。記憶部26は、非一時的なコンピュータ可読媒体又は実体のある記憶媒体を含む記憶装置である。 The communication unit 25 is a communication interface for connecting to the network NW. The storage unit 26 is a storage device including a non-transitory computer-readable medium or a tangible storage medium.

2.機能構成
本節では、本実施形態の機能構成について説明する。
図4は、情報処理装置2の機能構成を示すブロック図である。情報処理装置2の制御部21はプログラムを実行することにより、面談実行部211、抽出部212、要約部213、表示制御部214及び評価付与部215の機能を実現する。
2. Functional Configuration In this section, the functional configuration of this embodiment will be described.
4 is a block diagram showing the functional configuration of the information processing device 2. The control unit 21 of the information processing device 2 executes a program to realize the functions of an interview execution unit 211, an extraction unit 212, a summary unit 213, a display control unit 214, and an evaluation assignment unit 215.

面談実行部211は、面談実行ステップとして、面接官と求職者とのオンライン面談を実行させる。例えば面談実行部211は、求人者端末3と求職者端末4との間の音声データの送受信を中継する。また面談実行部211は、オンライン面談において求人者端末3及び求職者端末4から取得した画像データ及び音声データを互いに紐づけて記憶部26に記憶する。 As an interview execution step, the interview execution unit 211 executes an online interview between an interviewer and a job seeker. For example, the interview execution unit 211 relays the transmission and reception of voice data between the employer terminal 3 and the job seeker terminal 4. The interview execution unit 211 also links the image data and voice data acquired from the employer terminal 3 and the job seeker terminal 4 during the online interview to each other and stores them in the memory unit 26.

抽出部212は、抽出ステップとして、オンライン面談の会話テキストの一部である重要箇所を抽出する。会話テキストは、抽出部212がオンライン面談の音声データに対して音声認識処理を施すことにより、オンライン面談の音声データから変換されたテキストデータである。具体的には抽出部212は、後述する印象タグが付されたタイミングに基づいて、オンライン面談の会話テキストの一部であるテキストデータを重要箇所として抽出する。 As an extraction step, the extraction unit 212 extracts important points that are part of the conversation text of the online interview. The conversation text is text data converted from the voice data of the online interview by the extraction unit 212 performing voice recognition processing on the voice data of the online interview. Specifically, the extraction unit 212 extracts text data that is part of the conversation text of the online interview as important points based on the timing at which an impression tag, which will be described later, was attached.

要約部213は、要約ステップとして、抽出された重要箇所を要約した要約テキストを生成する。 As a summarization step, the summarization unit 213 generates a summary text that summarizes the extracted important points.

表示制御部214は、表示制御ステップとして、抽出された重要箇所を要約した要約テキストを面接官に視認可能に表示させる。具体的には、表示制御部214は、要約テキストを求人者端末3に送信し、求人者端末3の表示部38に表示させる。 As a display control step, the display control unit 214 displays a summary text summarizing the extracted important points so that it can be viewed by the interviewer. Specifically, the display control unit 214 transmits the summary text to the employer terminal 3 and displays it on the display unit 38 of the employer terminal 3.

評価付与部215は、評価付与ステップにおいて、面接官による要約テキストに対応する評価を求人者端末3から受け付け、受け付けた評価を要約テキストに紐づけて付与する。評価の態様については後で詳述する。 In the evaluation step, the evaluation assignment unit 215 receives an evaluation by the interviewer corresponding to the summary text from the employer terminal 3, and assigns the received evaluation by linking it to the summary text. The manner in which the evaluation is performed will be described in detail later.

3.情報処理システム1の動作について
第3節では、図を参照しながら情報処理装置2により実行される情報処理方法の流れについて説明する。なお、処理の順番は適宜入れ替えることができ、複数の処理が同時に実行されてもよいし、一部の処理が省略されてもよい。
3. Operation of the Information Processing System 1 In Section 3, the flow of the information processing method executed by the information processing device 2 will be described with reference to the drawings. Note that the order of the processes can be changed as appropriate, multiple processes can be executed simultaneously, and some processes can be omitted.

3.1 情報処理の概要
図5は、情報処理方法の流れを示すシーケンス図である。まず求人者端末3は、オンライン面談のURL(Uniform Resource Locator)にアクセスし、情報処理装置2に対してオンライン面談に関するログイン要求を送信する(S101)。このときログイン要求には、面接官のIDが含まれる。例えば面接官のIDは面接官のメールアドレスである。なおオンライン面談のURLは、オンライン面談を識別する面談IDと対応する。
3.1 Overview of information processing Figure 5 is a sequence diagram showing the flow of the information processing method. First, the recruiter terminal 3 accesses the URL (Uniform Resource Locator) of the online interview and sends a login request for the online interview to the information processing device 2 (S101). At this time, the login request includes the interviewer's ID. For example, the interviewer's ID is the interviewer's email address. The URL of the online interview corresponds to the interview ID that identifies the online interview.

次にログイン要求を受信した情報処理装置2の面談実行部211は、面接官の認証を実行し、求人者用の待機処理を実行する(S102)。求人者用の待機処理については、後で詳述する。 Next, the interview execution unit 211 of the information processing device 2 that has received the login request performs authentication of the interviewer and executes standby processing for the employer (S102). The standby processing for the employer will be described in detail later.

また求職者端末4は、上述したオンライン面談のURLにアクセスし、情報処理装置2に対して入室要求を送信する(S103)。このとき入室要求には、求職者のIDが含まれる。例えば求職者のIDは、求職者のメールアドレスである。 The job seeker terminal 4 also accesses the URL of the online interview described above and transmits an entry request to the information processing device 2 (S103). At this time, the entry request includes the job seeker's ID. For example, the job seeker's ID is the job seeker's email address.

次に入室要求を受信した情報処理装置2の面談実行部211は、求職者に対して待機処理を実行する(S104)。 Next, the interview execution unit 211 of the information processing device 2 that receives the entry request executes a waiting process for the job seeker (S104).

面接官の操作により、求人者端末3が情報処理装置2に面談開始要求を送信すると(S105)、情報処理装置2の面談実行部211は、オンライン面談を開始する(S106)。具体的には面談実行部211は、求職者端末4から取得した画像データ及び音声データを、ネットワークNWを介して求人者端末3に送信し、画像データを求人者端末3の表示部38に、音声データを求人者端末3の音声出力部39に出力させる。一方で面談実行部211は、求人者端末3から取得した画像データ及び音声データを、ネットワークNWを介して求職者端末4に送信し、画像データを求職者端末4の表示部に、音声データを求職者端末4の音声出力部に出力させる。 When the interviewer operates the employer terminal 3 to send an interview start request to the information processing device 2 (S105), the interview execution unit 211 of the information processing device 2 starts the online interview (S106). Specifically, the interview execution unit 211 transmits the image data and voice data acquired from the job seeker terminal 4 to the employer terminal 3 via the network NW, and causes the image data to be output to the display unit 38 of the employer terminal 3 and the voice data to the voice output unit 39 of the employer terminal 3. On the other hand, the interview execution unit 211 transmits the image data and voice data acquired from the employer terminal 3 to the job seeker terminal 4 via the network NW, and causes the image data to be output to the display unit of the job seeker terminal 4 and the voice data to be output to the voice output unit of the job seeker terminal 4.

このとき面談実行部211は、面接官の録音録画開始操作に応じて、又は自動で、オンライン面談の録音及び録画を開始する。すなわち面談実行部211は、求人者端末3及び求職者端末4から取得した画像データ及び音声データを、面談ID又は求職者名に紐づけて記憶部26に格納してよい。 At this time, the interview execution unit 211 starts recording and recording the online interview in response to the interviewer's operation to start recording or automatically. That is, the interview execution unit 211 may store the image data and audio data acquired from the employer terminal 3 and the job seeker terminal 4 in the memory unit 26 by linking them to the interview ID or the job seeker name.

面接官は、面談中に感じた印象や評価を類型化した印象タグを面談中に入力することができる。面接官が印象タグを入力すると、求人者端末3は印象タグを情報処理装置2に送信する(S107)。より具体的には、求人者端末3は、入力時刻、又は録画中の動画において印象タグが入力された時間位置と、印象タグの種別とを対応付けた情報を、情報処理装置2に送信する。 During the interview, the interviewer can input impression tags that categorize the impressions and evaluations they had during the interview. When the interviewer inputs the impression tag, the recruiter terminal 3 transmits the impression tag to the information processing device 2 (S107). More specifically, the recruiter terminal 3 transmits information that associates the input time, or the time position in the video being recorded at which the impression tag was input, with the type of impression tag to the information processing device 2.

印象タグを受信した情報処理装置2の面談実行部211は、印象タグを記録する(S108)。より具体的には面談実行部211は、面談ID又は求職者名と、入力時刻又は上記時間位置と、印象タグの種別とを対応付けた情報を、記憶部26に格納する。 The interview execution unit 211 of the information processing device 2 that has received the impression tag records the impression tag (S108). More specifically, the interview execution unit 211 stores in the memory unit 26 information that associates the interview ID or job seeker name with the input time or the above-mentioned time position, and the type of impression tag.

そして面接官の操作により、求人者端末3が情報処理装置2に面談終了要求を送信すると(S109)、情報処理装置2の面談実行部211は、オンライン面談を終了する(S110)。このとき面談実行部211は、録音及び録画も終了する。なお面談実行部211は、面談終了前に面接官の録音録画終了操作を検出した場合には、録音及び録画を終了してよい。そして面談実行部211は、求職者端末4がオンライン面談から退出するための退出処理を実行する(S111)。 When the interviewer operates the employer terminal 3 to send an interview end request to the information processing device 2 (S109), the interview execution unit 211 of the information processing device 2 ends the online interview (S110). At this time, the interview execution unit 211 also ends audio and video recording. Note that if the interview execution unit 211 detects an operation to end audio and video recording by the interviewer before the end of the interview, it may end audio and video recording. The interview execution unit 211 then executes an exit process for the job seeker terminal 4 to exit the online interview (S111).

オンライン面談が終了すると、情報処理装置2の抽出部212は、オンライン面談において録音した音声データに対して音声認識処理を施すことにより、文字起こしされた会話テキストを生成する(S112)。このとき抽出部212は、音声認識処理により話者を特定してもよい。 When the online interview is completed, the extraction unit 212 of the information processing device 2 generates a transcribed conversation text by performing a voice recognition process on the voice data recorded during the online interview (S112). At this time, the extraction unit 212 may identify the speaker by the voice recognition process.

次に抽出部212は、オンライン面談中に入力された印象タグに基づいて、会話テキストから重要箇所を抽出する(S113)。抽出処理については、後で詳述する。 Next, the extraction unit 212 extracts important points from the conversation text based on the impression tags entered during the online interview (S113). The extraction process will be described in detail later.

次に要約部213は、抽出された重要箇所を、機械学習済モデルを用いて要約し、要約テキストを生成する(S114)。機械学習済モデルは、テキスト生成系AIの機能を有するモデルである。機械学習済モデルは、一例としてChatGPT又はGoogle(登録商標) Bardであるが、これに限られない。 Next, the summarization unit 213 summarizes the extracted important parts using the machine-learned model to generate a summary text (S114). The machine-learned model is a model that has the function of a text generation AI. Examples of the machine-learned model include ChatGPT or Google (registered trademark) Bard, but are not limited to these.

次に表示制御部214は、求人者端末3に要約テキストを送信し、求人者端末3の表示部38に表示させる(S115)。要約テキストを閲覧した面接官が、要約テキストに対する評価を入力すると、求人者端末3は、付与された評価の情報を情報処理装置2に送信する(S116)。 Next, the display control unit 214 transmits the summary text to the recruiter terminal 3 and causes it to be displayed on the display unit 38 of the recruiter terminal 3 (S115). When the interviewer who has viewed the summary text inputs an evaluation of the summary text, the recruiter terminal 3 transmits information on the assigned evaluation to the information processing device 2 (S116).

そして情報処理装置2の評価付与部215は、受信した評価の情報と、要約テキストとを紐づけた情報を、記憶部26に記録する(S117)。 Then, the rating assignment unit 215 of the information processing device 2 records information linking the received rating information with the summary text in the memory unit 26 (S117).

[効果]
このように本実施形態の情報処理装置2は、オンライン面談の重要箇所を要約した要約テキストを表示して、求人者による評価を受け付ける。これにより求人者がオンライン面談の内容を容易に把握できる。また情報処理装置2は、要約テキストと評価とを紐づけた情報を記録するため、次の面接官への情報の引継ぎを容易にできる。したがって採用プロセスにおいて判断のぶれを少なくすることができる。このように情報処理装置2は、求人者がオンライン面談の内容を管理することを容易にする。
[effect]
In this way, the information processing device 2 of this embodiment displays a summary text that summarizes important points of the online interview and accepts an evaluation from the recruiter. This allows the recruiter to easily understand the content of the online interview. In addition, the information processing device 2 records information that links the summary text with the evaluation, making it easy to hand over the information to the next interviewer. This makes it possible to reduce inconsistencies in judgment during the hiring process. In this way, the information processing device 2 makes it easy for the recruiter to manage the content of the online interview.

3.2 情報処理の詳細
(面接官に対する待機処理:S102)
求人者端末3からログイン要求を受信した情報処理装置2の面談実行部211は、面接官の認証を実行し、その後、オンライン面談が開始するまで、求人者端末3の表示部38に求人者用の待機画面を表示させる。また求職者端末4から入室要求を受信した面談実行部211は、求職者の認証を実行し、その後、オンライン面談が開始するまで求職者端末4の表示部に求職者用の待機画面を表示させる。
3.2 Details of Information Processing (Waiting for Interviewer: S102)
The interview execution unit 211 of the information processing device 2, which has received a login request from the employer terminal 3, authenticates the interviewer, and then causes the display unit 38 of the employer terminal 3 to display a standby screen for the employer until the online interview begins. Also, the interview execution unit 211, which has received an entry request from the job seeker terminal 4, authenticates the job seeker, and then causes the display unit 38 of the job seeker terminal 4 to display a standby screen for the job seeker until the online interview begins.

図6は、求人者端末3の表示部38に表示される画面5の一例を示す図である。画面5は、求人者用の待機画面である。画面5は、待機中の求職者の情報を含む。一例として図6に示すように、画面5は、ホームタブ50、共通ロビータブ51、求職者一覧タブ52、及び待機中の求職者名53を含む。
ホームタブ50は、ホーム画面を表示するためのタブである。
共通ロビータブ51は、求人者用の待機画面を表示するためのタブである。図6は、複数のタブのうち共通ロビータブ51が選択された状態である。
求職者一覧タブ52は、面談IDに対応するオンライン面談に参加する求職者の情報を一覧で表示するためのタブである。
求職者名53は、面談IDに対応するオンライン面談に参加する求職者のうち、待機中の求職者を識別する氏名である。
Fig. 6 is a diagram showing an example of screen 5 displayed on the display unit 38 of the recruiter terminal 3. Screen 5 is a waiting screen for the recruiter. Screen 5 includes information on waiting job seekers. As shown in Fig. 6 as an example, screen 5 includes a home tab 50, a common lobby tab 51, a job seeker list tab 52, and names of waiting job seekers 53.
The home tab 50 is a tab for displaying a home screen.
The common lobby tab 51 is a tab for displaying a waiting screen for recruiters. Fig. 6 shows a state in which the common lobby tab 51 is selected from among a plurality of tabs.
The job seeker list tab 52 is a tab for displaying a list of information on job seekers participating in an online interview corresponding to the interview ID.
The job seeker name 53 is a name that identifies a job seeker who is waiting to participate in the online interview corresponding to the interview ID.

面接官により求職者名53が選択されると、求人者端末3の表示画面が画面5から、図7に示す画面6に遷移する。
図7は、求人者端末3の表示部に表示される画面6の一例を示す図である。図7に示すように画面6は、待機中の求職者の詳細情報として求職者情報60を含む。例えば求職者情報60としては、求職者名、所属組織、及び経歴が挙げられるが、これに限らない。
When the job seeker's name 53 is selected by the interviewer, the display screen of the recruiter terminal 3 transitions from screen 5 to screen 6 shown in FIG.
Fig. 7 is a diagram showing an example of a screen 6 displayed on the display unit of the recruiter terminal 3. As shown in Fig. 7, the screen 6 includes job seeker information 60 as detailed information on waiting job seekers. For example, the job seeker information 60 may include, but is not limited to, the job seeker's name, organization, and career history.

また画面6は、選択領域61と、入室ボタン62とをさらに含む。選択領域61は、オンライン面談において求人者端末3の表示部38に表示する項目を定めた評価テンプレートを面接官が選択するための選択領域である。評価テンプレートについては、後で詳述する。
入室ボタン62は、面接官がオンライン面談を開始するためのボタンである。入室ボタン62が選択されると、求人者端末3は情報処理装置2に面接開始要求を送信する。これにより情報処理装置2の面談実行部211は、求人者端末3の表示画面を、画面6からオンライン面談開始後の求人者端末3の画面7に遷移させる。
The screen 6 further includes a selection area 61 and an enter button 62. The selection area 61 is a selection area for the interviewer to select an evaluation template that defines items to be displayed on the display unit 38 of the recruiter terminal 3 during the online interview. The evaluation template will be described in detail later.
The ENTER button 62 is a button that allows the interviewer to start an online interview. When the ENTER button 62 is selected, the recruiter terminal 3 sends an interview start request to the information processing device 2. This causes the interview execution unit 211 of the information processing device 2 to transition the display screen of the recruiter terminal 3 from screen 6 to screen 7 of the recruiter terminal 3 after the start of the online interview.

このように面接官は、待機画面において、待機中の求職者の情報を確認し、オンライン面談中に確認可能な情報を設定できる。 In this way, interviewers can check the information of waiting job seekers on the waiting screen and set the information that can be viewed during the online interview.

図8は、評価テンプレート群T1の一例を示す図である。評価テンプレート群T1は、求人者ごとに生成され、情報処理装置2の記憶部26に格納されている。例えば評価テンプレート群T1は、1又複数の評価テンプレートT11,T12,T13を含む。各評価テンプレートT11,T12,T13は、オンライン面談における評価項目若しくは質問事項、又はこれらを対応付けた情報を含む。これらの情報は、求人者端末3により予め指定されていてよい。 Figure 8 is a diagram showing an example of the evaluation template group T1. The evaluation template group T1 is generated for each recruiter and stored in the memory unit 26 of the information processing device 2. For example, the evaluation template group T1 includes one or more evaluation templates T11, T12, and T13. Each evaluation template T11, T12, and T13 includes evaluation items or questions for an online interview, or information that associates these. This information may be specified in advance by the recruiter terminal 3.

図8に示すように、好ましくは、評価テンプレートT11は、大項目T111、中項目T112及び小項目T113を含んでよい。換言すると、好ましくは、評価テンプレートT11に定められる評価項目は、階層的に分類されていてよい。一例として大項目T111は、「Commitment」、「Creativity」及び「Collaboration」等の評価項目を含む。そして一例として大項目T111に分類される「Commitment」は、中項目T112として評価項目「目標基準」と評価項目「not自己満足」とに分類される。また一例として中項目T112「目標基準」は、小項目T113として「高い目標を掲げ、最後まで諦めずにやりきった経験」という質問事項に対応付けられている。 As shown in FIG. 8, the evaluation template T11 may preferably include a major item T111, a medium item T112, and a minor item T113. In other words, the evaluation items defined in the evaluation template T11 may preferably be classified hierarchically. As an example, the major item T111 includes evaluation items such as "Commitment," "Creativity," and "Collaboration." As an example, "Commitment" classified in the major item T111 is classified as the medium item T112 into the evaluation items "Goal Standard" and "Not Self-Satisfaction." As another example, the medium item T112 "Goal Standard" is associated with a question item "Experience of setting a high goal and seeing it through to the end without giving up" as the minor item T113.

(オンライン面談開始後の求人者端末3の表示画面:S106)
オンライン面談が開始する前に、求人者端末3が評価テンプレート群T1から1の評価テンプレートT11を選択したとする。このとき図9に示すように情報処理装置2の面談実行部211は、オンライン面談中に選択した評価テンプレートT11に含まれる情報を求人者端末3に表示させる。
(Display screen of recruiter terminal 3 after online interview starts: S106)
Suppose that before the online interview starts, the recruiter terminal 3 selects one evaluation template T11 from the evaluation template group T1. At this time, as shown in Figure 9, the interview execution unit 211 of the information processing device 2 causes the recruiter terminal 3 to display information contained in the evaluation template T11 selected during the online interview.

図9は、オンライン面談開始後の求人者端末3の表示部に表示される画面7の一例を示す図である。画面7は、撮影画像領域71と、評価テンプレート情報72と、録画開始ボタン73と、機能ボタン76,77,78,79とを含む。
撮影画像領域71は、オンライン面談開始後に求職者端末4のカメラが撮影した画像、若しくは求人者端末3のカメラが撮影した画像、又は両方の画像がリアルタイムで表示される領域である。
評価テンプレート情報72は、選択した評価テンプレートT11に含まれる情報である。これにより面接官は、予め定められた評価項目又は質問事項を容易に確認しながら、オンライン面談を進めることができる。
録画開始ボタン73は、録音及び録画を開始するための操作領域である。機能ボタン76,77,78,79は、オンライン面談において各種機能を実行するための操作領域である。
9 is a diagram showing an example of the screen 7 displayed on the display unit of the recruiter terminal 3 after the start of an online interview. The screen 7 includes a captured image area 71, evaluation template information 72, a recording start button 73, and function buttons 76, 77, 78, and 79.
The captured image area 71 is an area in which an image captured by the camera of the job seeker terminal 4, an image captured by the camera of the employer terminal 3, or both images are displayed in real time after the start of an online interview.
The evaluation template information 72 is information included in the selected evaluation template T11. This allows the interviewer to proceed with the online interview while easily checking the predetermined evaluation items or questions.
The record start button 73 is an operation area for starting audio and video recording. The function buttons 76, 77, 78, and 79 are operation areas for executing various functions in the online interview.

(印象タグ入力:S107)
そして図9に示すように画面7は、1又は複数種類の印象タグ74,75をさらに含む。印象タグ74,75は、オンライン面談中に面接官が感じた印象や評価を類型化したタグである。図5のS107においてオンライン面談中の面接官により印象タグ74,75が入力された場合、入力されたタイミングに対応する会話が、オンライン面談における重要箇所として抽出される。
(Impression tag input: S107)
9, the screen 7 further includes one or more types of impression tags 74, 75. The impression tags 74, 75 are tags that categorize impressions and evaluations felt by the interviewer during the online interview. When the impression tags 74, 75 are input by the interviewer during the online interview in S107 of FIG. 5, the conversation corresponding to the timing of the input is extracted as an important part of the online interview.

好ましくは、画面7は、複数種類の印象タグ74,75を含んでよい。印象タグ74はポジティブな印象を示すタグであり、印象タグ75はネガティブな印象を示すタグである。 Preferably, the screen 7 may include multiple types of impression tags 74, 75. The impression tag 74 is a tag indicating a positive impression, and the impression tag 75 is a tag indicating a negative impression.

(重要箇所の抽出:S113)
情報処理装置2の抽出部212による重要箇所の抽出処理について説明する。
図10は、会話テキストD1の一例を示す図である。まず抽出部212は、S112において生成された会話テキストD1を、話者、無音時間又は文脈等に基づいて、ブロックB1,B2,B3,B4,B5,B6に分類する。次に抽出部212は、面接官により印象タグ74が入力された時間位置に対応するブロックB5を特定する。そして抽出部212は、ブロックB5の時間位置に基づいて、ブロックB5を含む対象ブロック群B10を、重要箇所に対応するオンライン面談の一部を表す範囲として特定し、抽出する。換言すると、重要箇所は、面談実行ステップにおける面接官の端末操作に基づき特定され、抽出される。
(Extraction of important parts: S113)
The process of extracting important parts by the extraction unit 212 of the information processing device 2 will be described.
10 is a diagram showing an example of the conversation text D1. First, the extraction unit 212 classifies the conversation text D1 generated in S112 into blocks B1, B2, B3, B4, B5, and B6 based on the speaker, silent time, context, or the like. Next, the extraction unit 212 identifies block B5 corresponding to the time position at which the impression tag 74 was input by the interviewer. Then, based on the time position of block B5, the extraction unit 212 identifies and extracts a target block group B10 including block B5 as a range representing a part of the online interview corresponding to an important part. In other words, the important part is identified and extracted based on the terminal operation of the interviewer in the interview execution step.

なお抽出部212は、ブロックB5の時間位置と、話者及び文脈の少なくとも一方とに基づいて、対象ブロック群B10を特定してよい。また抽出部212は、ブロックB5の時間位置から所定時間範囲内に含まれるブロックを、対象ブロック群B10として特定してもよい。なお対象ブロック群B10は、複数のブロックを含むことが好ましいが、1のブロックB5から構成されていてもよい。 The extraction unit 212 may identify the target block group B10 based on the time position of the block B5 and at least one of the speaker and the context. The extraction unit 212 may also identify blocks included within a predetermined time range from the time position of the block B5 as the target block group B10. The target block group B10 preferably includes multiple blocks, but may be composed of one block B5.

これにより面接官がオンライン面談中に会話内容とそれに対する印象とを記録する必要がなくなる。したがって情報処理装置2は、面接官がオンライン面談の内容を管理することを容易にする。 This eliminates the need for the interviewer to record the content of the conversation and their impressions during the online interview. Therefore, the information processing device 2 makes it easy for the interviewer to manage the content of the online interview.

なお図9に示すように複数種類の印象タグ74,75がある場合、抽出部212は一方の印象タグ74について重要箇所を抽出してもよいし、複数の印象タグ74,75の各々について重要箇所を抽出してもよい。後者の場合、抽出部212は、印象タグの種別に対応付けて重要箇所を記憶部26に格納してよい。 When there are multiple types of impression tags 74, 75 as shown in FIG. 9, the extraction unit 212 may extract important points for one impression tag 74, or may extract important points for each of the multiple impression tags 74, 75. In the latter case, the extraction unit 212 may store the important points in the storage unit 26 in association with the type of impression tag.

なお上記では情報処理装置2の抽出部212が面接官の端末操作(印象タグの入力)に基づき重要箇所を抽出する態様を示したが、重要箇所を抽出する態様はこれには限られない。例えば、面接官が印象タグを入力しない場合であっても、情報処理装置2の抽出部212がオンライン面談全体の会話の内容や会話の文脈に基づいて重要箇所を抽出してもよい。 In the above, the extraction unit 212 of the information processing device 2 extracts important points based on the interviewer's terminal operation (input of impression tags), but the manner in which important points are extracted is not limited to this. For example, even if the interviewer does not input impression tags, the extraction unit 212 of the information processing device 2 may extract important points based on the content of the conversation throughout the online interview and the context of the conversation.

また本抽出ステップで抽出される重要箇所の個数には上限値が設定されてよい。したがって抽出部212は、印象タグの入力回数が設定された上限値を超える場合、記録される重要箇所が上限値以下となるように重要箇所を選択してよい。重要箇所の選択基準としては、話者、文脈、声量、及び入力頻度等が挙げられる。これにより記録される重要箇所の個数が膨大になり、面談後に内容の確認作業が煩雑になることを防ぐことができる。 An upper limit may be set for the number of important points extracted in this extraction step. Therefore, when the number of times an impression tag is input exceeds the set upper limit, the extraction unit 212 may select important points so that the number of important points recorded is equal to or less than the upper limit. Criteria for selecting important points include the speaker, context, voice volume, and input frequency. This prevents the number of important points recorded from becoming enormous, which would make it difficult to confirm the content after the interview.

(要約テキストの生成及び表示:S114~S115)
要約部213は、抽出された重要箇所である対象ブロック群を、機械学習済モデルを用いて要約し、要約テキストを生成する。例えば要約部213は、抽出された対象ブロック群に基づいてクエリ文章を生成し、機械学習済モデルを有する外部装置にクエリ文章を送信する。そして要約部213は、外部装置からクエリ文章に対する回答として、要約テキストを取得する。
(Generation and display of summary text: S114 to S115)
The summarization unit 213 uses the machine-learned model to summarize the target blocks, which are the extracted important parts, and generates a summary text. For example, the summarization unit 213 generates a query sentence based on the extracted target blocks and transmits the query sentence to an external device having the machine-learned model. The summarization unit 213 then obtains the summary text from the external device as a response to the query sentence.

図11は、求人者端末3の表示部38に表示される画面8の一例を示す図である。表示制御部214は、要約テキスト81とともに、重要箇所に対応するオンライン面談の一部を表す範囲、つまり対象ブロック群821を、同一の画面8内に表示させる。具体的には画面8は、要約テキスト81と、会話データ82とを含んでよい。画面8に含まれる会話データ82は、オンライン面談の全部の会話データであってもよいし、一部の会話データであってもよい。会話データ82は、上述の抽出処理において分類されたブロック820と、上述の抽出処理において抽出された対象ブロック群821とを含む。要約テキスト81は、対象ブロック群821に基づいて生成された要約テキストである。なお、本明細書において「同一の画面(同一画面)内に表示される」とは、所定の情報が同一のURL(Uniform Resource Locator)に表示されることを指す。すなわち、図11に示されるような、要約テキスト81と対象ブロック群821とが一覧性を有して画面に表示される態様に替えて、例えば、要約テキスト81と対象ブロック821とのそれぞれを異なるタブに紐付け、この双方のタブを同一ページ内に表示させる態様も採用することができる(この場合、求人者の端末操作により、要約テキスト81と対象ブロック群821との表示が切り替わることとなる)。 11 is a diagram showing an example of a screen 8 displayed on the display unit 38 of the recruiter terminal 3. The display control unit 214 displays, together with the summary text 81, a range representing a part of the online interview corresponding to the important part, that is, the target block group 821, on the same screen 8. Specifically, the screen 8 may include the summary text 81 and the conversation data 82. The conversation data 82 included in the screen 8 may be all the conversation data of the online interview, or may be a part of the conversation data. The conversation data 82 includes the blocks 820 classified in the above-mentioned extraction process and the target block group 821 extracted in the above-mentioned extraction process. The summary text 81 is a summary text generated based on the target block group 821. In this specification, "displayed on the same screen (same screen)" refers to the specified information being displayed on the same URL (Uniform Resource Locator). That is, instead of the mode in which the summary text 81 and the target block group 821 are displayed on the screen in a list-like manner as shown in FIG. 11, for example, it is also possible to adopt a mode in which the summary text 81 and the target block group 821 are each linked to a different tab, and both of these tabs are displayed on the same page (in this case, the display of the summary text 81 and the target block group 821 will be switched by the employer's terminal operation).

このように要約テキストと重要箇所とが同一画面内に表示されることで、面談後に面接官が要約テキストの根拠となる会話を確認しやすくなる。 By displaying the summary text and key points on the same screen in this way, it becomes easier for the interviewer to check the conversation that is the basis for the summary text after the interview.

なおオンライン面談の一部を表す範囲は、求人者の端末操作によって変更可能に構成されてよい。換言すると、対象ブロック群821に含まれるブロック820の開始点及び終了点は、カーソル822を用いて面接官により調節可能であってよい。このような構成にすることで、利便性が向上する。 The range representing part of the online interview may be configured to be changeable by the recruiter's terminal operation. In other words, the start and end points of blocks 820 included in the target block group 821 may be adjustable by the interviewer using cursor 822. Such a configuration improves convenience.

(付与された評価の記録:S116~S117)
ここで図11に示す画面8において、情報処理装置2の評価付与部215は、要約テキスト81に対応する評価を面接官から受け付けてよい。この評価付与ステップにおいて付与される評価は、面接官によって入力されたテキストデータ及び面接官によって付与されたラベルの少なくとも一方を含む。
(Record of assigned evaluation: S116 to S117)
11, the evaluation assignment unit 215 of the information processing device 2 may accept, from the interviewer, an evaluation corresponding to the summary text 81. The evaluation assigned in this evaluation assignment step includes at least one of the text data input by the interviewer and the label assigned by the interviewer.

具体的には図11に示すように画面8は、要約テキスト81に対応する位置に、部分評価ラベル83と部分評価コメント84とを含んでよい。部分評価ラベル83は、要約テキスト81に対応して求人者側の面接官によって付与された評価ラベルである。部分評価ラベル83は、評価テンプレートT11に含まれる評価項目であってもよいし、評価テンプレートT11に含まれる評価項目とは異なる評価項目であってもよい。面接官は、複数の部分評価ラベルの中から、要約テキスト81の内容に対応すると考えられる部分評価ラベルを選択する。
部分評価コメント84は、要約テキスト81に対応して面接官によって入力されたテキストデータである。
11 , the screen 8 may include a partial evaluation label 83 and a partial evaluation comment 84 at a position corresponding to the summary text 81. The partial evaluation label 83 is an evaluation label assigned by an interviewer on the recruiting company's side in correspondence with the summary text 81. The partial evaluation label 83 may be an evaluation item included in the evaluation template T11, or may be an evaluation item different from the evaluation items included in the evaluation template T11. The interviewer selects a partial evaluation label that is considered to correspond to the content of the summary text 81 from among the multiple partial evaluation labels.
The partial evaluation comment 84 is text data input by the interviewer in response to the summary text 81 .

そして要約テキスト81に対応する部分評価ラベル83及び部分評価コメント84を受信した評価付与部215は、要約テキスト81に対応付けて部分評価ラベル83及び部分評価コメント84を、面接官の評価として記憶部26に記憶する。 Then, the evaluation assignment unit 215 receives the partial evaluation label 83 and partial evaluation comment 84 corresponding to the summary text 81, and stores the partial evaluation label 83 and partial evaluation comment 84 in the memory unit 26 in association with the summary text 81 as the interviewer's evaluation.

このように評価付与部215が要約テキストを表示して、面接官による評価を受け付けることで、求面接官がオンライン面談の内容を容易に把握できる。また評価付与部215は、要約テキストと評価とを紐づけた情報を記録するため、次の面接官への情報の引継ぎを容易にできる。 In this way, the evaluation unit 215 displays the summary text and accepts the evaluation by the interviewer, so that the interviewer can easily understand the content of the online interview. In addition, the evaluation unit 215 records information linking the summary text and the evaluation, making it easy to hand over the information to the next interviewer.

なお情報処理装置2の表示制御部214は、再生ステップとして、重要箇所に対応するオンライン面談の一部の場面に対応する動画を求人者が視認可能に再生させてよい。 In addition, as a playback step, the display control unit 214 of the information processing device 2 may play a video corresponding to a part of the online interview that corresponds to the important part so that it can be viewed by the recruiter.

図12は、求人者端末3の表示部38に表示される画面9の一例を示す図である。画面9は、要約テキスト81、部分評価ラベル83及び部分評価コメント84に加えて、要約テキスト81に対応する動画再生領域91及び動画メタデータ92を含む。動画再生領域91は、オンライン面談において撮影された動画及び音声のうち、重要箇所である対象ブロック群821に対応する動画及び音声を再生するための領域である。
動画メタデータ92は、動画再生領域91に表示された動画の話者、再生時間位置、及びキーワード等のメタデータを示す。
12 is a diagram showing an example of a screen 9 displayed on the display unit 38 of the recruiter terminal 3. In addition to summary text 81, partial evaluation labels 83, and partial evaluation comments 84, screen 9 includes a video playback area 91 corresponding to the summary text 81 and video metadata 92. The video playback area 91 is an area for playing video and audio corresponding to a target block group 821 that is an important portion, out of the video and audio shot during the online interview.
The video metadata 92 indicates metadata such as the speaker, playback time position, and keywords of the video displayed in the video playback area 91 .

このように重要箇所における求職者のジェスチャ、表情、又は話し方等を動画及び音声を通じて求人者が容易に確認可能とすることで、求人者が容易に重要箇所の詳細な内容を把握できる。 In this way, by allowing employers to easily check the job seeker's gestures, facial expressions, and speaking style at key points through video and audio, employers can easily understand the details of the key points.

(変形例)
なお情報処理装置2の評価付与部215は、S116~S117に加えて、面接官からオンライン面談の総合的な評価を受け付けてよい。オンライン面談の総合的な評価は、S114において生成された複数の要約テキスト81に基づいて付与されてよい。総合的な評価についても、面接官によって入力されたテキストデータ及び面接官によって付与されたラベルの少なくとも一方を含む。
(Modification)
In addition to S116 to S117, the evaluation unit 215 of the information processing device 2 may receive a comprehensive evaluation of the online interview from the interviewer. The comprehensive evaluation of the online interview may be given based on the multiple summary texts 81 generated in S114. The comprehensive evaluation also includes at least one of the text data input by the interviewer and the label given by the interviewer.

図13は、求人者端末3の表示部38に表示される画面10の一例を示す図である。一例として画面10は、総合評価ラベル101と、総合評価値102,103,104と、総合評価コメント105とを含む。
総合評価ラベル101は、複数の要約テキスト81に対応して面接官によって付与された総合的な評価ラベルである。総合評価ラベル101は、求職者が面接に合格したか否かを示すラベルである。
総合評価値102,103,104は、複数の要約テキスト81に対応して面接官が各評価項目に応じた評価情報を入力する領域である。総合評価値102,103,104の評価項目は、評価テンプレートT11に含まれる評価項目であってもよいし、評価テンプレートT11に含まれる評価項目とは異なる評価項目であってもよい。総合評価値102,103,104の評価情報は、評価値を算出可能な情報であれば形式に制限はないが、例えば、数字で段階を示す情報を含むことが好ましい。
総合評価コメント105は、複数の要約テキスト81に対応して面接官によって付与されたテキストデータである。総合評価コメント105は、複数の要約テキスト81に対応する評価に関するコメントの他、次の面接官への引継ぎ事項を含んでよい。
13 is a diagram showing an example of a screen 10 displayed on the display unit 38 of the recruiter terminal 3. As an example, the screen 10 includes an overall evaluation label 101, overall evaluation values 102, 103, and 104, and an overall evaluation comment 105.
The overall evaluation label 101 is a comprehensive evaluation label given by an interviewer in correspondence with a plurality of summary texts 81. The overall evaluation label 101 is a label indicating whether or not the job seeker passed the interview.
The overall evaluation values 102, 103, and 104 are areas where the interviewer inputs evaluation information corresponding to each evaluation item in response to the multiple summary texts 81. The evaluation items for the overall evaluation values 102, 103, and 104 may be evaluation items included in the evaluation template T11, or may be evaluation items different from the evaluation items included in the evaluation template T11. The evaluation information for the overall evaluation values 102, 103, and 104 is not limited to a particular format as long as it is information that allows the evaluation value to be calculated, but it is preferable that the information include, for example, information indicating a numerical scale.
The overall evaluation comment 105 is text data given by the interviewer in response to the plurality of summary texts 81. The overall evaluation comment 105 may include comments on the evaluation corresponding to the plurality of summary texts 81, as well as matters to be handed over to the next interviewer.

評価付与部215は、面接官からの総合的な評価を受け付けたことに応じて、面談IDと総合的な評価とを対応付けて記憶部26に格納する。このように評価付与部215が面談IDと複数の要約テキストに基づく総合的な評価とを対応付けて記憶するため、次の面接官が面談の内容を把握することを容易にでき、そして情報の引継ぎを容易にできる。 In response to receiving a comprehensive evaluation from an interviewer, the evaluation assignment unit 215 associates the interview ID with the comprehensive evaluation and stores them in the storage unit 26. Since the evaluation assignment unit 215 thus associates the interview ID with a comprehensive evaluation based on multiple summary texts and stores them, it becomes easy for the next interviewer to understand the content of the interview and easy to transfer information.

さらに、次に記載の各態様で提供されてもよい。 Furthermore, it may be provided in the following forms:

(1)求人者と求職者とのオンライン面談を支援する情報処理システムであって、制御部を備え、前記制御部は、次の各ステップを実行するように構成され、面談実行ステップでは、前記求人者と前記求職者とのオンライン面談を実行させ、抽出ステップでは、前記オンライン面談の一部である重要箇所を抽出し、表示制御ステップでは、抽出された前記重要箇所を要約した要約テキストを前記求人者に視認可能に表示させ、評価付与ステップでは、前記求人者による前記要約テキストに対応する評価を、前記要約テキストに紐づけて付与する、情報処理システム。 (1) An information processing system that supports online interviews between an employer and a job seeker, comprising a control unit configured to execute the following steps: an interview execution step executes an online interview between the employer and the job seeker; an extraction step extracts important points that are part of the online interview; a display control step causes a summary text summarizing the extracted important points to be visibly displayed to the employer; and an evaluation assignment step assigns an evaluation by the employer corresponding to the summary text in association with the summary text.

(2)上記(1)に記載の情報処理システムにおいて、前記表示制御ステップでは、前記要約テキストとともに、前記重要箇所に対応する前記オンライン面談の一部を表す範囲を、同一の画面内に表示させる、情報処理システム。 (2) In the information processing system described in (1) above, in the display control step, an area representing a part of the online interview that corresponds to the important part is displayed on the same screen together with the summary text.

(3)上記(2)に記載の情報処理システムにおいて、前記オンライン面談の一部を表す範囲は、前記求人者の端末操作によって変更可能に構成される、情報処理システム。 (3) In the information processing system described in (2) above, the range representing a portion of the online interview is configured to be changeable by the recruiter's terminal operation.

(4)上記(1)ないし(3)のいずれか1つに記載の情報処理システムにおいて、前記評価付与ステップにおいて付与される評価は、前記求人者によって入力されたテキストデータ及び/又は前記求人者によって付与されたラベルを含む、情報処理システム。 (4) An information processing system according to any one of (1) to (3) above, wherein the evaluation given in the evaluation giving step includes text data input by the recruiter and/or a label given by the recruiter.

(5)上記(1)ないし(4)のいずれか1つに記載の情報処理システムにおいて、前記重要箇所は、前記面談実行ステップにおける前記求人者の端末操作に基づき特定され、抽出される、情報処理システム。 (5) An information processing system according to any one of (1) to (4) above, in which the important points are identified and extracted based on the recruiter's terminal operations in the interview execution step.

(6)上記(1)ないし(5)のいずれか1つに記載の情報処理システムにおいて、再生ステップでは、前記重要箇所に対応する前記オンライン面談の一部の場面に対応する動画を前記求人者が視認可能に再生させる、情報処理システム。 (6) An information processing system according to any one of (1) to (5) above, wherein in the playback step, a video corresponding to a part of the online interview scene that corresponds to the important part is played back so as to be visible to the recruiter.

(7)情報処理方法であって、上記(1)ないし(6)のいずれか1つに記載の情報処理システムの各ステップを備える、情報処理方法。 (7) An information processing method comprising each step of the information processing system described in any one of (1) to (6) above.

(8)プログラムであって、コンピュータに、上記(1)ないし(6)のいずれか1つに記載の情報処理システムの各ステップを実行させる、プログラム。
もちろん、この限りではない。
(8) A program that causes a computer to execute each step of the information processing system described in any one of (1) to (6) above.
Of course, this is not the case.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, although various embodiments of the present invention have been described, these are presented as examples and are not intended to limit the scope of the invention. The novel embodiments can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the spirit of the invention. The embodiments and their modifications are within the scope and spirit of the invention, and are included in the scope of the invention and its equivalents as set forth in the claims.

1 情報処理システム
2 情報処理装置
3 求人者端末
4 求職者端末
21 制御部
22 プロセッサ
23 ROM
24 RAM
25 通信部
26 記憶部
27 入力部
28 表示部
29 音声出力部
211 面談実行部
212 抽出部
213 要約部
214 表示制御部
215 評価付与部
5 画面
50 ホームタブ
51 共通ロビータブ
52 求職者一覧タブ
53 求職者名
6 画面
60 求職者情報
61 選択領域
62 入室ボタン
T1 評価テンプレート群
T11,T12,T13 評価テンプレート
T111 大項目
T112 中項目
T113 小項目
7 画面
71 撮影画像領域
72 評価テンプレート情報
73 録画開始ボタン
74,75 印象タグ
76,77,78,79 機能ボタン
D1 会話テキスト
B1,B2,B3,B4,B5,B6 ブロック
B10 対象ブロック群
8 画面
81 要約テキスト
82 会話テキスト
820 ブロック
821 対象ブロック群
822 カーソル
83 部分評価ラベル
84 部分評価コメント
9 画面
91 動画再生領域
92 動画メタデータ
10 画面
101 総合評価ラベル
102,103,104 総合評価値
105 総合評価コメント
REFERENCE SIGNS LIST 1 Information processing system 2 Information processing device 3 Recruiter terminal 4 Job seeker terminal 21 Control unit 22 Processor 23 ROM
24 RAM
25 Communication unit 26 Memory unit 27 Input unit 28 Display unit 29 Audio output unit 211 Interview execution unit 212 Extraction unit 213 Summarization unit 214 Display control unit 215 Evaluation assignment unit 5 Screen 50 Home tab 51 Common lobby tab 52 Job seeker list tab 53 Job seeker name 6 Screen 60 Job seeker information 61 Selection area 62 Enter button T1 Evaluation template group T11, T12, T13 Evaluation template T111 Major item T112 Medium item T113 Minor item 7 Screen 71 Photographed image area 72 Evaluation template information 73 Start recording button 74, 75 Impression tag 76, 77, 78, 79 Function button D1 Conversation text B1, B2, B3, B4, B5, B6 Block B10 Object block group 8 Screen 81 Summary text 82 Conversation text 820 Block 821 Object block group 822 Cursor 83 Partial evaluation label 84 Partial evaluation comment 9 Screen 91 Video playback area 92 Video metadata 10 Screen 101 Overall evaluation label 102, 103, 104 Overall evaluation value 105 Overall evaluation comment

Claims (7)

求人者と求職者とのオンライン面談を支援する情報処理システムであって、
制御部を備え、
前記制御部は、次の各ステップを実行するように構成され、
面談実行ステップでは、前記求人者の操作する求人者端末と、前記求職者の操作する求職者端末との間を中継することで前記求人者と前記求職者とのオンライン面談を実行させ、
ここで、前記面談実行ステップでは、前記オンライン面談において前記求人者端末及び前記求職者端末から画像データ及び音声データを、前記オンライン面談における時間位置と紐づけて取得し、
抽出ステップでは、取得した前記オンライン面談における前記音声データに対して音声認識処理を施した会話テキストの一部である重要箇所を抽出し、
ここで、前記重要箇所は、
(i)前記オンライン面談中に、前記求人者端末から送信されたタグの時間位置;
(ii)前記オンライン面談における会話の内容もしくは会話の文脈;及び
(iii)前記求人者端末の操作による重要箇所の指定
の少なくとも一つに基づいて、前記会話テキストから抽出され、
表示制御ステップでは、抽出された前記重要箇所を機械学習済モデルに入力し、前記重要箇所を要約させることで生成した要約テキストを、前記求人者端末に表示させることで前記求人者に視認可能に表示させ、
評価付与ステップでは、前記求人者端末に入力された前記求人者による前記要約テキストに対応する評価を受け付け受け付けた前記評価を前記要約テキストに紐づけて付与記憶部に記憶させる、情報処理システム。
An information processing system for supporting online interviews between employers and job seekers,
A control unit is provided,
The control unit is configured to execute the following steps:
In the interview execution step, an online interview between the recruiter and the job seeker is executed by relaying between a recruiter terminal operated by the recruiter and a job seeker terminal operated by the job seeker,
Here, in the interview execution step, image data and voice data are acquired from the recruiter terminal and the job seeker terminal during the online interview, and the image data and voice data are associated with a time position during the online interview,
In the extraction step, an important part that is a part of a conversation text obtained by performing a speech recognition process on the speech data of the acquired online interview is extracted,
Here, the important points are:
(i) the time position of a tag transmitted from the recruiter terminal during the online interview;
(ii) the content or context of the conversation during the online interview; and
(iii) Designation of important points by operating the recruiter terminal
is extracted from the conversation text based on at least one of
In the display control step, the extracted important parts are input to a machine-learned model, and a summary text generated by summarizing the important parts is displayed on the recruiter terminal so as to be visible to the recruiter.
In the evaluation assignment step, an evaluation corresponding to the summary text by the employer inputted into the employer terminal is accepted , the accepted evaluation is linked to the summary text and assigned, and the evaluation is stored in a memory unit .
請求項1に記載の情報処理システムにおいて、
前記表示制御ステップでは、前記要約テキストとともに、前記重要箇所に対応する前記オンライン面談の一部を表す範囲を、前記求人者端末における同一の画面内に表示させる、情報処理システム。
2. The information processing system according to claim 1,
In the display control step, an information processing system causes an area representing a part of the online interview corresponding to the important part to be displayed together with the summary text on the same screen of the employer terminal .
請求項2に記載の情報処理システムにおいて、
前記オンライン面談の一部を表す範囲は、前記求人者端に対する操作によって変更可能に構成される、情報処理システム。
3. The information processing system according to claim 2,
An information processing system configured such that the range representing a portion of the online interview can be changed by an operation on the recruiter terminal .
請求項1に記載の情報処理システムにおいて、
前記評価付与ステップにおいて付与される評価は、前記求人者によって入力されたテキストデータ及び/又は前記求人者によって付与されたラベルを含む、情報処理システム。
2. The information processing system according to claim 1,
An information processing system, wherein the evaluation given in the evaluation giving step includes text data input by the recruiter and/or a label given by the recruiter.
請求項1に記載の情報処理システムにおいて、
再生ステップでは、前記面談実行ステップで取得した前記画像データ及び前記音声データのうち、前記重要箇所に対応する時間位置の画像データ及び音声データを、動画として前記求人者端末に表示させることにより、前記動画を前記求人者が視認可能に再生させる、情報処理システム。
2. The information processing system according to claim 1,
In the playback step, the image data and audio data obtained in the interview execution step, the image data and audio data at time positions corresponding to the important points, are displayed as a video on the employer's terminal, thereby playing the video so that it can be viewed by the employer.This is an information processing system.
情報処理システムが実行する情報処理方法であって、
請求項1ないし請求項のいずれか1項に記載の情報処理システムの各ステップを備える、情報処理方法。
An information processing method executed by an information processing system, comprising:
An information processing method comprising the steps of the information processing system according to any one of claims 1 to 5 .
プログラムであって、
コンピュータに、請求項1ないし請求項のいずれか1項に記載の情報処理システムの各ステップを実行させる、プログラム。
A program,
A program for causing a computer to execute each step of the information processing system according to any one of claims 1 to 5 .
JP2023209444A 2023-12-12 Information processing system, information processing method, and program Active JP7496098B1 (en)

Publications (1)

Publication Number Publication Date
JP7496098B1 true JP7496098B1 (en) 2024-06-06

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309631A (en) 2003-04-03 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method, and program for assisting interaction practice
JP2006155270A (en) 2004-11-30 2006-06-15 Interworks Inc System and method for registering personnel information including image information
US20120324353A1 (en) 2011-06-20 2012-12-20 Tandemseven, Inc. System and Method for Building and Managing User Experience for Computer Software Interfaces
JP2022117756A (en) 2021-02-01 2022-08-12 シャープ株式会社 Tagging method and tagging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309631A (en) 2003-04-03 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method, and program for assisting interaction practice
JP2006155270A (en) 2004-11-30 2006-06-15 Interworks Inc System and method for registering personnel information including image information
US20120324353A1 (en) 2011-06-20 2012-12-20 Tandemseven, Inc. System and Method for Building and Managing User Experience for Computer Software Interfaces
JP2022117756A (en) 2021-02-01 2022-08-12 シャープ株式会社 Tagging method and tagging device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大庭 隆伸, 小林 和則, 植松 尚, 浅見 太一, 丹羽 健太, 鎌土 記良, 川瀬 智子, 堀 貴明,ビジネスシーンにおけるサポートを実現するメディア処理技術,NTT技術ジャーナル,一般社団法人電気通信協会,2015年02月01日,第27巻, 第2号,第26-30ページ,ISSN: 0915-2318

Similar Documents

Publication Publication Date Title
CN106685916B (en) Intelligent device and method for electronic conference
CN111641514B (en) Conference intelligence system, method for conference intelligence, and storage medium
US11625681B2 (en) Conference support system, conference support method, and recording medium
CN107451274B (en) Method, device and equipment for pushing auxiliary customer service information and storage medium
JP7283518B2 (en) CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT METHOD AND PROGRAM
JP6061729B2 (en) Product information providing system and product information providing program
JP2017215931A (en) Conference support system, conference support device, conference support method, and program
JP6977297B2 (en) Information processing equipment, information processing system
US10452411B2 (en) System and method of using emojis for interactive and enhanced data matching capabilities
US11848900B2 (en) Contextual messaging in video conference
JP2020087105A (en) Information processing method, information processing apparatus and computer program
CN109189293B (en) Evaluation interaction method and device for rich media content, electronic equipment and storage medium
US11757949B2 (en) Event registration system, user terminal, and storage medium
CN113362045A (en) Conference schedule generation method and device, electronic equipment and readable storage medium
JP2019121093A (en) Information generation system, information generation method, information processing device, program, and terminal device
JP7496098B1 (en) Information processing system, information processing method, and program
JP2019016280A (en) Information processing device and program
CN111523053A (en) Information flow processing method and device, computer equipment and storage medium
JP2019021157A (en) Information presentation system, information presentation method, and program
CN114936001A (en) Interaction method and device and electronic equipment
JP6885217B2 (en) User dialogue support system, user dialogue support method and program
WO2023095629A1 (en) Conversation management device, conversation management system, and conversation management method
CN112771508A (en) Seminar auxiliary system and seminar auxiliary method
JP7363862B2 (en) Information processing system, chatbot system, information management method, program
JP7414128B2 (en) Conversation control program, conversation control method, and information processing device