WO2023038125A1 - フィードバック装置及びプログラム - Google Patents

フィードバック装置及びプログラム Download PDF

Info

Publication number
WO2023038125A1
WO2023038125A1 PCT/JP2022/033955 JP2022033955W WO2023038125A1 WO 2023038125 A1 WO2023038125 A1 WO 2023038125A1 JP 2022033955 W JP2022033955 W JP 2022033955W WO 2023038125 A1 WO2023038125 A1 WO 2023038125A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
meeting
notification
reference information
feature points
Prior art date
Application number
PCT/JP2022/033955
Other languages
English (en)
French (fr)
Inventor
直央 伊藤
成尭 小荷田
Original Assignee
株式会社Zenkigen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Zenkigen filed Critical 株式会社Zenkigen
Priority to JP2023547012A priority Critical patent/JPWO2023038125A1/ja
Publication of WO2023038125A1 publication Critical patent/WO2023038125A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Definitions

  • the present disclosure relates to a feedback device and program.
  • Patent Document 1 A system has been proposed that supports meetings by recording and analyzing such online meetings (see, for example, Patent Document 1).
  • Patent Document 1 online meeting records are capitalized after the meeting by texting and evaluating the meeting in real time.
  • Patent Literature 1 it is not possible to present information corresponding to situations that change as the meeting progresses.
  • the quality of the meeting cannot be grasped. Therefore, it is preferable to be able to grasp information according to the situation of the meeting.
  • the present invention has been made in view of the above-mentioned conventional situation, and aims to provide a feedback device and a program that can grasp information according to the situation of the meeting.
  • the present invention is a feedback device for providing feedback in an online meeting of participants, comprising a data acquisition unit that acquires meeting data relating to the meeting, feature points extracted from the meeting data, and judgment criteria for the feature points. a reference information acquisition unit that acquires information, an extraction unit that extracts feature points included in the meeting data acquired based on the acquired reference information, a comparison unit that compares the extracted feature points with the judgment criteria, and a comparison
  • the present invention relates to a feedback device comprising: a notification creation unit that creates a notification directed to parties involved in the meeting based on a result; and an output unit that outputs the created notification to the parties concerned.
  • the notice creating unit creates a notice in real time in an online meeting of participants.
  • the feedback device includes a participant information acquisition unit that acquires participant information indicating the attribute of the participant, and a determination unit that determines criteria to be used for the participant based on the acquired participant information. , wherein the comparison unit preferably compares the extracted feature points with the determined criteria.
  • the reference information acquisition unit further includes, as reference information, specific information for specifying an output destination related party to which the notification is output, and the output unit is based on the acquired participant information and the acquired specific information It is preferable to determine the participant of the output destination by
  • the extraction unit extracts a predetermined expression included in the meeting data as a feature point, and the comparison unit compares the extracted predetermined expression with a criterion, Preferably, the notification creating unit creates a notification by evaluating a predetermined expression based on the determination result.
  • the extraction unit extracts the speech ratio of the participant as a feature point
  • the comparison unit compares the extracted speech ratio with a criterion
  • the notification creation unit balances based on the judgment result It is preferable to create a notification prompting you to do so.
  • the extraction unit extracts the state of the participant as a characteristic point
  • the comparison unit compares the extracted state with a criterion
  • the notification creation unit provides advice based on the result of the determination. Preferably create a notification.
  • the extracting unit extracts specific content of the utterance as a feature point
  • the comparing unit compares the extracted content with a judgment criterion
  • the notification creating unit extracts based on the judgment result It is preferable to create a notice to the content.
  • the extracting unit extracts, as feature points, features of communication of participants based on the content of statements, the comparing unit compares the extracted content with criteria, and the notification creating unit adds It is preferable to create a notification as a response method for the characteristics of the communication extracted based on the above.
  • the feedback device further includes a changing unit that changes the contents of the acquired reference information according to the number and attributes of the participants.
  • the feedback device includes, in the reference information, as the types of feature points, one or more types for grasping the pulling force, one or more types for grasping the judgment force, and grasping the attract force. It preferably includes one or more species for
  • the present invention is a program that causes a computer to function as a feedback device that provides feedback based on an online meeting of participants, the computer comprising: a data acquisition unit that acquires meeting data related to the meeting; A reference information acquisition unit that acquires feature points to be extracted and judgment criteria for the feature points as reference information, an extraction unit that extracts feature points included in the meeting data acquired based on the acquired reference information, and the extracted feature points A comparison unit that compares the results with a criterion, a notification creation unit that creates a notification for the parties involved in the meeting based on the comparison result, an output unit that outputs the created notification to the parties, It relates to a program that functions as
  • FIG. 1 is a schematic diagram of a feedback system including a feedback device according to a first embodiment of the invention
  • FIG. It is a block diagram showing the configuration of the feedback device of the first embodiment.
  • 4 is a time chart showing an example of contents compared by a comparison unit of the feedback device of the first embodiment; 4 is a time chart showing an example of a notice created by a notice creation unit of the feedback device of the first embodiment; It is a screen figure which shows an example of the screen output by the output part of the feedback apparatus of 1st Embodiment.
  • 4 is a flow chart showing the flow of operation of the feedback device of the first embodiment; It is a block diagram which shows the structure of the feedback apparatus of 2nd Embodiment of this invention.
  • FIG. 11 is a screen diagram showing another screen displayed by the feedback device of the second embodiment; It is a flowchart which shows the flow of operation
  • FIG. 11 is a diagram showing an outline of a service using a feedback system including a feedback device according to a third embodiment of the invention; It is a figure which shows the outline
  • Fig. 12 is a schematic diagram showing a feedback system including a feedback device according to a third embodiment of the present invention for implementing the service shown in Fig. 11; 14 is a block diagram showing the configuration of a feedback device in the feedback system of FIG.
  • FIG. 12 is a diagram showing an example of a screen of a dashboard that integrates information on characteristics of all department managers in the report checked by the personnel manager in FIG. 11;
  • FIG. 12 is a diagram showing an example of an interviewer list screen for confirming information on feature points for each department person in charge in the report to be confirmed by the person in charge of personnel affairs in FIG. 11 ;
  • FIG. 12 is a diagram showing an example of an evaluation screen of a person in charge of a specific department for confirming information on characteristic points of the person in charge of a specific department in the report checked by the person in charge of personnel affairs in FIG. 11 ;
  • FIG. 12 is a diagram showing an example of an evaluation screen of a person in charge of a specific department for confirming information on characteristic points of the person in charge of a specific department in the report checked by the person in charge of personnel affairs in FIG. 11 ;
  • FIG. 10 is a diagram showing an example of an interview detailed analysis screen for confirming a summary of each type of feature points in a specific interview, chronological information of the interview, and moving image data of the interview;
  • FIG. 19 is an example of a screen for setting display or non-display on the screens of FIGS. 15 to 18 for each type of feature point.
  • FIG. FIG. 20 is an example of a screen for setting thresholds for each type of feature points to be set on the screen of FIG. 19 ;
  • FIG. It shows an example of a screen that uses the function of matching an appropriate pair as an interview candidate US and a department manager M, that is, the above-described interviewer matching function. 12.
  • It is a system configuration
  • a feedback device 1 and a program according to each embodiment of the present invention will be described below with reference to FIGS. 1 to 10.
  • the feedback device 1 is, for example, an information processing device such as a server.
  • the feedback device 1 is, for example, a device that implements feedback in a meeting of participants online.
  • information that can be obtained or calculated and quantified from image data (still image data or video (moving image) data) or audio data of the meeting or data other than the meeting, and the participants of the meeting or the meeting Information indicating the degree of the feature of the predetermined type (predetermined attribute) related to is hereinafter referred to as a "feature point".
  • Types (attributes) of feature points include meeting image data (still image data or video (moving image) data), and speech data related to participants' utterances, facial expressions, gestures, utterance ratios, and meeting Time etc. exist.
  • Data related to non-meetings include pass rate, toss-up rate, offer acceptance rate, and the like.
  • the feedback device 1 extracts, for example, a plurality of types of feature points such as the contents of remarks, facial expressions, gestures, and utterance ratios of participants, and feeds back notifications to participants, etc., according to the content of the extracted types of feature points. do.
  • the feedback device 1, for example, outputs notifications not only to the participants of the meeting but also to the manager and moderator of the meeting. Thereby, the feedback device 1 intends to grasp information according to the situation of the meeting.
  • the feedback device 1 of the following embodiment can determine how the mental state of the participant has changed (for example, if the meeting is a job interview, the degree of aspiration is improved, psychological safety is improved, and if the meeting is used in the workplace, the participant's motivation, etc.), or how the relationship between the participants has changed (for example, if it is a job interview, the relationship between the other party will improve, and if it is a meeting at the workplace, the relationship between the boss and subordinates will improve, etc.).
  • the feedback device 1 is intended to facilitate communication or support facilitation in meetings, for example, from a point of view other than personnel affairs.
  • the feedback device 1 provides feedback such as, for example, "The other participant seems to be nervous, so please break the ice” or "I think you should move on to the next agenda.”
  • a job interview is taken as an example of a meeting.
  • feedback in real time includes not only immediate feedback but also feedback of the participant's situation during that period every 5 or 10 minutes.
  • not only in real time but after a plurality of meetings are held for a predetermined period, after a predetermined number of meetings are held, or when the number of meetings containing problems is a predetermined number or more. It may be fed back when it is detected. As a result, the number of meetings to be verified can be increased, and the accuracy of feedback can be improved.
  • the feedback may be given not only in real time but also after a predetermined period of time from the meeting. As a result, feedback can be given to participants who are in a calm state.
  • the feedback system 200 includes a plurality of participant terminals 100 and a feedback device 1, as shown in FIG.
  • the participant terminal 100 is, for example, an information processing device having a microphone and a camera.
  • a participant terminal 100 is provided, for example, for each participant of the meeting.
  • a participant terminal 100 is provided, for example, for each interviewer.
  • the participant terminal 100 is provided for each examinee to be interviewed.
  • a participant terminal 100 is provided for each manager who manages the meeting, although the participant terminal 100 does not directly participate in the meeting. Details of the feedback device 1 will be described later.
  • FIG. 1 analyzes the situation of the meeting held using the participant terminals 100 and provides feedback such as notification to the participants.
  • the feedback device 1 is connected to a plurality of participant terminals 100 via a network N, as shown in FIG.
  • the feedback device 1 will be described as a device that also manages meetings between participant terminals 100 .
  • the feedback device 1 includes a data acquisition unit 11, a participant information storage unit 12, a participant information acquisition unit 13, a meeting execution unit 14, a meeting storage unit 15, and a reference information storage unit. 16 , a reference information acquisition unit 17 , a determination unit 18 , an extraction unit 19 , a comparison unit 20 , a notification creation unit 21 , an output unit 22 , and a change unit 23 .
  • the data acquisition unit 11 is implemented, for example, by the operation of the CPU.
  • the data acquisition unit 11 acquires meeting data regarding the meeting.
  • the data acquisition unit 11 acquires, for example, audio data and video data transmitted from the participant terminals 100 as meeting data.
  • the data acquisition unit 11 acquires voice data and video data of the participants transmitted from each participant terminal 100 .
  • the participant information storage unit 12 is, for example, a recording medium such as a hard disk.
  • the participant information storage unit 12 stores participant information indicating attributes of participants.
  • the participant information storage unit 12 stores, for example, participant information linked to identification information (for example, an ID or the like) that identifies a participant.
  • the participant information storage unit 12 stores, for example, information as to whether the participant is an examinee or an interviewer as participant information. For example, if the participant is an examinee, the participant information storage unit 12 stores the examinee's self-introduction video, questionnaire results, gender, educational background, work history, and data obtained from other services (chat tool , engagement measurement tools, etc.) are stored as participant information.
  • the participant information storage unit 12 stores the interviewer's gender, personality, age, year of employment, employment classification (new graduate/mid-career), department, title, educational background, experience department. , personnel evaluation (including 360-degree evaluation and 360-degree feedback), performance information (sales results, etc.), leave history, attendance data, communication data (frequency and quality of communication with other members obtained from chat tools, etc., organization chart The tendency of connections seen (many members involved in work, few members, etc.), data during recruitment activities, data obtained from healthcare products, etc. are stored as participant information.
  • the participant information storage unit 12 stores participant information in advance before the meeting is held.
  • the participant information acquisition unit 13 is implemented, for example, by the operation of the CPU.
  • the participant information acquisition unit 13 acquires participant information indicating attributes of participants.
  • the participant information acquisition unit 13 acquires, for example, participant information linked to identification information that identifies the participant.
  • the meeting execution unit 14 is implemented by, for example, the operation of the CPU.
  • the meeting conducting unit 14 conducts the meeting using the meeting data obtained from the participant terminals 100 used by the participants who are scheduled to participate in the predetermined meeting.
  • the meeting storage unit 15 is, for example, a recording medium such as a hard disk.
  • the meeting storage unit 15 stores the content of the held meeting and the created notification, which will be described later.
  • the reference information storage unit 16 is, for example, a recording medium such as a hard disk.
  • the reference information storage unit 16 stores reference information for judging the states of participants regarding the acquired meeting data.
  • the reference information storage unit 16 stores, as reference information, metadata such as meeting start and end times, agendas, and subjects related to the meeting, for example.
  • the reference information storage unit 16 also stores, for example, the elapsed time, the quality of the speech ratio, the quality of the smiling face ratio, and the quality of the conversation speed as judgment criteria.
  • the reference information storage unit 16 further stores, as reference information, specific information for specifying the parties to whom the notification is to be output.
  • the reference information storage unit 16 stores, for example, specific information for specifying output to the participant terminals 100 of the interviewers and related parties (facilitator, controller, etc.) regarding the time of the agenda. Further, the reference information storage unit 16 stores, for example, the quality of the speech ratio, the quality of the smiling face ratio, and the quality of the conversation speed, specifying information that identifies the corresponding participant as an output destination.
  • the reference information storage unit 16 stores, as reference information, judgment criteria regarding predetermined expressions included in the meeting data.
  • the reference information storage unit 16 stores, for example, judgment criteria regarding high-handed remarks, negative remarks, and positive remarks as reference information.
  • the reference information storage unit 16 stores, as reference information, for example, a judgment reference regarding a gesture such as the volume of a voice corresponding to an angry voice and a gesture such as hitting a desk.
  • the reference information storage unit 16 stores the condition of the participant as a judgment reference.
  • the reference information storage unit 16 stores, as reference information, for example, judgment criteria relating to the facial expressions, gestures, tone of voice, and specific content of remarks of the participants.
  • the reference information storage unit 16 stores, as reference information, criteria for determining characteristics of communication.
  • the reference information storage unit 16 stores, for example, as a state, a result indicator such as a person's internal state (for example, psychological safety, reliability, motivation, etc.) that can be read from utterances/actions.
  • the reference information storage unit 16 also stores, as expressions, remarks/behaviors that can affect the "state” (for example, words and deeds that are power harassment and cause atrophy). In other words, the relationship between an expression and a state is treated as an example in which an "expression" triggers a "state" to be created.
  • the reference information acquisition unit 17 is implemented, for example, by the operation of the CPU.
  • the reference information acquisition unit 17 acquires the feature points extracted from the meeting data and the judgment criteria for the feature points as reference information.
  • the reference information acquisition unit 17 acquires reference information stored in the reference information storage unit 16, for example.
  • the decision unit 18 is implemented by, for example, the operation of the CPU.
  • the decision unit 18 decides the criteria to be used for the participants based on the obtained participant information.
  • the decision unit 18 decides the criteria to be used for the participants, for example, based on the specification of the output destination included in the criteria information.
  • the extraction unit 19 is implemented by, for example, the operation of the CPU.
  • the extraction unit 19 extracts feature points included in the acquired meeting data based on the acquired reference information.
  • the extraction unit 19 acquires the elapsed time included in the acquired meeting data, for example, based on the agenda included in the reference information.
  • the extracting unit 19 acquires, as feature points, the speech ratios of the participants included in the meeting data acquired based on the speech ratios included in the reference information, for example.
  • the extracting unit 19 acquires the facial features of the participants included in the meeting data, for example, based on the smile ratio included in the reference information.
  • the extraction unit 19 acquires the conversation speed of the participants included in the meeting data based on the conversation speed included in the reference information.
  • the extraction unit 19 extracts, for example, feature points from meeting data during a meeting in real time. For example, as shown in FIG. 3, the extraction unit 19 extracts elapsed time, speech ratio, smile ratio, and conversation speed in real time.
  • the extraction unit 19 extracts predetermined expressions included in the meeting data as feature points.
  • the extraction unit 19 extracts, for example, high-pressure statements, negative statements, and positive statements included in the meeting data.
  • the extraction unit 19 extracts the states of the participants as feature points.
  • the extracting unit 19 extracts, as feature points, features of the communication of the participants based on the content of the utterances.
  • the extracting unit 19 extracts the content of the participant's response.
  • the extraction unit 19 extracts, for example, at least one of facial expression and wording as a feature point. For example, the extraction unit 19 determines the facial expression of the participant and how the facial expression is perceived by the other participants (such as wrinkles between the eyebrows) from the feature points.
  • the comparison unit 20 is implemented, for example, by the operation of the CPU.
  • the comparison unit 20 compares the extracted feature points with the criterion.
  • the comparison unit 20 compares, for example, the extracted elapsed time, speech ratio, smile ratio, and conversation speed with criteria included in the reference information.
  • the comparison unit 20 compares the extracted feature points with, for example, a predetermined threshold as a criterion.
  • a comparison unit 20 compares the extracted feature points with the determined criteria.
  • the comparison unit 20 compares the extracted feature points with the criterion, for example, using the comparison criterion applied to the participant determined by the determination unit 18 .
  • the comparison unit 20 compares the extracted predetermined expression with the criterion.
  • the comparison unit 20 compares the extracted state with the criterion.
  • the notification creation unit 21 is implemented by, for example, the operation of the CPU.
  • the notification creation unit 21 creates a notification for the parties involved in the meeting based on the comparison result.
  • the notification creation unit 21 creates, for example, a notification prompting to balance the speech ratio based on the determination result.
  • the notification creating unit 21 creates a notification by evaluating a predetermined expression based on the determination result. For example, as shown in FIG. 4, the notification creation unit 21 creates a notification saying "Smile because your expression is stiff" for participants with a low smile ratio. In addition, the notification creation unit 21 creates a notification saying "It feels good! for participants with a high ratio of smiles.
  • the notification creation unit 21 creates a notification saying "Speech speed is increasing" for the participant whose conversation speed is increasing.
  • the notification creating unit 21 creates, for example, a notification determined for each participant.
  • the notification creation unit 21 creates, for example, a notification that urges the user to refrain from making high-handed or negative statements.
  • the notification creating unit 21 creates, for example, a notification suggesting that a positive comment is highly evaluated.
  • the notification creation unit 21 creates a notification of a handling method for the characteristics of the communication extracted based on the determination result.
  • the notification creation unit 21 determines how to have a dialogue (for example, it is better to be a listener, it is better to lead, etc.) according to the characteristics of the communication of the participant during the interview. notify the official. In addition, the notification creation unit 21 estimates the degree of understanding of the participant and creates a notification for the interviewer.
  • the notification creation unit 21 creates a notification pointing out bias in the content of statements, such as when the same term is repeated.
  • the notification creation unit 21 for example, corrects the deviation from good or bad in terms of speech ratio, voice quality, and facial expression compared in the comparison unit 20, or creates a notification prompting to continue.
  • 21 creates a notification pointing out the bias, for example, when the same category of phrase appears repeatedly.
  • the notification creation unit 21 creates a notification that prompts deep digging according to the frequency of wordings on the agenda.
  • the notification creation unit 21 creates a notification such as "What is the background of your statement?" For example, in the case of employment, the notification creation unit 21 has the purpose of "getting out of the other party's story" and "identifying the personality, ability, and qualities of the other party". A purpose such as “relax if you are nervous” is prepared for each type of conversation, and is displayed to the participants (single or multiple) during communication. At this time, the data obtained in the moving images so far or the other use data (see above) may be used to calculate the content of the advice and the execution timing. In addition, the notification creating unit 21 may analyze the other party's response and notify the other party's degree of understanding.
  • the output unit 22 is implemented, for example, by the operation of the CPU.
  • the output unit 22 outputs the created notice to the relevant parties.
  • the output unit 22 determines a participant as an output destination based on the obtained participant information and the obtained specific information.
  • the output unit 22 outputs, for example, the time of the agenda to the participant terminals 100 of the interviewer and the facilitator.
  • the output unit 22 outputs, for example, a notification regarding the speech ratio, the smile ratio, and the conversation speed to the participant terminal 100 of the relevant participant.
  • the output unit 22 may use, for example, message notification, voice (sound), graph display on the screen, traffic signal imitation, or color (change in color of the edge of the window).
  • the output unit 22 may use a method other than the chat as a method of giving advice (see “Method of notifying personnel department/person in question”, “Method of displaying data”, and “Pattern of image data” below).
  • the output unit 22 may execute the advice immediately, after badge processing every five minutes, or after the conversation ends.
  • the changing unit 23 is implemented, for example, by the operation of the CPU.
  • the changing unit 23 changes the contents of the acquired reference information according to the number and attributes of the participants.
  • the changing unit 23 changes the reference information (for example, the threshold value) regarding the utterance ratio according to the ratio of the number of interviewers and the number of examinees.
  • the reference information acquisition unit 17 acquires reference information (step S1).
  • the participant information acquisition unit 13 acquires participant information (step S2).
  • the changing unit 23 changes the content of the acquired reference information according to the number and attributes of the participants.
  • the data acquisition unit 11 acquires meeting data (step S3).
  • the meeting holding unit 14 holds a meeting (step S4).
  • the decision unit 18 decides the criteria used for the participants (step S5).
  • the extraction unit 19 extracts feature points included in the meeting data (step S6).
  • the comparison unit 20 compares the extracted features with the criteria (step S7).
  • the notification creating unit 21 creates a notification based on the comparison result (step S8).
  • the output unit 22 outputs the created notice to the corresponding participant (step S9).
  • step S10 it is determined whether or not the meeting will end. If the meeting ends (step S10: YES), the processing according to this flow ends. On the other hand, if the meeting continues (step S10: NO), the process returns to step S6.
  • Each configuration included in the feedback device 1 can be implemented by hardware, software, or a combination thereof.
  • “implemented by software” means implemented by a computer reading and executing a program.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD- R, CD-R/W, semiconductor memory (eg, mask ROM, PROM (programmable ROM), EPROM (erasable PROM), flash ROM, RAM (random access memory)).
  • the display program may also be supplied to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
  • a feedback device 1 that provides real-time feedback in an online meeting of participants, and includes a data acquisition unit 11 that acquires meeting data related to the meeting, feature points extracted from the meeting data, and criteria for determining the feature points. as reference information, an extraction unit 19 for extracting feature points included in the meeting data acquired based on the acquired reference information, and a comparison for comparing the extracted feature points with the judgment criteria.
  • a notification creation unit 21 for creating a notification for the parties involved in the meeting based on the comparison result, and an output unit 22 for outputting the created notification to the parties concerned.
  • the feedback device 1 includes a participant information acquisition unit 13 that acquires participant information indicating the attributes of the participants, and a determination criterion that is used for the participants based on the acquired participant information. and a comparison unit 20 for comparing the extracted feature points with the determined criteria. As a result, the judgment criteria can be changed for each participant, so flexibility can be improved.
  • the reference information acquisition unit 17 further includes, as reference information, specific information that specifies the relevant party to whom the notification is to be output, and the output unit 22 combines the acquired participant information and the acquired specific information. Based on this, the participant of the output destination is determined. As a result, the content of the feedback can be changed for each participant, so flexibility can be improved.
  • the extraction unit 19 extracts the specific content of the utterance as a feature point
  • the comparison unit 20 compares the extracted content with the judgment criteria
  • the notification creation unit 21 extracts based on the judgment result. Create a notification for what you have done. As a result, it is possible to create a notification indicating the quality of each participant's speech, thereby improving flexibility.
  • the extracting unit 19 extracts, as feature points, communication features of the participants based on the utterance content.
  • the comparing unit 20 compares the extracted content with the criteria. Create a notification as a response method for the characteristics of communication extracted based on As a result, since it is possible to notify the participant of the preferred communication method, it is possible to further improve the flexibility.
  • the feedback device 1 further includes a changing section 23 that changes the contents of the acquired reference information according to the number and attributes of the participants. This makes it possible to flexibly change the judgment criteria according to the situation of the participants.
  • the feedback device 1 and program according to the second embodiment output a list of meetings of participants.
  • the feedback device 1 according to the second embodiment is intended to obtain information that contributes to improvement of the meeting by displaying a list of information that has been determined and accumulated regarding data of meetings that have already been held.
  • the feedback device 1 according to the second embodiment includes, as shown in FIG. It differs from the first embodiment in that an acquisition unit 36 is provided. Further, the feedback device 1 according to the second embodiment differs from the first embodiment in that the data acquisition unit 11 acquires a plurality of meeting data that have already been held. Further, the feedback device 1 according to the second embodiment differs from the first embodiment in that the meeting data acquired by the output unit 22 is output as a list and the evaluation result is output for each meeting data.
  • the determination result acquisition unit 31 is implemented by, for example, the operation of the CPU.
  • the determination result acquisition unit 31 acquires determination results for feature points obtained by analyzing meeting data.
  • the determination result acquisition unit 31 acquires, for example, the result of comparison by the comparison unit 20 of the first embodiment as the determination result. Also, the determination result acquisition unit 31 acquires the notification created by the notification creation unit 21 of the first embodiment as the determination result.
  • the detection target setting unit 32 is implemented, for example, by the operation of the CPU.
  • the detection target setting unit 32 sets important features included in the meeting data as detection targets.
  • the detection target setting unit 32 sets, for example, predetermined negative statement content and predetermined positive statement content as detection targets.
  • the evaluation unit 33 is implemented, for example, by the operation of the CPU.
  • the evaluation unit 33 evaluates the meeting data based on the judgment result. For example, the evaluation unit 33 evaluates meeting data with many good judgment results as good meeting data. For example, when it is determined that inappropriate remarks or the like are included in the interview, the evaluation unit 33 evaluates the meeting data as questionable.
  • the trend judgment unit 34 is implemented by, for example, the operation of the CPU.
  • the tendency judgment unit 34 judges the tendency of the acquired judgment results.
  • the tendency judging section 34 judges, for example, the tendency of judgment results for each participating interviewer. Specifically, the tendency judgment unit 34 judges the utterance tendency of each participating interviewer.
  • the change acquisition unit 35 is implemented, for example, by the operation of the CPU.
  • the change acquisition unit 35 acquires a change of the participant with respect to the feature point for each acquired determination result.
  • the change acquisition unit 35 acquires, for example, the rate of change of the participant with respect to the smile.
  • the change acquisition unit 35 acquires, for example, changes in the speech rate of the participants.
  • the input acquisition unit 36 is implemented, for example, by the operation of the CPU.
  • the input acquisition unit 36 acquires text or the like input by a participant or the like that is arbitrarily input during or after the meeting.
  • the input acquisition unit 36 acquires, for example, memos written by participants during the meeting, and text such as impressions of the interview input by the participants or related parties after the meeting.
  • the output unit 22 outputs a list of meeting data as shown in FIG.
  • the output unit 22 outputs the evaluation results, trends, changes, and input content together with a list of meeting data.
  • the output unit 22 outputs, for example, information such as date and time of meeting data, names of participants, and meeting content, as well as evaluation results, trends, changes, and input content of the meeting data.
  • the output unit 22 outputs the details of the content of the meeting data selected from the list, as shown in FIG.
  • the output unit 22 may detect when there is a problematic interview and output it to the manager of the interview or the like. Thereby, the output unit 22 can grasp the communication tendency of the participant or the group including the participant.
  • the data acquisition unit 11 acquires meeting data (step S11).
  • the determination result acquisition unit 31 acquires the determination result (step S12).
  • the detection target acquiring unit acquires the detection target (step S13).
  • the evaluation unit 33 evaluates the meeting data (step S14).
  • the trend judgment unit 34 judges the tendency of the meeting data (step S15).
  • the change acquisition unit 35 acquires changes in the participants in the meeting data (step S16).
  • the input acquisition unit 36 acquires input data such as text (step S17).
  • the output unit 22 outputs an overview of the meeting data together with the evaluation results, trends, changes, and input data (step S18).
  • step S19 it is determined whether or not to end the evaluation. If there is no meeting data to be evaluated (step S19: YES), the processing according to this flow ends. On the other hand, if there is still meeting data to be evaluated (step S19: NO), the process returns to step S1.
  • a feedback device 1 capable of outputting a list of meetings of participants which includes a data acquisition unit 11 that acquires a plurality of meeting data of the participants, and a determination result for feature points obtained by analyzing conversation data.
  • information that contributes to improvement of the meeting can be obtained by displaying in a list the information that has been determined and accumulated regarding the data of the meeting that has already been held.
  • the evaluation unit 33 detects important features in the meeting data, and the output unit 22 outputs the detected important features together with the meeting data. As a result, it is possible to output the features that should be particularly focused on, so that it is possible to grasp the meeting data that should be focused on more.
  • the feedback device 1 further includes a tendency judgment section 34 for judging the tendency of the obtained judgment results, and the output section 22 outputs the judged tendency.
  • the feedback device 1 further includes a change acquisition unit 35 that acquires a change in the participant with respect to the feature points for each acquired determination result, and the evaluation unit 33 evaluates the acquired change in the participant. This makes it possible to more easily comprehend detailed state changes of participants.
  • the evaluation unit 33 evaluates the content of the meeting for each participant included in the meeting data, and the output unit 22 outputs the evaluation result for each participant together with the meeting data. This makes it possible to easily obtain different evaluation results of meeting data for each participant.
  • the feedback device 1 further includes an input acquisition unit 36 that acquires input for meeting data, and the output unit 22 outputs the acquired input content together with the meeting data. As a result, detailed information such as the status of the meeting can be obtained more easily.
  • FIG. FIG. 11 is a diagram showing an outline of a service using a feedback system including a feedback device according to the third embodiment of the present invention (hereinafter referred to as "this service").
  • this service a job interview is used as the meeting.
  • "employment interview” is abbreviated as "interview” as appropriate.
  • a company that intends to employ personnel has a personnel department BJ.
  • a personnel manager MJ belongs to the personnel department BJ.
  • a company may have multiple departments that are looking to recruit (ie, may conduct hiring interviews).
  • a company employs according to the plans of each of a plurality of departments.
  • One or more hiring managers (hereinafter referred to as “department managers”) belong to each of these multiple departments.
  • ⁇ section Ba and a ⁇ section Bb are drawn as part of a plurality of departments.
  • Department manager Ma-1, department manager Ma-2, etc. belong to ⁇ section Ba.
  • Department manager Mb-1, department manager Mb-2, etc. belong to ⁇ section Bb.
  • the feedback device 1 of the third embodiment generates a report R for improving the interview skills of the person in charge of department M, and provides feedback not only to the person in charge of department M, but also to his superior and personnel manager MJ. do. This makes it possible to improve the interview skills of the person in charge M of the department.
  • interviewing ability can be said to be the ability for a company (interviewer) to develop mutual love with a suitable candidate for the company through an interview. Therefore, while aiming to improve general interview skills, there is also compatibility between the interviewer and the candidate. Therefore, the person in charge of human resources MJ requests that each of the plurality of employment candidates US be interviewed with the person in charge of department M who is compatible with the candidate US from among the persons in charge of department M. exists. Therefore, this service provides an interviewer matching function. The interviewer matching function will be described later using FIG.
  • step ST1 a candidate for employment US requests an interview.
  • the request for an interview means that the candidate US presents to the company the intention to apply for the company, the department to which he or she will belong in the future, the work to be in charge of, and so on.
  • step ST2 the person in charge of personnel MJ sets up an interview based on the interview request of the candidate US.
  • Setting up an interview refers to determining a department manager M who will interview the hiring candidate US and setting up an interview between the hiring candidate US and the department manager M.
  • the reason why the arrow indicating step ST2 is a dashed line is that in the third embodiment, the person in charge of department M is determined by the interviewer matching function. It is realized by processing, and shows that the work of the personnel manager MJ is actually small.
  • an interview has been set between the department manager Ma-2 of the ⁇ department and the hiring candidate US, and the flow after the next step ST3 will be described.
  • step ST3 an interview is held between the hiring candidate US and the department manager M as a meeting.
  • a one-on-one interview is held between the hiring candidate US and the department manager Ma-2 using a web conference system.
  • step ST4 information including at least one of image data and audio data of the meeting is recorded in the meeting storage unit 15 (FIG. 14) as the content of the meeting.
  • the hiring result and the comment about the interview are recorded in the participant information storage unit 12 (FIG. 14).
  • step ST5 extraction, comparison, and creation of notification are performed.
  • step ST6 report R is output.
  • the report R describes the interview ability of the person in charge M of the department who conducted the interview. The interview ability will be described later with reference to FIG. 12, and is an important index for achieving better interviews.
  • the output report R is appropriately provided to the personnel manager MJ of the personnel department BJ.
  • the person in charge of human resources MJ confirms the aptitude of the person in charge of department M based on the interview skills of the person in charge of department M described in the report R, and gives education to the person in charge of department M to improve the interview skills. , the matching conditions in the interviewer matching function can be changed. In this way, the report R is fed back so as to be able to take measures to realize a better interview.
  • FIG. 12 is a diagram showing an overview of interview skills in hiring.
  • the ability to recruit is an important ability that contributes to the success or failure of a company's future management.
  • the recruiting ability includes interview ability, population formation ability, operational efficiency, and the like.
  • the interview ability is the ability of an interviewer to interview a candidate.
  • interview there is an aspect that the company (interviewer) selects a candidate from multiple candidates (employee candidate US in the example of Fig. 11), but the candidate also has the opportunity to select a company.
  • interviewing ability is the ability for a company (interviewer) to develop mutual love with a suitable candidate for the company through an interview.
  • the contact power includes pull-out power, attract power, and judgment power.
  • the drawing ability is the ability of the interviewer to extract necessary and sufficient information from the candidate.
  • interviewers In order to enhance the ability to draw out candidates, for example, it is necessary for interviewers to appropriately take care of items such as arrangements (interview time, etc.), attentive listening to candidates, dissemination and in-depth discussion of topics, and content of remarks.
  • Attractiveness is the ability of an interviewer to increase the favorable impression of a candidate's company.
  • the interviewer asks for items such as the presence or absence of NG behavior (for example, presence or absence of tardiness or NG remarks), non-verbal (smiles, etc.), interest in the candidate, and appeal of the company.
  • Judge power is the ability of an interviewer to select a suitable candidate for the next selection or informal offer. In order to improve judgment ability, for example, it is important for the interviewer to appropriately care about the adequacy of the acceptance criteria, the verbalization of the reasons for judgment, fairness, and the like.
  • FIG. 13 is a schematic diagram of a feedback system including a feedback device according to a third embodiment of the invention, which implements the service shown in FIG. 11;
  • the feedback system shown in FIG. 13 is configured to include a feedback device 1, a candidate terminal 110, participant terminals 100-1 to 100-n, and a personnel manager terminal 120.
  • FIG. The feedback device 1, the candidate terminal 110, the participant terminals 100-1 to 100-n, and the personnel manager terminal 120 are interconnected via a predetermined network such as the Internet.
  • the feedback device 1 is a server managed by the service provider shown in FIG. 11 (hereinafter referred to as "service provider").
  • the feedback device 1 executes various processes for realizing the services shown in FIG. do.
  • each of the participant terminals 100-1 to 100-n is an information processing device operated by each of the n persons in charge of departments M who are the interviewers.
  • the participant terminals 100-1 through 100-n will be collectively referred to as "participant terminals 100" when there is no need to distinguish between the plurality of department staff members M individually.
  • the participant terminal 100 will be appropriately referred to as the "department manager terminal 100" as shown in parentheses in FIG.
  • the department manager M operates the department manager terminal 100 and conducts an interview with the hiring candidate US through an online meeting.
  • the hiring candidate US is also a participant in the interview, but since the service in the example of FIG. A candidate terminal 110 is used. That is, the employment candidate terminal 110 is an information processing device operated by the employment candidate US. The hiring candidate US operates the hiring candidate terminal 110 and conducts an online meeting with the person in charge M of the department.
  • the personnel manager terminal 120 is an information processing device operated by the personnel manager MJ.
  • the personnel manager MJ can check the report R using the personnel manager terminal 120 .
  • FIG. 14 is a block diagram showing the configuration of the feedback device in the feedback system of FIG. 13, that is, the feedback device according to the third embodiment of the present invention.
  • a data acquisition unit 11, a participant information acquisition unit 13, a meeting implementation unit 14, a reference information acquisition unit 17, a determination unit 18, and an extraction unit 19 the comparison unit 20, the notification creation unit 21, the output unit 22, the change unit 23, the reference information setting unit 24, and the comparison unit setting unit 25 function.
  • a meeting storage section 15 , a reference information storage section 16 , and a feature point storage section 26 are provided in one area of the storage section of the server 1 .
  • the data acquisition unit 11 acquires the meeting data from each of the department staff terminals 100-1 to 100-n where the interview was conducted.
  • the meeting data acquired by the data acquisition unit 11 is stored and managed in the meeting storage unit 15 .
  • the reference information setting unit 24 acquires, as reference information, information including the types of feature points to be extracted from the meeting data and judgment criteria for the types of feature points, stores the information in the reference information storage unit 16, and manages it. , set the reference information.
  • the types of feature points include a predetermined expression, an utterance ratio, a person's state, specific contents of utterances, and characteristics of communication of department manager M based on the contents of utterances. .
  • a criterion is obtained for each of these feature point types. It should be noted that, as shown in FIG. 13 described above, the pulling force, the judging force, and the attracting force are important for the contact force.
  • the reference information setting unit 24 includes one or more types for grasping the pulling force, one or more types for grasping the judgment force, and one or more types for grasping the attract force. It is preferable to set reference information.
  • each of the one or more types for grasping the pull-out force, the one or more types for grasping the judgment force, and the one or more types for grasping the attract force is fixed in advance. may be adopted, but here, as shown in FIG. 19, which will be described later, it can be freely set by the personnel manager MJ.
  • the reference information setting unit 24 selects one or more types for grasping the pull-out force, one or more types for grasping the judgment force, and one or more types for grasping the attract force.
  • the reference information may be set so as to include the above types.
  • the reference information acquisition unit 17 acquires the reference information stored in the reference information storage unit 16, that is, the types of feature points and their judgment criteria.
  • the comparison unit setting unit 25 sets one of the company (company), department, department manager M (interviewer), and interview (meeting) as the unit for extracting feature points in the extraction unit 19 .
  • the person in charge of human resources MJ wants to confirm the feature points of a plurality of persons in charge of department M belonging to a certain department
  • the person in charge of personnel affairs MJ performs an operation for setting the department as a unit for extracting feature points. That is, the comparison unit setting unit 25 acquires from the personnel manager MJ via the personnel manager terminal 120 the unit for extracting the feature points set based on the operation of the personnel manager MJ.
  • the extraction unit 19 extracts feature points from the meeting data based on the types of feature points included in the reference information acquired by the reference information acquisition unit 17 and the units set by the comparison unit setting unit 25 .
  • the extracted feature points are stored and managed in the feature point storage unit 26 .
  • the comparing unit 20 compares the feature points extracted by the extracting unit 19 with the criteria included in the acquired reference information.
  • the notification creating unit 21 determines the unit set by the comparison unit setting unit 25 based on the result of the comparing unit 20 comparing the feature points extracted by the extracting unit 19 and the judgment criteria included in the reference information. Create a report R as a notification.
  • the output unit 22 outputs the report R created by the notification creating unit 21 to the terminal 120 of the person in charge of personnel affairs.
  • the report R created by totaling the units set by the personnel manager MJ is presented to the personnel manager MJ as a notification.
  • the person in charge of personnel MJ can check reports R for various units such as company (company), department, department manager M, and interview as notifications.
  • the report R for each department manager M and the report R created for each interview conducted by the department manager M are output to the terminal 100 of the department manager M.
  • the person in charge M of the department can confirm the report R for himself or the report R for the interview he was in charge of. In this way, the department manager M can obtain feedback on the interview.
  • FIG. 15 is a diagram showing an example of a screen of a dashboard for confirming summary information of each characteristic point that integrates characteristic information of all department personnel in the report confirmed by the person in charge of personnel affairs in FIG. 11 .
  • summary information of each feature point in which information of all persons in charge M of departments is integrated, is displayed.
  • the number of department managers M the number of interviews, the average NPS, the final participation rate, and the unofficial acceptance rate are displayed.
  • a selection window for selecting a population is displayed in an area G11 shown in FIG.
  • the person in charge of human resources MJ can set a population in which the information of all persons in charge of department M is integrated using the selection window.
  • a score is displayed in an area G12 shown in FIG.
  • "by department” is set as the unit of total score.
  • the scores here, integer values of 1 to 3 of drawing power, judging power, and attracting power for each department and their ratios are displayed.
  • FIG. 16 is a diagram showing an example of an interviewer list screen for confirming information on feature points for each person in charge of a department in the report to be confirmed by the person in charge of personnel affairs in FIG. 11 .
  • department managers M are narrowed down under arbitrary conditions, and feature points for each department manager M are aggregated and displayed. Specifically, for example, as shown in an area G21, the attribute information (for example, department name and interview career) of the department manager M and each characteristic point are displayed as columns.
  • interview ability evaluation, interview career, number of interviews, attraction ability, attraction ability, and result index are displayed as types of feature points.
  • the features of withdrawal force, attraction force, and result index are indicated by the number of stars.
  • the person in charge of personnel MJ can appropriately set each column of the area G21.
  • numerical display of each type of feature point for example, the number of stars, ⁇ ⁇ ⁇ , etc.
  • comprehensive evaluation combining multiple types of feature points optional interview Official attribute information can be set.
  • FIG. 17 is a diagram showing an example of an evaluation screen of a person in charge of a specific department for confirming information on characteristic points of the person in charge of a specific department in the report checked by the person in charge of personnel affairs in FIG. .
  • the screen shown in FIG. 17 displays the details of each type of characteristic points of a specific department manager M.
  • interview styles classified based on feature points are displayed.
  • the logical type is shown as an interview style classified based on the characteristic points regarding the manner of conducting the interview and speaking attitude of the person in charge M of the department.
  • the interview styles indicated in the report confirmed by the person in charge of human resources are not limited to the interview styles categorized based on the characteristic points. That is, for example, an interview style categorized based on a personality diagnosis or the like, which is different from the interview, may be displayed. Specifically, for example, first, based on the personality diagnosis, the person in charge of the department M is classified into four quadrant types divided by the axis of "realism-oriented and future-oriented" and the axis of "logical and passionate". be. Then, the interview styles classified based on the quadrant to which the department manager M belongs are shown.
  • the interview style is "logical type", and if it belongs to the reality-oriented and passionate quadrant, the interview style is "friendly”.
  • interview style typed based on:
  • comments are displayed as qualitative evaluations from others such as the person in charge of human resources MJ and memos by the person in charge of department M himself.
  • qualitative evaluations from others such as the person in charge of human resources MJ and comments by the person in charge of department M are displayed as memos. may appear as comments.
  • the feedback device 1 determines whether the interview time should be shortened, the candidate should speak less, or the like, based on the characteristic points of the person in charge M of the department. Then, the feedback device 1 can generate and display a comment based on the determination result.
  • the evaluation of the person in charge of department M is displayed for each type of feature point.
  • each type of feature point is graphed in time series for an arbitrary number of times. Then, for the types of feature points below the set threshold, the graph showing the type is highlighted.
  • the numerical value of the average feature point of the person in charge M of the department is displayed.
  • the area G34 in order to compare with the average of the person in charge M of the department, the average within the company, the company-wide average including other companies using this service, the same industry average, etc. are displayed.
  • each type of characteristic points such as the comparison between the average of the person in charge M in the department and the average within the company, the number of past interviews exceeding the threshold for an arbitrary number of times, etc. is symbolized or quantified under arbitrary conditions. It is displayed as evaluation and rating in the form. The personnel manager MJ visually recognizes the evaluation screen of the department manager M in FIG. can be checked by comparing with
  • FIG. 18 is a diagram showing an example of an interview detailed analysis screen for confirming a summary of each type of feature points in a specific interview, chronological information of the interview, and moving image data of the interview. Specifically, in a region G41 of the screen of FIG. 18, a moving image (hereinafter referred to as "interview moving image") corresponding to moving image data in a specific interview is displayed. The personnel manager MJ can confirm the interview video displayed in the area G41. In addition, chronological information of the interview is displayed in the area G42.
  • interview moving image hereinafter referred to as "interview moving image”
  • the personnel manager MJ can confirm the interview video displayed in the area G41.
  • chronological information of the interview is displayed in the area G42.
  • the time-series information of the interview means that, as a result of analysis of the interview video, the values of each type of feature points for the person in charge of department M and each type of feature point for the hiring candidate US in a specific interview are displayed for a predetermined period of time. It is information arranged on a two-dimensional plane in chronological order as plots or bar graphs at intervals of . In this two-dimensional plane, the horizontal axis is time, and the vertical axis is the value of each type of feature point.
  • an interval divided by an arbitrary time unit of absolute time or relative time (for example, 5 minutes as the time unit of absolute time, and for example, 1/10 of the interview time as the time unit of relative time) , the average values of each type of characteristic points of the department manager M and the hiring candidate US are displayed.
  • a button for reproducing the interview moving image from the section where the personnel manager MJ or the like confirmed the feature points is displayed.
  • Personnel manager MJ uses the time-series information displayed in area G42 to check changes over time in the feature points of each type of department manager M and hiring candidate US. Feature points of each type of band can be confirmed.
  • the person in charge of personnel MJ becomes concerned about the value of a predetermined type of feature point in a certain time period (for example, when it is extremely low)
  • the person in charge of personnel affairs MJ can feed back appropriate advice or the like to the person in charge of department M as appropriate.
  • the person in charge M of the department can refer to the screen shown in FIG. 18 as his own report R.
  • the person in charge M of the department can consider points for reflection by himself/herself, so that he/she can improve his or her interview skills.
  • FIG. 19 is an example of a screen for setting display or non-display of feature points in the screens of FIGS. 15 to 18 for each type of feature point.
  • display (ON) or non-display (OFF) is set as feature point types, such as interview time, reverse question start time, topic divergence, topic are shown, and an ON/OFF switch is displayed for each type.
  • types of feature points to set display (ON) or non-display (OFF) as feature points for grasping judgment power acceptance criteria, fairness of judgment, diversity acceptance , verbalization of evaluation, and evaluation viewpoint are shown, and an ON/OFF switch is displayed for each type.
  • an ON/OFF switch is displayed for each type.
  • the types of feature points for setting display (ON) or non-display (OFF) as feature points for grasping the attraction power, presence or absence of lateness, presence or absence of NG word utterance, degree of smile , company appeal, and NPS and an ON/OFF switch is displayed for each type.
  • the person in charge of human resources MJ selects one or more feature points used for grasping the interviewing ability (pulling ability, judging ability, attracting ability) in the company by operating the ON/OFF switch on the screen of FIG. can be set.
  • the types of feature points that are turned ON (displayed) by the person in charge of personnel MJ mean the types of feature points extracted from the meeting data among the reference information set by the reference information setting unit 24 in FIG. will do.
  • FIG. 20 is an example of a screen for setting thresholds for each type of feature point to be set on the screen of FIG.
  • the setting of the threshold means the setting of the judgment standard among the standard information set by the standard information setting unit 24 in FIG. 14 . That is, the range of the upper limit and the lower limit of the threshold value set for the predetermined type of feature point is the recommended range for the predetermined type, and serves as a judgment criterion. Therefore, on the screen of FIG. 20, windows for setting the upper limit and lower limit of the threshold (hereinafter referred to as "setting window”) are displayed for each type of feature point.
  • setting window windows for setting the upper limit and lower limit of the threshold
  • the personnel manager MJ can set the target upper limit and upper limit of the threshold (that is, the recommended range as a judgment criterion) for each feature point type by inputting numerical values in the setting window of the screen of FIG. can. That is, the screen of FIG. 19 is used to input the type of feature points to be extracted from the meeting data, and the screen of FIG. 20 is used to input the judgment criteria for the type of feature points. Therefore, the reference information setting unit 24 in FIG. 14 acquires the information input through the screens in FIGS. 19 and 20 as reference information, and stores the information in the reference information storage unit 16 for management. can be set.
  • FIG. 21 shows an example of a screen that uses the function of matching a suitable pair as an interview candidate US and a department manager M, that is, the above-described interviewer matching function.
  • the screen shown in FIG. 21 displays the name of the person in charge of department M (interviewer) who is suitable for each candidate US (candidate) and the degree of matching as a recommended combination for the second interview. It is In addition, the degree of matching (compatibility) is calculated by taking into account various data such as one or more types of feature points in past interviews, results of matching degrees in past interviews, interview styles, questionnaires, aptitude tests, etc. be.
  • the personnel manager MJ sets up an interview according to the degree of matching displayed on the screen of FIG. 21 (step ST2 of FIG. 11).
  • the person in charge of the department M who is compatible with the hiring candidate US conducts the interview, which makes the interview even better.
  • the interview will be conducted with high interviewing ability, and as a result, the hiring ability will be enhanced.
  • the recruiting power of the company increases.
  • interview matching function may be used for matching when the hiring candidate US selects an interviewer (such as the above-mentioned department manager M) who will interview him/herself. That is, the hiring candidate US wants to interview a plurality of department managers M who are compatible with him/herself. Therefore, this service provides an interviewer matching function.
  • interviewer such as the above-mentioned department manager M
  • meeting data may include only audio data, only video data, or both.
  • the meeting was explained as an example of a job interview, but it is not limited to this.
  • the meetings can include various meetings such as in-house meetings (one-on-one meetings, meetings with multiple people), business negotiations with other companies on business, and the like. Meetings can also include entrance exams (university entrance exams, etc.) and career counseling, such as job placement services.
  • the meeting is not limited to a one-on-one meeting, and may be a meeting in which multiple people participate.
  • the notification creation unit 21 and the output unit 22 may create and output a notification intended to keep the other participants still when one participant is talking too much.
  • the notification creation unit 21 may create a notification for the purpose of stillness to the facilitator.
  • the notification creation unit 21 may make a notification for the purpose of smoothly proceeding with the meeting without being limited to stillness. For example, when there are few smiles, the notification creation unit 21 may issue a notification that encourages a smile.
  • the notification creation unit 21 also provides a notification that suggests taking a break when concentration is lacking, or encourages another participant to speak if the expression is dissatisfied with the speech of a certain participant. may be notified.
  • the output unit 22 outputs a sortable and searchable meeting data list based on participants, dates, attributes, tags attached to the meeting data, and the like. good too.
  • the extraction unit 19 extracts the tone of voice, facial expressions other than a smile (sadness, surprise, relaxation, anger, embarrassment, etc.), the number of interrupts, the quality of the timing, the quality of the utterance content, gestures, body You may extract the quality of a language etc. as a feature point.
  • participants are not limited to persons participating in the meeting. Participants are, for example, administrators who do not participate in the meeting but manage the meeting, viewers who view the contents of the meeting without participating in the meeting (administrators of their departments, and people who give instructions to the participants from the outside). including) and the like. In this case, the notification does not have to be fed back from the moving image or behavior of the administrator or viewer.
  • the evaluation unit 33 may create a tag with content indicating the tendency of meetings.
  • the evaluation unit 33 evaluates the tendency of the meeting to determine whether or not the conversation is lively, whether or not the participants' personalities and issues in the workplace are explored in depth, or the participants' mental states (degree of aspirations for the company, work (motivation, degree of trust in the other party, etc.) may be created.
  • the evaluation unit 33 may use “meeting tendencies,” “participant characteristics,” and “participant relationship characteristics” as targets for tagging.
  • the evaluation unit 33 may tag, for example, the quality of the tendency of meetings, the presence or absence of a relationship of trust, and the presence or absence of a harassment tendency.
  • the evaluation unit 33 may create, for example, tags that indicate features of the participants.
  • the evaluation unit 33 may, for example, extract features of participants according to the type of meeting. For example, when the meeting is an interview, the evaluation unit 33 determines characteristics such as "English proficiency”, “volunteer”, “studying abroad”, “New York”, “TOEFL”, etc. from remarks made during the meeting. It may be extracted and used as a tag.
  • the evaluation unit 33 creates tags such as speaking tendency, personality characteristics (brightness and darkness), amount of talk, presence/absence of sociability, amount of smile, influence on the other party, likability, etc., as features of the participants. You may In addition, the evaluation unit 33 may make it possible to match the applicant with a department or an interviewer with whom the applicant is compatible.
  • the output unit 22 may sort and display the meeting data.
  • the output unit 22 may sort the meeting data by participant, date and time, attribute of the participant, or tag of the participant, for example.
  • the output unit 22 outputs a pie chart (including a donut chart), a table/heat map (including a pivot table), a bar chart (including a stacked bar chart), a line graph, a scatter Diagrams, bubble charts, band charts, funnels (particularly useful for representing yield in the hiring process), histograms, gauges (like a meter in a car), area charts, area charts, box plots, radar charts, pareto charts , slope graphs, contour lines, Sankey diagrams, waterfall charts, maps to organization charts/network diagrams, and the like.
  • the output unit 22 may output using message notification, voice (sound), graph display on the screen, display simulating a traffic light, and screen color (display in which the edge of the window is colored).
  • the output unit 22 may use the progress time, implementation time, various scores, communication status, etc. of the meeting data as the axis of the graph.
  • the evaluation unit 33 may analyze the meeting data and extract highlights.
  • the evaluation unit 33 may link the time of occurrence in the meeting data to the score increase point, score decrease point, inappropriate remarks, and remarks related to changes in emotion.
  • the evaluation unit 33 may enable playback of the relevant portion of the video from the link.
  • the evaluation unit 33 may create a highlight video including these highlights.
  • the output unit 22 displays, as contents to be displayed in the form of graphs, items for displaying scores and transitions in one meeting, items for comparing and displaying multiple meetings held by the same participant, and items for other participants. For example, "comparing interviews with student B/student C conducted by interviewer A on the same graph” or "meetings with subordinate E/subordinate F conducted by boss D on the same graph to be compared with” can be considered.
  • the notification creation unit 21 may create a notification immediately or after the fact when an interview with an extremely low communication analysis score is detected.
  • the evaluation unit 33 lists them and notifies the personnel by e-mail. You may make it
  • the evaluation unit 33 may discover and propose (interviewer) pairs that are in a complementary relationship in terms of quality of communication, and contribute to improving the quality of the entire interview.
  • the comparison unit 20 may compare the power balance of participants in communication.
  • the output unit 22 may output this comparison result.
  • the feedback device 1 can be used in cross-sectional cooperation between the use for employment interviews and the use for interviews in the workplace.
  • the feedback device 1 may accumulate, as participant information, phrases and the like used in a job interview of a certain participant, and use the accumulated judgment information for judgment in an interview with the same participant in the workplace. .
  • the evaluation unit 33 may analyze the manner and content of statements made by participants (job seekers and interviewers) and convert them into evaluation indices. In addition, the evaluation unit 33 may evaluate the situation of the job seeker based on the difference in the reactions of the participants to the interviewer's remarks. In addition, the evaluation unit 33 may evaluate which agenda the participant can speak more appropriately. In addition, the evaluation unit 33 may analyze the extent of the statement and whether the answer was rich and may be scored. Thereby, the evaluation unit 33 can stabilize the evaluation system of the participants.
  • the output unit 22 may notify the output content by chat, dashboard, report, email, or call (telephone, etc.).
  • the output unit 22 when outputting data as an image, the output unit 22 performs color coding, marking, blinking, enclosing (dashed lines, wavy lines, dotted lines, etc.), animation, pop-up messages (including characters), Or you may output by notifying with a sound.
  • the feedback device 1 is used for optimal assignment of interviewers.
  • the feedback device 1 may also analyze and profile the personality of the participant.
  • the feedback device 1 reflects on the future activities of the participant (it was possible to detect a quiet personality during the interview, so it is possible that it is desirable to avoid being assigned to a lively department). notification, etc.).
  • FIG. 22 is a diagram showing the system configuration of this service in FIG. 11, showing an example different from the example in FIG.
  • the report R is created by the feedback device 1 having the system configuration shown in FIG. 13, but the system configuration for providing this service is configured as shown in FIG. may be Specifically, for example, as a service provider environment, meeting information including an interview video is sent from the web conference system used for the interview to the analysis server, and the analyzed feature points are stored in the database. Arbitrary feature points stored in the database are provided to the person in charge M (interviewer) participating in the web conference in real time via the web server.
  • meeting information including an interview video is sent from the web conference system used for the interview to the analysis server, and the analyzed feature points are stored in the database.
  • Arbitrary feature points stored in the database are provided to the person in charge M (interviewer) participating in the web conference in real time via the web server.
  • any characteristic points stored in the database are displayed in the form of a dashboard to the person in charge of personnel affairs MJ or the person in charge of department M (interviewer) in real time or after the end of the web conference.
  • the feedback device 1 in FIG. 14 serves both as the analysis server and the Web server in FIG.
  • arbitrary feature points stored in a database are placed on a web server in a company's unique environment, and are appropriately analyzed in the form of a dashboard or further analyzed, and referred to in a company's unique system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

ミーティングの状況に応じた情報をリアルタイムで把握することが可能なフィードバック装置及びプログラムを提供することを課題とする。 オンラインにおける参加者のミーティングにおいてリアルタイムにフィードバックを実施するフィードバック装置1であって、ミーティングに関するミーティングデータを取得するデータ取得部11と、ミーティングデータから抽出する特徴点と特徴点に対する判断基準とを基準情報して取得する基準情報取得部17と、取得した基準情報に基づいて取得したミーティングデータに含まれる特徴点を抽出する抽出部19と、抽出された特徴点と判断基準とを比較する比較部20と、比較結果に基づいて、ミーティングに関係する関係者に向けた通知を作成する通知作成部21と、作成された通知を関係者に向けて出力する出力部22と、を備える。これにより、上記課題を解決する。

Description

フィードバック装置及びプログラム
 本開示は、フィードバック装置及びプログラムに関する。
 従来より、オンラインでの面接、及び会議等のミーティングが実施されている。このようなオンラインミーティングを記録して分析することにより、ミーティングを支援するシステムが提案されている(例えば、特許文献1参照)。
特開2019-61594号公報
 ところで、オンラインミーティングでは、参加者同士がネットワークを介して接続されていることから、参加者がミーティングの状況を把握しづらいという課題があった。例えば、参加者は、他の参加者の反応や、ミーティングの雰囲気等について、画面又は音声を通じて把握する必要があるため、状況を把握しづらいという課題があった。
 特許文献1では、オンラインミーティングについて、リアルタイムでテキスト化及びミーティングを評価することにより、ミーティングの後にオンラインミーティングの記録を資産化している。一方で、特許文献1では、ミーティングの進行に応じて変化する状況について、これに応じた情報を提示することはできていない。また、特許文献1では、ミーティングの質についてまで把握できない。そこで、ミーティングの状況に応じた情報を把握することができれば好適である。
 本発明は、上記従来の実状に鑑みてなされたものであり、ミーティングの状況に応じた情報を把握することが可能なフィードバック装置及びプログラムを提供することを目的とする。
 本発明は、オンラインにおける参加者のミーティングにおいてフィードバックを実施するフィードバック装置であって、ミーティングに関するミーティングデータを取得するデータ取得部と、前記ミーティングデータから抽出する特徴点と特徴点に対する判断基準とを基準情報として取得する基準情報取得部と、取得した基準情報に基づいて取得したミーティングデータに含まれる特徴点を抽出する抽出部と、抽出された特徴点と判断基準とを比較する比較部と、比較結果に基づいて、前記ミーティングに関係する関係者に向けた通知を作成する通知作成部と、作成された通知を前記関係者に向けて出力する出力部と、を備えるフィードバック装置に関する。
 また、前記通知作成部は、オンラインにおける参加者のミーティングにおいてリアルタイムに通知を作成するのが好ましい。
 また、フィードバック装置は、前記参加者の属性を示す参加者情報を取得する参加者情報取得部と、取得された参加者情報に基づいて、参加者に対して用いる判断基準を決定する決定部と、をさらに備え、前記比較部は、抽出された特徴点と決定された判断基準とを比較するのが好ましい。
 また、前記基準情報取得部は、基準情報として通知を出力する出力先の関係者を特定する特定情報をさらに含み、前記出力部は、取得された参加者情報と取得された特定情報とに基づいて、出力先の参加者を決定するのが好ましい。
 また、前記抽出部は、特徴点として、前記ミーティングデータに含まれる予め定められた表現を抽出し、前記比較部は、抽出した予め定められた表現と判断基準とを比較し、
 前記通知作成部は、判断結果に基づいて、予め定められた表現を評価した通知を作成するのが好ましい。
 また、前記抽出部は、参加者の発話比率を特徴点として抽出し、前記比較部は、抽出した発話比率と判断基準とを比較し、前記通知作成部は、判断結果に基づいてバランスをとるように促す通知を作成するのが好ましい。
 また、前記抽出部は、特徴点として、参加者の状態を抽出し、前記比較部は、抽出した状態と判断基準とを比較し、前記通知作成部は、判断結果に基づいてアドバイスを提供する通知を作成するのが好ましい。
 また、前記抽出部は、特徴点として、発言の具体的な内容を抽出し、前記比較部は、抽出した内容と判断基準とを比較し、前記通知作成部は、判断結果に基づいて抽出した内容に対する通知を作成するのが好ましい。
 また、前記抽出部は、特徴点として、発言内容に基づく参加者のコミュニケーションの特徴を抽出し、前記比較部は、抽出した内容と判断基準とを比較し、前記通知作成部は、判断結果に基づいて抽出したコミュニケーションの特徴に対する対応手法を通知として作成するのが好ましい。
 また、フィードバック装置は、参加者の人数及び属性に応じて取得された基準情報の内容を変更する変更部をさらに備えるのが好ましい。
 また、フィードバック装置は、前記基準情報には、特徴点の前記種類として、引き出し力を把握するための1以上の種類、ジャッジ力を把握するための1以上の種類、及び、アトラクト力を把握するための1以上の種類を含むのが好ましい。
 また、本発明は、オンラインにおける参加者のミーティングに基づいてフィードバックを実施するフィードバック装置としてコンピュータを機能させるプログラムであって、前記コンピュータを、ミーティングに関するミーティングデータを取得するデータ取得部、前記ミーティングデータから抽出する特徴点と特徴点に対する判断基準とを基準情報して取得する基準情報取得部、取得した基準情報に基づいて取得したミーティングデータに含まれる特徴点を抽出する抽出部、抽出された特徴点と判断基準とを比較する比較部、比較結果に基づいて、前記ミーティングに関係する関係者に向けた通知を作成する通知作成部、作成された通知を前記関係者に向けて出力する出力部、として機能させるプログラムに関する。
 本開示によれば、ミーティングの状況に応じた情報を把握することが可能なフィードバック装置及びプログラムを提供することができる。
本発明の第1実施形態に係るフィードバック装置を含むフィードバックシステムを示す概略図である。 第1実施形態のフィードバック装置の構成を示すブロック図である。 第1実施形態のフィードバック装置の比較部によって比較される内容の一例を示すタイムチャートである。 第1実施形態のフィードバック装置の通知作成部によって作成される通知の一例を示すタイムチャートである。 第1実施形態のフィードバック装置の出力部によって出力される画面の一例を示す画面図である。 第1実施形態のフィードバック装置の動作の流れを示すフローチャートである。 本発明の第2実施形態のフィードバック装置の構成を示すブロック図である。 第2実施形態のフィードバック装置によって表示される画面を示す画面図である。 第2実施形態のフィードバック装置によって表示される他の画面を示す画面図である。 第2実施形態のフィードバック装置の動作の流れを示すフローチャートである。 本発明の第3実施形態に係るフィードバック装置を含むフィードバックシステムを用いたサービスの概要を示す図である。 採用における面接力の概要を示す図である。 図11に示すサービスを実現する、本発明の第3実施形態に係るフィードバック装置を含むフィードバックシステムを示す概略図である。 図13のフィードバックシステムのうちフィードバック装置、即ち、本発明の第3実施形態に係るフィードバック装置の構成を示すブロック図である。 図11の人事担当者が確認するレポートのうち、全ての部署担当者の特徴の情報を総合したダッシュボードの画面の一例を示す図である。 図11の人事担当者が確認するレポートのうち、部署担当者毎の特徴点の情報を確認するための面接官一覧の画面の一例を示す図である。 図11の人事担当者が確認するレポートのうち、特定の部署担当者の特徴点の情報を確認するための、当該特定の部署担当者の評価の画面の一例を示す図である。 特定の面接における各種類の特徴点のサマリ、面接の時系列情報、及び面接の動画データを確認するための、面接詳細分析の画面の一例を示す図である。 各種類の特徴点ごとに、図15乃至図18の画面における表示若しくは非表示を設定する画面の一例である。 図19の画面で設定対象となる各種類の特徴点の夫々について閾値を設定する画面の一例である。 面接の採用候補者USと部署担当者Mとして適切なペアをマッチングする機能、即ち上述の面接官マッチ機能を利用する画面の一例を示している。 図11の本サービスのシステム構成であって、図12の例と異なる例を示す図である。
 以下、本発明の各実施形態に係るフィードバック装置1及びプログラムについて、図1から図10を参照して説明する。
 まず、各実施形態に係るフィードバック装置1の概略について説明する。
 フィードバック装置1は、例えば、サーバ等の情報処理装置である。フィードバック装置1は、例えば、オンラインにおける参加者のミーティングにおいてフィードバックを実施する装置である。
 ここで、ミーティングの画像データ(静止画データ若しくは映像(動画)データ)若しくは音声データ又はミーティング以外のデータから取得又は算出され、数値化することが可能な情報であって、ミーティング又はミーティングの参加者に係る所定種類(所定属性)の特徴についての度合いを示す情報を、以下「特徴点」と呼ぶ。特徴点の種類(属性)としては、ミーティングの画像データ(静止画データ若しくは映像(動画)データ)又は音声データに関連するものとしては、参加者の発言内容、表情、仕草、発話比率、及びミーティング時間等が存在する。ミーティング以外のデータに関連するものとしては、合格率、トスアップ率、及び内定承諾率等が存在する。
 フィードバック装置1は、例えば、参加者の発言内容、表情、仕草、及び発話比率等の複数種類の特徴点を抽出して、抽出した種類の特徴点の内容に応じた通知を参加者等にフィードバックする。フィードバック装置1は、例えば、ミーティングの参加者に限定されず、ミーティングの管理者及び司会者等に対しても通知を出力する。これにより、フィードバック装置1は、ミーティングの状況に応じた情報を把握することを図っている。特に、以下の実施形態のフィードバック装置1は、参加者の心的状態がどう変わったか(例えば、ミーティングが採用面接であれば志望度向上や、心理的安全性向上、職場利用であれば参加者のモチベーション向上等)、或いは、参加者同士の関係性がどうなったか(例えば、採用面接であれば相手への好意向上、職場でのミーティングであれば上司・部下の関係性の改善等)といった人事的な観点でフィードバックを実施する。また、フィードバック装置1は、人事以外の観点についても、例えば会議利用でコミュニケーションを円滑にする、又はファシリテーションをサポートすることを図ったものである。フィードバック装置1は、例えば、「相手の参加者が緊張していそうなのでアイスブレイクしてください」、又は「次のアジェンダにうつった方が良いと思います」といったフィードバックを実施する。なお、以下の説明では、理解を容易にするために、ミーティングとして採用面接を例として説明する。
 なお、以下の第1及び第2実施形態では、ミーティング中に、リアルタイムにフィードバックを実施する場合が説明される。ここで、「リアルタイムにフィードバック」とは、即時にフィードバックするだけでなく、5分や10分ごとに、その間の参加者の状況をフィードバックすることも含む。また、以下の実施形態では、リアルタイムに限らず、事前に定められた期間の複数のミーティングが実施された後、予め定められたミーティングの回数実施後、又は問題を含むミーティングの回数が所定回数以上検出された場合にフィードバックされるようになっていてもよい。これにより、検証するミーティングの回数を増やすことができるので、フィードバックの確度を向上することができる。また、リアルタイムに限らず、ミーティングから予め設定された一定期間の後にフィードバックをしてもよい。これにより、冷静な状態の参加者に対してフィードバックを実施することができる。 
 次に、フィードバック装置1を含むフィードバックシステム200について説明する。
 フィードバックシステム200は、図1に示すように、複数の参加者端末100と、フィードバック装置1と、を含む。
 参加者端末100は、例えば、マイク及びカメラを有する情報処理装置である。参加者端末100は、例えば、ミーティングの参加者ごとに設けられる。参加者端末100は、例えば、面接官ごとに設けられる。また、参加者端末100は、面接を受ける受験者ごとに設けられる。また、参加者端末100は、ミーティングに直接参加しないが、ミーティングを管理する管理者ごとに設けられる。
 フィードバック装置1の詳細については後述する。
[第1実施形態]
 次に、本発明の第1実施形態に係るフィードバック装置1について、図1から図6を参照して説明する。
 フィードバック装置1は、参加者端末100を用いて実施されるミーティングに関して、ミーティングの状況を分析して、参加者に通知等のフィードバックを実施する。フィードバック装置1は、図1に示すように、複数の参加者端末100とネットワークNを介して接続される。本実施形態において、フィードバック装置1は、参加者端末100間のミーティングについても管理する装置として説明する。フィードバック装置1は、図2に示すように、データ取得部11と、参加者情報格納部12と、参加者情報取得部13と、ミーティング実施部14と、ミーティング格納部15と、基準情報格納部16と、基準情報取得部17と、決定部18と、抽出部19と、比較部20と、通知作成部21と、出力部22と、変更部23と、を備える。
 データ取得部11は、例えば、CPUが動作することにより実現される。データ取得部11は、ミーティングに関するミーティングデータを取得する。データ取得部11は、例えば、参加者端末100から送信される音声データ及び映像データをミーティングデータとして取得する。具体的には、データ取得部11は、各参加者端末100から送信される、参加者の音声データ及び映像データを取得する。
 参加者情報格納部12は、例えば、ハードディスク等の記録媒体である。参加者情報格納部12は、参加者の属性を示す参加者情報を格納する。参加者情報格納部12は、例えば、参加者を識別する識別情報(例えばID等)に紐づけられた参加者情報を格納する。参加者情報格納部12は、例えば、参加者情報として、参加者が受験者であるか面接官であるかの情報を格納する。また、参加者情報格納部12は、例えば、参加者が受験者である場合に、受験者の自己紹介動画、アンケート結果、性別、学歴、職歴、及び他のサービスから得られたデータ(チャットツール、エンゲージメント測定ツール等)等を参加者情報として格納する。また、参加者情報格納部12は、例えば、参加者が面接官である場合に、面接官の性別、性格、年齢、入社年度、入社区分(新卒/中途)、部署、役職、学歴、経験部署、人事評価(360度評価・360度フィードバックを含む)、業績情報(営業成績等)、休職履歴、勤怠データ、コミュニケーションデータ(チャットツール等から取得した他メンバーとのコミュニケーション頻度および質、組織図から見たつながりの傾向(業務上の関与メンバーが多い、少ないなど))、採用活動時のデータ、並びにヘルスケアプロダクトから取得したデータ等を参加者情報として格納する。本実施形態において、参加者情報格納部12は、ミーティングが実施される前に、予め参加者情報を格納する。
 参加者情報取得部13は、例えば、CPUが動作することにより実現される。参加者情報取得部13は、参加者の属性を示す参加者情報を取得する。参加者情報取得部13は、例えば、参加者を識別する識別情報に紐づけられた参加者情報を取得する。
 ミーティング実施部14は、例えば、CPUが動作することにより実現される。ミーティング実施部14は、所定のミーティングに参加予定の参加者によって用いられる参加者端末100から取得したミーティングデータを用いてミーティングを実施する。
 ミーティング格納部15は、例えば、ハードディスク等の記録媒体である。ミーティング格納部15は、実施されたミーティングの内容と、後述する作成された通知とを格納する。
 基準情報格納部16は、例えば、ハードディスク等の記録媒体である。基準情報格納部16は、取得したミーティングデータに関して、参加者の状態を判断する基準情報を格納する。基準情報格納部16は、例えば、ミーティングの開始及び終了時刻、アジェンダ、及びミーティングに関連する主題等のメタデータ等を基準情報として格納する。また、基準情報格納部16は、例えば、経過時間、発話比率の良否、笑顔比率の良否、及び会話速度の良否を判断基準として格納する。また、基準情報格納部16は、基準情報として通知を出力する出力先の関係者を特定する特定情報をさらに格納する。基準情報格納部16は、例えば、アジェンダの時刻について面接官及び関係者(ファシリテータ、コントローラ等)の参加者端末100に出力することを特定する特定情報を格納する。また、基準情報格納部16は、例えば、発話比率の良否、笑顔比率の良否、及び会話速度の良否については、該当する参加者を出力先として特定する特定情報を格納する。
 また、基準情報格納部16は、ミーティングデータに含まれる予め定められた表現に関する判断基準を基準情報として格納する。基準情報格納部16は、例えば、高圧的な発言、ネガティブな発言、及びポジティブな発言に関する判断基準を基準情報として格納する。また、基準情報格納部16は、例えば、怒鳴り声に該当する音声の音量、及び机を叩く等の仕草に関する判断基準を基準情報として格納する。また、基準情報格納部16は、参加者の状態を判断基準として格納する。基準情報格納部16は、例えば、参加者の表情、仕草、声のトーン、及び発言の具体的な内容に関する判断基準を基準情報として格納する。また、基準情報格納部16は、コミュニケーションの特徴に関する判断基準を基準情報として格納する。なお、基準情報格納部16は、例えば、状態として、発言・動作から読み取れる人の内的状態(例えば、心理的安全性、信頼度合い、及びモチベーション等)といった結果指標を格納する。また、基準情報格納部16は、表現として、「状態」に影響を与える原因となりうる発言・動作(例えば、パワハラ的で萎縮させる言動等)を格納する。すなわち、表現と状態との関係は、一例として、「表現」が引き金になって「状態」を作り出すものとして扱われる。
 基準情報取得部17は、例えば、CPUが動作することにより実現される。基準情報取得部17は、ミーティングデータから抽出する特徴点と特徴点に対する判断基準とを基準情報して取得する。基準情報取得部17は、例えば、基準情報格納部16に格納されている基準情報を取得する。
 決定部18は、例えば、CPUが動作することにより実現される。決定部18は、取得された参加者情報に基づいて、参加者に対して用いる判断基準を決定する。決定部18は、例えば、基準情報に含まれる出力先の特定に基づいて、参加者に対して用いる判断基準を決定する。
 抽出部19は、例えば、CPUが動作することにより実現される。抽出部19は、取得した基準情報に基づいて取得したミーティングデータに含まれる特徴点を抽出する。抽出部19は、例えば、基準情報に含まれるアジェンダに基づいて、取得したミーティングデータに含まれる経過時間を取得する。また、抽出部19は、例えば、基準情報に含まれる発話比率に基づいて取得したミーティングデータに含まれる参加者の発話比率を特徴点として取得する。また、抽出部19は、例えば、基準情報に含まれる笑顔比率に基づいて、ミーティングデータに含まれる参加者の顔の特徴部分を取得する。また、抽出部19は、基準情報に含まれる会話速度に基づいて、ミーティングデータに含まれる参加者の会話速度を取得する。抽出部19は、例えば、ミーティング中のミーティングデータから特徴点をリアルタイムで抽出する。抽出部19は、例えば、図3に示すように、経過時間、発話比率、笑顔比率、及び会話速度をリアルタイムで抽出する。
 また、抽出部19は、特徴点として、ミーティングデータに含まれる予め定められた表現を抽出する。抽出部19は、例えば、ミーティングデータに含まれる、高圧的な発言、ネガティブな発言、及びポジティブな発言を抽出する。また、抽出部19は、特徴点として、参加者の状態を抽出する。また、抽出部19は、特徴点として、発言内容に基づく参加者のコミュニケーションの特徴を抽出する。また、抽出部19は、参加者の応答内容を抽出する。また、抽出部19は、例えば、少なくとも表情及び文言のいずれか一方を特徴点として抽出する。抽出部19は、例えば、特徴点から、参加者の表情及び他の参加者から見た場合の表情の感じられ方(眉間にしわが寄っている等)を判断する。
 比較部20は、例えば、CPUが動作することにより実現される。比較部20は、抽出された特徴点と判断基準とを比較する。比較部20は、例えば、抽出された経過時間、発話比率、笑顔比率、及び会話速度と基準情報に含まれる判断基準とを比較する。比較部20は、例えば、判断基準として所定のしきい値に対して、抽出された特徴点を比較する。比較部20は、抽出された特徴点と決定された判断基準とを比較する。比較部20は、例えば、決定部18によって決定された参加者に適用する比較基準を用いて、抽出された特徴点を判断基準と比較する。また、比較部20は、抽出した予め定められた表現と判断基準とを比較する。また、比較部20は、抽出した状態と判断基準とを比較する。
 通知作成部21は、例えば、CPUが動作することにより実現される。通知作成部21は、比較結果に基づいて、ミーティングに関係する関係者に向けた通知を作成する。通知作成部21は、例えば、判断結果に基づいて発話比率のバランスをとるように促す通知を作成する。また、通知作成部21は、判断結果に基づいて、予め定められた表現を評価した通知を作成する。通知作成部21は、例えば、図4に示すように、笑顔比率の低い参加者に対して「表情が硬いので笑顔で」という通知を作成する。また、通知作成部21は、笑顔比率の高い参加者に対して「いい感じです!」という通知を作成する。また、通知作成部21は、会話速度が速くなっている参加者に対して「話速が上がっています」という通知を作成する。通知作成部21は、例えば、参加者ごとに判断された通知を作成する。通知作成部21は、例えば、高圧的な発言又はネガティブな発言を控えるように促す通知を作成する。また、通知作成部21は、例えば、ポジティブな発言に対して、高評価であることを示唆する通知を作成する。また、通知作成部21は、判断結果に基づいて抽出したコミュニケーションの特徴に対する対応手法を通知として作成する。通知作成部21は、例えば、面接中の参加者のコミュニケーションの特徴に対して、当該参加者に応じた対話の仕方(例えば、聞き役に回った方が良い、リードした方が良い等)を面接官に通知する。また、通知作成部21は、参加者の理解度を推定して、面接官に対する通知を作成する。
 また、通知作成部21は、例えば同じ用語が繰り返される場合等、発言の内容の偏りを指摘する通知を作成する。通知作成部21は、例えば、比較部20において比較された、発話比率、声質、及び表情の状態の良、不良から偏りを是正するか又はそのまま続けることを促す通知を作成するまた、通知作成部21は、例えば、同じカテゴリの文言が繰り返し出現する場合に、偏りを指摘する通知を作成する。また、通知作成部21は、アジェンダに対する文言の頻出度合いに応じて、深掘を促す通知を作成する。通知作成部21は、「いまの発言はどういった背景からのものですか?」「XXXという単語は初めて登場しましたが、相手に伝わりやすい言葉でしょうか?」等)の通知を作成する。通知作成部21は、例えば、採用であれば「相手の話を引き出す」「相手の性格・能力・資質を見極める」という目的、職場利用であれば「相手に内省を促し気づきを与える」「緊張している場合は緩和させる」などの目的が会話中タイプごとに用意され、それをコミュニケーション中に参加者(単独もしくは複数)に表示する。この時、アドバイスの内容や実施タイミングの算出に、それまでの動画中で得られたデータや、他使用データ(上記参照)を使用しても良い。また、通知作成部21は、相手の応答を解析して相手の理解度を通知してもよい。
 出力部22は、例えば、CPUが動作することにより実現される。出力部22は、作成された通知を関係者に向けて出力する。出力部22は、取得された参加者情報と取得された特定情報とに基づいて、出力先の参加者を決定する。出力部22は、例えば、アジェンダの時刻を面接官及びファシリテータの参加者端末100に対して出力する。出力部22は、例えば、発話比率、笑顔比率、及び会話速度に関する通知を該当する参加者の参加者端末100に対して出力する。出力部22は、例えば、メッセージ通知、音声(音)、画面へのグラフ表示、信号機を模したもの、又は色(ウィンドーの縁の色の変化)等を用いて通知してもよい。出力部22は、アドバイスの方法としてチャット以外の方法でも良い(下記「人事部・本人への通知方法」、「データの表示方法」および「画像データのパターン」参照)。出力部22は、アドバイスの実施タイミングとして、即時でも、5分おきなどのバッジ処理でも、会話が終了した後でも良い。
 変更部23は、例えば、CPUが動作することにより実現される。変更部23は、参加者の人数及び属性に応じて取得された基準情報の内容を変更する。変更部23は、例えば、面接官の人数及び受験者の人数の比率に応じて発話比率に関する基準情報(例えばしきい値)を変更する。
 次に、フィードバック装置1の動作の流れについて、図6のフローチャートを参照して説明する。
 まず、基準情報取得部17は、基準情報を取得する(ステップS1)。次いで、参加者情報取得部13は、参加者情報を取得する(ステップS2)。また、変更部23は、参加者の人数及び属性に応じて、取得された基準情報の内容を変更する。次いで、データ取得部11は、ミーティングデータを取得する(ステップS3)。
 次いで、ミーティング実施部14は、ミーティングを実施する(ステップS4)。次いで、決定部18は、参加者に用いる判断基準を決定する(ステップS5)。次いで、抽出部19は、ミーティングデータに含まれる特徴点を抽出する(ステップS6)。次いで、比較部20は、抽出された特徴と判断基準とを比較する(ステップS7)。
 次いで、通知作成部21は、比較結果に基づいて通知を作成する(ステップS8)。次いで、出力部22は、作成した通知を該当する参加者に向けて出力する(ステップS9)。
 次いで、ミーティングが終了するか否かが判断される(ステップS10)。ミーティングが終了する場合(ステップS10:YES)、本フローによる処理は、終了する。一方、ミーティングが継続する場合(ステップS10:NO)、処理は、ステップS6に戻る。
 次に、プログラムについて説明する。
 フィードバック装置1に含まれる各構成は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
 プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、表示プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、本実施形態に係るフィードバック装置1及びプログラムによれば、以下の効果を奏する。
(1)オンラインにおける参加者のミーティングにおいてリアルタイムにフィードバックを実施するフィードバック装置1であって、ミーティングに関するミーティングデータを取得するデータ取得部11と、ミーティングデータから抽出する特徴点と特徴点に対する判断基準とを基準情報として取得する基準情報取得部17と、取得した基準情報に基づいて取得したミーティングデータに含まれる特徴点を抽出する抽出部19と、抽出された特徴点と判断基準とを比較する比較部20と、比較結果に基づいて、ミーティングに関係する関係者に向けた通知を作成する通知作成部21と、作成された通知を関係者に向けて出力する出力部22と、を備える。これにより、ミーティングの状況に応じた情報をリアルタイムで把握することができる。
(2)フィードバック装置1は、参加者の属性を示す参加者情報を取得する参加者情報取得部13と、取得された参加者情報に基づいて、参加者に対して用いる判断基準を決定する決定部18と、をさらに備え、比較部20は、抽出された特徴点と決定された判断基準とを比較する。これにより、参加者ごとに判断基準を変更することができるので、柔軟性を向上することができる。
(3)基準情報取得部17は、基準情報として通知を出力する出力先の関係者を特定する特定情報をさらに含み、出力部22は、取得された参加者情報と取得された特定情報とに基づいて、出力先の参加者を決定する。これにより、フィードバックの内容を参加者ごとに変更することができるので、柔軟性を向上することができる。
(4)抽出部19は、特徴点として、発言の具体的な内容を抽出し、比較部20は、抽出した内容と判断基準とを比較し、通知作成部21は、判断結果に基づいて抽出した内容に対する通知を作成する。これにより、参加者の発言ごとに発言の良否を示す通知を作成することができるので、柔軟性を向上することができる。
(5)抽出部19は、特徴点として、発言内容に基づく参加者のコミュニケーションの特徴を抽出し、比較部20は、抽出した内容と判断基準とを比較し、通知作成部21は、判断結果に基づいて抽出したコミュニケーションの特徴に対する対応手法を通知として作成する。これにより、参加者にとって好ましいコミュニケーションの仕方を通知することができるので、より柔軟性を向上することができる。
(6)フィードバック装置1は、参加者の人数及び属性に応じて取得された基準情報の内容を変更する変更部23をさらに備える。これにより、参加者の状況に応じて判断基準を柔軟に変更することができる。
[第2実施形態]
 次に、本発明の第2実施形態に係るフィードバック装置1及びプログラムについて、図7から図10を参照して説明する。第2実施形態の説明にあたって、同一構成要件については同一符号を付し、その説明を省略もしくは簡略化する。
 第2実施形態に係るフィードバック装置1及びプログラムは、参加者のミーティングの一覧を出力するものである。特に、第2実施形態に係るフィードバック装置1は、実施済みのミーティングデータに関して判断及び蓄積された情報を一覧で表示することにより、ミーティングの改善に資する情報を得ることを図ったものである。
 第2実施形態に係るフィードバック装置1は、図7に示すように、判断結果取得部31と、検出対象設定部32と、評価部33と、傾向判断部34と、変化取得部35と、入力取得部36と、を備える点で第1実施形態と異なる。また、第2実施形態に係るフィードバック装置1は、データ取得部11が、既に実施済みのミーティングデータを複数取得する点で第1実施形態と異なる。また、第2実施形態に係るフィードバック装置1は、出力部22が取得したミーティングデータを一覧として出力するとともに、評価結果をミーティングデータごとに出力する点で第1実施形態と異なる。
 判断結果取得部31は、例えば、CPUが動作することにより実現される。判断結果取得部31は、ミーティングデータを解析して得られた特徴点に対する判断結果を取得する。判断結果取得部31は、例えば、第1実施形態の比較部20によって比較された結果を判断結果として取得する。また、判断結果取得部31は、第1実施形態の通知作成部21によって作成された通知を判断結果として取得する。
 検出対象設定部32は、例えば、CPUが動作することにより実現される。検出対象設定部32は、ミーティングデータに含まれる重要な特徴を検出対象として設定する。検出対象設定部32は、例えば、予め定められたネガティブな発言内容及び予め定められたポジティブな発言内容を検出対象として設定する。
 評価部33は、例えば、CPUが動作することにより実現される。評価部33は、判断結果に基づいて、ミーティングデータを評価する。評価部33は、例えば、良い傾向の判断結果が多いミーティングデータを良いミーティングデータとして評価する。また、評価部33は、例えば、面接に不適切な発言等が含まれていると判断されている場合に、問題のあるミーティングデータであると評価する。
 傾向判断部34は、例えば、CPUが動作することにより実現される。傾向判断部34は、取得された判断結果の傾向を判断する。傾向判断部34は、例えば、参加した面接官ごとの判断結果の傾向を判断する。具体的には、傾向判断部34は、参加した面接官ごとの発言傾向を判断する。
 変化取得部35は、例えば、CPUが動作することにより実現される。変化取得部35は、取得された判断結果ごとに特徴点に対する参加者の変化を取得する。変化取得部35は、例えば、笑顔に対する参加者の変化率を取得する。また、変化取得部35は、例えば、発話比率に関する参加者の変化を取得する。
 入力取得部36は、例えば、CPUが動作することにより実現される。入力取得部36は、ミーティング時又はミーティング後の任意に入力される参加者等によって入力されるテキスト等を取得する。入力取得部36は、例えば、参加者によるミーティング中のメモ書きや、ミーティング後に参加者又は関係者によって入力される面接に対する感想等のテキストを取得する。
 出力部22は、図8に示すように、ミーティングデータの一覧を出力する。出力部22は、評価結果、傾向、変化、及び入力内容をミーティングデータの一覧とともに出力する。出力部22は、例えば、ミーティングのデータの実施日時、参加者名、ミーティング内容等の情報とともに、当該ミーティングデータの評価結果、傾向、変化、及び入力内容を出力する。また、出力部22は、図9に示すように、一覧のうちから選択されたミーティングデータの内容の詳細を出力する。出力部22は、問題のある面談があった場合に検知し、それを面接の管理者等に出力してもよい。これにより、出力部22は、参加者又は参加者を含むグループのコミュニケーションの傾向を把握することができる。
 次に、フィードバック装置1の動作について、図10のフローチャートを参照して説明する。
 まず、データ取得部11は、ミーティングデータを取得する(ステップS11)。次いで、判断結果取得部31は、判断結果を取得する(ステップS12)。次いで、検出対象取得部は、検出対象を取得する(ステップS13)。
 次いで、評価部33は、ミーティングデータを評価する(ステップS14)。次いで、傾向判断部34は、ミーティングデータの傾向を判断する(ステップS15)。次いで、変化取得部35は、ミーティングデータにおける参加者の変化を取得する(ステップS16)。次いで、入力取得部36は、テキスト等の入力データを取得する(ステップS17)。次いで、出力部22は、評価結果、傾向、変化、及び入力データとともにミーティングデータの概要を出力する(ステップS18)。
 次いで、評価を終了するか否かが判断される(ステップS19)。評価するミーティングデータが無い場合(ステップS19:YES)、本フローによる処理は、終了する。一方、評価するミーティングデータが未だある場合(ステップS19:NO)、処理は、ステップS1に戻る。
 以上、本実施形態に係るフィードバック装置1及びプログラムによれば、以下の効果を奏する。
(7)参加者のミーティングの一覧を出力可能なフィードバック装置1であって、参加者のミーティングデータを複数取得するデータ取得部11と、会話データを解析して得られた特徴点に対する判断結果を取得する判断結果取得部31と、判断結果に基づいて、ミーティングデータを評価する評価部33と、取得したミーティングデータを一覧として出力するとともに、評価結果をミーティングデータごとに出力する出力部22と、を備える。これにより、実施済みのミーティングデータに関して判断及び蓄積された情報を一覧で表示することにより、ミーティングの改善に資する情報を得ることができる。
(8)評価部33は、ミーティングデータに重要な特徴を検出し、出力部22は、検出された重要な特徴をミーティングデータとともに出力する。これにより、特に着目すべき特徴を出力することができるので、より注目すべきミーティングデータを把握することが可能になる。
(9)フィードバック装置1は、取得された判断結果の傾向を判断する傾向判断部34をさらに備え、出力部22は、判断された傾向を出力する。これにより、参加者の発言内容等の傾向を把握することができるので、ミーティングの改善に資する情報を得ることができる。
(10)フィードバック装置1は、取得された判断結果ごとに特徴点に対する参加者の変化を取得する変化取得部35をさらに備え、評価部33は、取得された参加者の変化を評価する。これにより、参加者の詳細な状態変化をより容易に把握することができる。
(11)評価部33は、ミーティングデータに含まれる参加者ごとにミーティングの内容を評価し、出力部22は、参加者ごとの評価結果をミーティングデータとともに出力する。これにより、参加者ごとに異なるミーティングデータの評価結果を容易に得ることができる。
(12)フィードバック装置1は、ミーティングデータに対する入力を取得する入力取得部36をさらに備え、出力部22は、ミーティングデータとともに、取得した入力内容を出力する。これにより、ミーティングに対する状況等の詳細な情報をより容易に得ることができる。
[第3実施形態]
 次に、本発明の第3実施形態に係るフィードバック装置1について、図11から図21を参照して説明する。
 図11は、本発明の第3実施形態に係るフィードバック装置を含むフィードバックシステムを用いたサービス(以下、「本サービス」と呼ぶ)の概要を示す図である。
 第3実施形態では、ミーティングとして、採用面接が採用されている。なお、以下、第3実施形態の説明において、「採用面接」を「面接」と適宜略記する。
 図11の例では、採用を行おうとする企業には、人事部BJが存在する。人事部BJには、人事担当者MJが属している。
 また、企業には、採用を行おうとする(即ち採用面接を行い得る)複数の部署が存在する。企業は、複数の部署の夫々の計画に沿って採用を行う。これら複数の部署の夫々には、1以上の採用担当者(以下、「部署担当者」と呼ぶ)が属している。具体的には例えば、図11の例においては、複数の部署の一部として、α部Baとβ部Bbが描画されている。α部Baには、部署担当者Ma-1及び部署担当者Ma-2等が属している。また、β部Bbには、部署担当者Mb-1及び部署担当者Mb-2等が属している。
 なお、以下、部署及び人を特に区別する必要がない場合、部署担当者Ma-1、部署担当者Ma-2、部署担当者Mb-1、及び部署担当者Mb-2等をまとめて、「部署担当者M」と呼ぶ。
 このように、複数の部署の夫々の部署担当者Mが採用に関わることにより、部署毎の適切な受け答え(質疑応答や現場感覚の共有)等ができるため、より好適な採用面接となることが期待される。
 しかしながら、このように、採用に関与する部署担当者Mが多くなると、部署担当者Mに対する面接力の教育が困難になり、その結果、部署担当者Mの面接力の向上が困難になる。
 そこで、第3実施形態のフィードバック装置1は、このような部署担当者Mの面接力を向上させるためのレポートRを生成して、部署担当者Mのみならずその上司や人事担当者MJにフィードバックする。これにより、部署担当者Mの面接力の向上が可能となる。
 また、会社からの採用に応募する採用候補者USは、当該会社の複数の部署のうち希望部署の部署担当者Mとの1on1の面接を含む複数回の面接を経て、採用される。
 ここで、上述したように、面接力とは、面接を通して企業(面接官)が当該企業にとってふさわしい候補者との間で相思相愛になれる力であるといえる。そのため、一般的な面接力の向上を目指す一方、面接官と、候補者との間には相性も存在する。
 そこで、人事担当者MJには、複数の採用候補者USの夫々に対して、複数の部署担当者Mのうちその採用候補者USとの相性の良い部署担当者Mと面接をさせたいという要望が存在する。そこで、本サービスでは、面接官マッチ機能が提供される。面接官マッチ機能については、図21を用いて、後述する。
 さらに以下、上述のレポートRの提供によるフィードバックの流れについて説明する。
 ステップST1において、採用候補者USは、面接の希望をする。
 面接の希望とは、採用候補者USがその企業に応募する意思や、自身が将来的に所属する部署や担当する業務等の希望の内容を、企業に提示することをいう。
 次に、ステップST2において、人事担当者MJは、採用候補者USの面接の希望に基づいて、面接をセッティングする。
 面接のセッティングとは、採用候補者USと面接をする部署担当者Mを決定し、その採用候補者USと部署担当者Mとの面接のセッティングを行うことをいう。なお、ステップST2を示す矢印が破線となっているのは、第3実施形態では、面接官マッチング機能により部署担当者Mが決定されるため、面接のセッティングの一部又は全部はフィードバック装置1の処理により実現され、実際的に人事担当者MJの作業は少ないことを示している。
 ここでは、ステップST2において、α部の部署担当者Ma-2と採用候補者USとの面接がセッティングされたものとして、次のステップST3以降の流れについて説明する。
 ステップST3において、ミーティングとして、採用候補者USと部署担当者Mとの面接が行われる。
 具体的には例えば図11の例では、ミーティングとして、採用候補者USと部署担当者Ma-2との間で、ウェブ会議システムを用いた1on1の面接が行われる。
 ステップST4において、ミーティング内容として、ミーティングの画像データと音声データのうち少なくとも一方を含む情報が、ミーティング格納部15(図14)に記録される。また、部署担当者Mによる面接の結果として、採用結果や面接に関するコメントが、参加者情報格納部12(図14)に記録される。
 ステップST5において、抽出・比較・通知の作成が行われる。
 ステップST6において、レポートRの出力がされる。
 レポートRには、面接を行った部署担当者Mの面接力が記載されている。面接力については、図12を参照して後述するが、より良い面接を実現するために重要な指標である。
 出力されたレポートRは、人事部BJの人事担当者MJに適宜提供される。人事担当者MJは、レポートRに記載された部署担当者Mの面接力等に基づいて、部署担当者Mの適性等を確認し、面接力向上のための教育を部署担当者Mに施したり、面接官マッチング機能におけるマッチングの条件を変化させることができる。このように、レポートRは、より良い面接を実現できるような対応を行うことができるように、フィードバックされるのである。
 次に、レポートRに含まれる面接力について説明する。会社の採用活動においては、面接官(図11の例では部署担当者M)の面接力向上のための教育や、面接力に応じた面接官マッチングを行うことが重要である。
 図12は、採用における面接力の概要を示す図である。
 採用する力(以下、「採用力」と呼ぶ)は、企業の将来の運営の成否に寄与する重要な力である。
 図12に示すように、採用力には、面接力、母集団形成力、及び運営効率等が含まれる。
 ここで、面接力とは、面接官が候補者を面接する力のことである。面接は、複数の候補者(図11の例では採用候補者US)から採用者を企業(面接官)が選択するものと把握される側面があるが、候補者にとっても企業を選択する機会を与えてくれるものという側面もある。この点を考慮すると、面接力は、面接を通して企業(面接官)が当該企業にとってふさわしい候補者との間で相思相愛になれる力であるともいえる。
 ここで、細分化して考えると、面接力は、引き出し力、アトラクト力、ジャッジ力が含まれる。
 引き出し力とは、面接官が候補者から必要十分な事項を聞き出す力である。引き出し力を高めるには、例えば、面接官は、段取り(面接時間等)、候補者に対する傾聴、話題の発散・深掘、及び発言内容等の項目を適切にケアすることが必要である。
 アトラクト力とは、面接官が候補者の企業に対する好感度を上げる力である。アトラクト力を高めるには、例えば、面接官は、NG行動の有無(例えば遅刻の有無やNG発言の有無)や、非言語(笑顔等)、候補者への興味、及び自社アピール等の項目を適切にケアすることが必要である。
 ジャッジ力とは、面接官が、次回の選考や内定に適切な候補者を選ぶ力である。ジャッジ力を高めるには、例えば、面接官は、合格基準の適切さや判断理由の言語化、及び公平性等を適切にケアすることが重要である。
 図11の例でいえば、面接官たる部署担当者Mは、面接力を有していれば、複数の採用候補者USの夫々に対して面接をすることで、適切に情報を聞き出すとともに、企業に対する好感度を上げたうえで、次回の選考や内定に適切な採用候補者USを選ぶことができ、最終的に、採用候補者USと企業とが相思相愛となることができる。このようにして部署担当者Mが面接力を向上させることによって、企業にとって適切な採用候補者USを採用することができるのである。
 そこで、部署担当者Mの面接力を向上させるべく、本サービスは、図11に示すように、面接の内容や採用結果や面接に関するコメントを蓄積するとともに、抽出・比較・通知し、レポートRを作成する。
 次に、図13を参照して、第3実施形態のフィードバック装置1を含む情報処理システム(以下、「フィードバックシステム」と呼ぶ)の構成について説明する。
 図13は、図11に示すサービスを実現する、本発明の第3実施形態に係るフィードバック装置を含むフィードバックシステムを示す概略図である。
 図13に示すフィードバックシステムは、フィードバック装置1と、採用候補者端末110と、参加者端末100-1乃至100-nと、人事担当者端末120とを含むように構成されている。
 フィードバック装置1と、採用候補者端末110と、参加者端末100-1乃至100-nと、人事担当者端末120とは、インターネット等の所定のネットワークを介して相互に接続されている。
 フィードバック装置1は、図11に示すサービスの提供者(以下、「サービス提供者」と呼ぶ)により管理されるサーバである。フィードバック装置1は、参加者端末100-1乃至100-nと、採用候補者端末110と、人事担当者端末120と適宜通信をしながら、図11に示すサービスを実現するための各種処理を実行する。
 図11に示すサービスでは、部署担当者Mが面接をする際には参加者となる。そこで、参加者端末100-1乃至100-nの夫々は、面接官となるn人の部署担当者Mの夫々により操作される情報処理装置である。
 なお、以下、複数の部署担当者Mの夫々を個々に区別する必要がない場合、参加者端末100-1乃至100-nをまとめて「参加者端末100」と呼ぶ。さらに、第3実施形態の説明に限り、図13にかっこ書きで示すように、参加者端末100を適宜「部署担当者端末100」と呼ぶ。
 部署担当者Mは、部署担当者端末100を操作して、オンラインミーティングにより採用候補者USと面接を行う。
 一方、採用候補者USも面接の参加者であるが、図11の例のサービスは企業側にフィードバックするサービスのため、採用候補者USにより操作される端末は、参加者端末100ではなく、採用候補者端末110とされている。
 即ち、採用候補者端末110は、採用候補者USにより操作される情報処理装置である。採用候補者USは、採用候補者端末110を操作して、オンラインミーティングにより部署担当者Mと面接を行う。
 人事担当者端末120は、人事担当者MJにより操作される情報処理装置である。人事担当者MJは、人事担当者端末120を用いて、レポートRを確認することができる。
 図14は、図13のフィードバックシステムのうちフィードバック装置、即ち、本発明の第3実施形態に係るフィードバック装置の構成を示すブロック図である。
 図14の説明において、前述した第1実施形態及び第2実施形態と同様の機能を果たすブロックは、同一の符号を用いて、重複する説明を適宜省略する。
 図14に示すように、フィードバック装置1のCPUにおいては、データ取得部11と、参加者情報取得部13と、ミーティング実施部14と、基準情報取得部17と、決定部18と、抽出部19と、比較部20と、通知作成部21と、出力部22と、変更部23と、基準情報設定部24と、比較単位設定部25とが機能する。
 なお、サーバ1の記憶部の一領域には、ミーティング格納部15と、基準情報格納部16と、特徴点格納部26とが設けられている。
 データ取得部11は、部署担当者端末100-1乃至100-nのうち面接が行われた部署担当者端末100から、ミーティングデータを夫々取得する。
 データ取得部11により取得されたミーティングデータは、ミーティング格納部15に格納されて管理される。
 基準情報設定部24は、ミーティングデータから抽出する特徴点の種類と、当該種類の特徴点に対する判断基準とを含む情報を、基準情報として取得して基準情報格納部16に格納して管理することで、基準情報を設定する。
 具体的には例えば、特徴点の種類として、予め定められた表現、発話比率、人の状態、発言の具体的内容、及び発言内容に基づく部署担当者Mのコミュニケーションの特徴が含まれるものとする。これらの特徴点の種類の夫々について、判断基準が夫々取得される。
 なお、上述の図13に示したように、面接力には、引き出し力、ジャッジ力、アトラクト力が重要である。そこで、基準情報設定部24は、引き出し力を把握するための1以上の種類、ジャッジ力を把握するための1以上の種類、及び、アトラクト力を把握するための1以上の種類を含むように基準情報を設定すると好適である。
 ここで、引き出し力を把握するための1以上の種類、ジャッジ力を把握するための1以上の種類、及び、アトラクト力を把握するための1以上の種類の夫々は、予め固定されているものが採用されてもよいが、ここでは、後述の図19に示すように、人事担当者MJにより自由に設定可能なものとされている。
 なお、引き出し力、ジャッジ力、アトラクト力のいずれかが向上すれば、面接力の少なくとも一部が向上するといえる。そこで、基準情報設定部24は、引き出し力を把握するための1以上の種類、ジャッジ力を把握するための1以上の種類、及び、アトラクト力を把握するための1以上の種類のうち、1以上の種類を含むように基準情報を設定してもよい。
 基準情報取得部17は、基準情報格納部16に格納された基準情報、即ち特徴点の種類及びその判断基準を取得する。
 比較単位設定部25は、抽出部19における特徴点を抽出する単位として、企業(会社)、部署、部署担当者M(面接官)、面接(ミーティング)のうち何れかを設定する。具体的には例えば、人事担当者MJは、ある部署に属する複数の部署担当者Mの特徴点を確認したい場合、特徴点を抽出する単位として部署を設定するための操作を行う。即ち、比較単位設定部25は、人事担当者MJの操作に基づいて設定された特徴点を抽出する単位を、人事担当者端末120を介して人事担当者MJから取得する。
 そして、抽出部19は、基準情報取得部17により取得された基準情報に含まれる特徴点の種類、及び比較単位設定部25により設定された単位に基づいて、ミーティングデータから特徴点を抽出する。抽出された特徴点は、特徴点格納部26に格納されて管理される。
 比較部20は、抽出部19により抽出された特徴点と、取得された基準情報に含まれる判断基準とを比較する。
 通知作成部21は、抽出部19により抽出された特徴点と、基準情報に含まれる判断基準とが比較部20により比較された結果に基づいて、比較単位設定部25により設定された単位についてのレポートRを通知として作成する。
 出力部22は、通知作成部21により作成されたレポートRを人事担当者端末120に出力する。これにより、人事担当者MJにより設定された単位について集計されて作成されたレポートRが通知として、人事担当者MJに提示される。即ち、人事担当者MJは、企業(会社)、部署、部署担当者M、面接毎といった様々な単位毎のレポートRを通知として確認することができる。
 また例えば、部署担当者Mを単位とするレポートRや、部署担当者Mが担当した面接毎の単位で作成されたレポートRは、当該部署担当者Mの端末100に出力される。これにより、部署担当者Mは、自身を単位とするレポートRや、自身が担当した面接を単位とするレポートRを確認することができる。このようにして、部署担当者Mは、面接のフィードバックを得ることができる。
 図15は、図11の人事担当者が確認するレポートのうち、全ての部署担当者の特徴の情報を総合した各特徴点のサマリ情報を確認するダッシュボードの画面の一例を示す図である。
 図15に示す画面には、全ての部署担当者Mの情報を総合した各特徴点のサマリ情報が表示されている。具体的には、例えば、部署担当者Mの人数、面接回数、平均NPS、最終参加率、内定承諾率といった種類の特徴点が表示されている。
 図15に示す領域G11には、母集団を選択するための選択窓が表示されている。人事担当者MJは、選択窓を用いて、全ての部署担当者Mの情報を総合する母集団を設定することができる。具体的には例えば、所定年度のビジネスの新卒採用のための面接について総合する選択肢や、所定の四半期における所定部の中途採用のための面接といった、母集団を設定することができる。
 また、図15に示す領域G12には、スコアが表示されている。図15の例においては、スコアの集計の単位として、「部署別」が設定されている。
 その結果、領域G12には、各部署毎の引き出し力、ジャッジ力、アトラクト力のスコア(ここでは、1~3の整数値)と、その割合が表示されている。
 図16は、図11の人事担当者が確認するレポートのうち、部署担当者毎の特徴点の情報を確認するための面接官一覧の画面の一例を示す図である。
 図16に示す画面には、任意の条件で部署担当者Mを絞り込み、部署担当者Mの単位の特徴点が集計されて表示されている。
 具体的には例えば、領域G21に示すように、部署担当者Mの属性情報(例えば、部署名や面接キャリア)と各特徴点が各列として表示されている。具体的には例えば、特徴点の種類として、面接力評価、面接キャリア、面接回数、引き出し力、アトラクト力、結果指数とが、表示されている。図16の例において、引き出し力、アトラクト力、結果指数の特徴点は、星の数で示されている。
 また、人事担当者MJは、領域G21の各列を適宜設定することができる。具体的には例えば、各種類の特徴点の数値表示、各種類の特徴点の記号表示(例えば、星の数や〇×△等)、複数種類の特徴点を組み合わせた総合評価、任意の面接官の属性情報が設定され得る。
 図17は、図11の人事担当者が確認するレポートのうち、特定の部署担当者の特徴点の情報を確認するための、当該特定の部署担当者の評価の画面の一例を示す図である。
 図17に示す画面には、特定の部署担当者Mにおける各種類の特徴点の詳細が表示されている。
 例えば、図17の領域G30には、特徴点に基づいてタイプ分けされた面接スタイルが表示されている。具体的には例えば、図17の例においては、部署担当者Mの面接の進め方・話す態度に関する特徴点に基づいてタイプ分けされた面接スタイルとして、ロジカルタイプが示されている。
 なお、人事担当者が確認するレポートに示される面接スタイルは、特徴点に基づいてタイプ分けされた面接スタイルに限定されない。即ち例えば、面接とは別の性格診断等に基づいてタイプ分けされた面接スタイルが示されてもよい。
 具体的には例えば、まず、性格診断等に基づいて「現実志向及び未来志向」の軸、「論理的及び情熱的」の軸で区分される四象限のタイプに、部署担当者Mが分類される。そして、部署担当者Mが属する象限に基づいてタイプ分けされた面接スタイルが示される。具体的には例えば、部署担当者Mが現実志向及び論理的の象限に属する場合「ロジカルタイプ」、現実志向及び情熱的の象限に属する場合、「フレンドリー」といった面接スタイルが、性格診断の結果に基づいてタイプ分けされた面接スタイルとして示される。
 また、図17の領域G31には、人事担当者MJ等他者からの定性評価や、部署担当者M自身でのメモとして、コメントが表示されている。
 なお、図17の例においては、人事担当者MJ等他者からの定性評価や、部署担当者M自身でのメモとしてコメントが表示されているが、フィードバック装置1の処理により生成等された初見がコメントとして表示されてもよい。具体的には例えば、フィードバック装置1は、部署担当者Mの特徴点に基づいて、面接時間短めや候補者発話少なめ等の判定を行う。そして、フィードバック装置1は、判定結果に基づいて、コメントを生成及び表示することが出来る。
 図17の画面の下部には、部署担当者Mの評定が、各特徴点の種類ごとに表示されている。
 具体的には、図17の領域G32においては、任意の回数分、時系列に各種類の特徴点がグラフ化されている。そして、設定されている閾値を下回っている種類の特徴点については、当該種類を示すグラフが強調表示される。
 また、領域G33においては、部署担当者Mの平均の特徴点の数値が表示されている。
 また、領域G34においては、部署担当者Mの平均と比較すべく、会社内の平均や、本サービスを利用する他社も含めた全社平均、同業種平均等が表示されている。
 また、領域G35においては、部署担当者Mの平均と会社内平均の比較、任意の回数分の過去面接の閾値超過回数等、各種類の特徴点が任意の条件で記号化又は数値化された形態で評価及び評定として表示されている。
 人事担当者MJは、図17の部署担当者Mの評価の画面を視認することで、その部署担当者Mについて、各種各様な特徴点を、様々な区分(例えば、社内)の平均な評定と比較して確認することができる。
 図18は、特定の面接における各種類の特徴点のサマリ、面接の時系列情報、及び面接の動画データを確認するための、面接詳細分析の画面の一例を示す図である。
 具体的には、図18の画面の領域G41には、特定の面接における動画データに対応する動画(以下、「面接動画」と呼ぶ)が表示されている。人事担当者MJは、領域G41に表示された面接動画を確認することができる。
 また、領域G42には、面接の時系列情報が表示される。面接の時系列情報とは、面接動画の解析の結果として、特定の面接における部署担当者Mについての各種類の特徴点及び採用候補者USの各種類の特徴点の夫々の値が、所定時間の間隔ごとにプロット又は棒グラフとして、時系列の順に2次元平面上に配置された情報である。この2次元平面のうち、横軸は時間であり、縦軸は各種類の特徴点の値である。
 また、領域G43には、絶対時間や相対時間の任意の時間単位(絶対時間の時間単位としては例えば5分間、相対時間の時間単位としては例えば面接時間の10分の1)で区切られた区間における、部署担当者M及び採用候補者USの各種類の特徴点の夫々の平均値が表示されている。
 また、領域G44には、人事担当者MJ等が特徴点を確認していた区間から、面接動画を再生させるボタンが表示されている。
 人事担当者MJは、領域G42に表示された時系列情報を用いて、部署担当者M及び採用候補者USの各種類の特徴点の時間変化を確認し、領域G42の表示内容により、各時間帯の各種類の特徴点を確認することができる。
 そして、人事担当者MJは、例えば、ある時間帯において所定種類の特徴点の値が気になった場合(例えば、極端に低い場合)に、領域G44に表示された再生するボタンを押下操作することにより、その気になった時間帯の面接動画を確認することができる。
 これにより、人事担当者MJは、部署担当者Mに対して適切なアドバイス等を適宜フィードバックすることができる。
 また、部署担当者Mも、図18の例の画面を、自身のレポートRとして参照することができる。これにより、部署担当者Mは、自身で反省点等を考慮することが出来るようになるため、自身の面接力の向上をすることができる。
 図19は、各種類の特徴点ごとに、図15乃至図18の画面における特徴点の表示若しくは非表示を設定する画面の一例である。 図19の画面には、引き出し力を把握するための特徴点として、表示(ON)若しくは非表示(OFF)を設定する特徴点の種類として、面接時間、逆質問開始時間、話題の発散、話題の深掘り、傾聴度が示されており、各種類について、ON/OFFスイッチが表示されている。
 また、図19の画面には、ジャッジ力を把握するための特徴点として表示(ON)若しくは非表示(OFF)を設定する特徴点の種類として、合格基準、判断の公平性、多様性受容度、評価の言語化、評価観点が示されており、各種類について、ON/OFFスイッチが表示されている。
 また、図19の画面には、アトラクト力を把握するための特徴点として表示(ON)若しくは非表示(OFF)を設定するための特徴点の種類として、遅刻有無、NGワード発言有無、笑顔度、自社アピール、NPSが示されており、各種類について、ON/OFFスイッチが表示されている。
 人事担当者MJは、企業において、面接力(引き出し力、ジャッジ力、アトラクト力)を把握するために用いる1以上の特徴点の種類を、図19の画面のON/OFFスイッチを操作することにより設定することができる。
 換言すると、人事担当者MJによりON(表示)とされた特徴点の種類とは、図14の基準情報設定部24で設定される基準情報のうち、ミーティングデータから抽出する特徴点の種類を意味することになる。
 図20は、図19の画面で設定対象となる各種類の特徴点の夫々について閾値を設定する画面の一例である。
 ここで、閾値の設定とは、図14の基準情報設定部24で設定される基準情報のうち、判断基準の設定を意味する。即ち、特徴点の所定種類について設定された閾値の上限及び下限の範囲が、当該所定種類にとって推奨範囲であり、判断基準になる。
 このため、図20の画面には、特徴点の各種類の夫々について、閾値の上限及び下限を設定する窓(以下、「設定窓」と呼ぶ)が表示されている。人事担当者MJは、図20の画面の設定窓に数値を入力することで、特徴点の種類ごとに、目標とする閾値の上限及び上限(即ち判断基準としての推奨範囲)を設定することができる。
 即ち、図19の画面により、ミーティングデータから抽出する特徴点の種類が入力され、図20の画面により、当該種類の特徴点に対する判断基準が入力されることになる。従って、図14の基準情報設定部24は、図19及び図20の各画面により入力された情報を、基準情報として取得して、基準情報格納部16に格納して管理することで、基準情報を設定することができる。
 図21は、面接の採用候補者USと部署担当者Mとして適切なペアをマッチングする機能、即ち上述の面接官マッチ機能を利用する画面の一例を示している。
 図21に示す画面には、2次面接の推奨組み合わせとして、採用候補者US(候補者)の夫々に対して相性が好適な部署担当者M(面接官)の氏名と、マッチ度とが表示されている。
 なお、マッチ度(相性)は、過去の面接における1以上の種類の特徴点、過去の面接でのマッチ度実績、面接スタイル、アンケート、適性検査等の各種各様なデータが加味されて算出される。
 人事担当者MJは、図21の画面に表示されたマッチ度に応じて、面接のセッティングを行う(図11のステップST2)。これにより、採用候補者USに対して相性のよい部署担当者Mが担当して面接するため、より良い面接となる。即ち、会社の観点では、高い面接力が発揮された面接が実行されることになり、その結果として、採用力が高まることになる。即ち、採用候補者USと会社とが、部署担当者Mを介して相思相愛となるような面接が実行されるので、会社にとって採用力が高まることになる。
 なお、面接マッチ機能は、採用候補者USが、自身を面接する面接官(上述の部署担当者M等)を選択する際のマッチングに用いてもよい。即ち、採用候補者USは、自身にとって相性の良い複数の部署担当者Mと面接をしたいと考える。そこで、本サービスでは、面接官マッチ機能が提供される。
 以上、本発明のフィードバック装置及びプログラムの好ましい各実施形態につき説明したが、本開示は、上述の実施形態に制限されるものではなく、適宜変更が可能である。
 例えば、上記実施形態において、ミーティングデータは、音声データのみや、映像データのみ、又は両方を含むものであってよい。
 また、上記実施形態において、ミーティングについて採用面接を例に説明したが、これに制限されない。ミーティングは、社内での会議(1on1、複数人でのミーティング)、ビジネス上の他社との商談等、種々のミーティングを含むことができる。また、ミーティングは、入学試験(大学入試等)及び職業紹介事業等のキャリアカウンセリング等を含むことができる。
 また、上記実施形態において、ミーティングは1on1のミーティングに限らず、複数人が参加するミーティングであってよい。また、通知作成部21及び出力部22は、1人の参加者が話過ぎている場合に、他の参加者に対して静止を目的とした通知を作成及び出力するようにしてもよい。また、通知作成部21は、ファシリテータに対して、静止を目的とした通知を作成してもよい。また、通知作成部21は、静止に限らず、ミーティングを円滑に進めることを目的とする通知をしてよい。通知作成部21は、例えば、笑顔が少ない場合に、笑顔醸成を促す通知をしてよい。また、通知作成部21は、集中力が切れている場合に休憩を取ることを提案する通知や、ある参加者の発言に納得のいっていない表情をしている他の参加者に発言を促す等の通知をしてよい。
 また、上記第2実施形態において、出力部22は、参加者別、日時別、属性別、ミーティングデータに付されるタグ等に基づいて、ソート可能及び検索可能にミーティングデータの一覧を出力してもよい。
 また、上記実施形態において、抽出部19は、声のトーン、笑顔以外の表情(悲しみ、驚き、リラックス、怒り、及び当惑等)、さえぎりの回数、タイミングの良否、発話内容の良否、仕草、ボディーランゲージの良否等を特徴点として抽出してもよい。
 また、上記実施形態において、参加者は、ミーティングに参加している人物に限定されない。参加者は、例えば、ミーティングに参加しないがミーティングを管理する管理者や、ミーティングに参加せずにミーティングの内容を閲覧する閲覧者(所属部門管理者や参加者に対して外部から指示する人物を含む)等を含んでもよい。なお、この場合、管理者や閲覧者の動画像や言動から通知はフィードバックされなくてもよい。
 また、上記第2実施形態において、評価部33は、ミーティングの傾向を示す内容のタグを作成してもよい。評価部33は、ミーティングの傾向として、話の弾みの有無、参加者のパーソナリティー及び職場での課題等の深掘りの有無、或いは、参加者の心的状態(会社への志望度、仕事へのモチベーション、相手への信頼度合い等)の向上の有無等のタグを作成してもよい。評価部33は、例えば、タグ付けの対象として、「ミーティングの傾向」、「参加者の特徴」、及び「参加者同士の関係性の特徴」を用いてもよい。評価部33は、例えば、ミーティングの傾向が良否、信頼関係の有無、及びハラスメント傾向の有無についてタグ付けの対象としてもよい。また、評価部33は、例えば、参加者の特徴を示すタグを作成してもよい。評価部33は、例えば、ミーティングの種類に応じて、参加者の特徴を抽出してもよい。評価部33は、例えば、ミーティングが面接である場合に、参加者の特徴として、ミーティング中の発言から「英語力」、「ボランティア」、「留学」、「ニューヨーク」、「TOEFL」等の特徴を抽出してタグとしてもよい。また、評価部33は、参加者の特徴として、発言傾向、性格の特性(明暗)、話の多寡、社交性の有無、笑顔の多寡、相手への影響、好かれやすさ等のタグを作成してもよい。また、評価部33は、相性の良い部門や面接担当者と引き合わせることを可能にしてもよい。
 また、上記第2実施形態において、出力部22は、ミーティングデータをソートして表示してもよい。出力部22は、例えば、参加者別、日時別、参加者の属性別、又は参加者のタグを用いてミーティングデータをソートしてもよい。
 また、上記第2実施形態において、出力部22は、ミーティングデータの内容について、円グラフ(ドーナツグラフ含む)、表・ヒートマップ(ピボットテーブル含む))、棒グラフ(積み上げ棒グラフ含む)、折れ線グラフ、散布図、バブルチャート、帯グラフ、じょうご(採用プロセスの歩留まりを表すのに特に有用)、ヒストグラム、ゲージ(車のメーターのようなもの)、面グラフ、面積グラフ、箱ひげ図、レーダーチャート、パレート図、スロープグラフ(坂グラフ)、等高線、サンキーダイアグラム、ウォーターフォールチャート、又は組織図・ネットワーク図へのマップ等で出力してもよい。また、出力部22は、メッセージ通知、音声(音)、画面にグラフ表示、信号機を模した表示、画面の色(ウィンドーの縁に色を付した表示)を用いて出力してもよい。
 また、第2実施形態において、出力部22は、グラフの軸として、ミーティングデータの進行時刻、実施時刻、各種スコア、又は通信状況等を用いて表現してもよい。また、評価部33は、ミーティングデータを解析して、見どころを抽出してもよい。評価部33は、スコアの上昇点、降下点、不適切発言、感情の変化に関連する発言にミーティングデータにおいて発生した時刻をリンクさせてもよい。また、評価部33は、リンクから動画の該当箇所を再生できるようにしてもよい。また、評価部33は、これらの見どころを含むハイライト動画を作成してもよい。出力部22は、グラフで表示させる内容として、1回のミーティングの中の各点数・推移などを表示させるもの、同じ参加者で実施された複数回のミーティング同士を比較表示するもの、他の参加者と比較表示するもの例えば、「面接官Aの実施した学生B/学生Cとの面接を同じグラフで比較するもの」、又は「上司Dの実施した部下E/部下Fとのミーティングを同じグラフで比較するもの」が考えられる。
 また、上記第1実施形態において、通知作成部21は、コミュニケーションに関する解析スコアが極端に低い面談が検知された場合に、即時、もしくは事後的に通知を作成してもよい。また、第2実施形態において、評価部33は、例えば、その日の夕方に、当日実施された面接の内、笑顔度が極端に低い面談があれば、それらをリストアップして人事あてにメール通知するようにしてもよい。また、評価部33は、コミュニケーションの質として補完関係にある(面接官)ペアを発見及び提案して、面談全体の質の向上に寄与するようにしてもよい。また、上記第1実施形態において、比較部20は、コミュニケーションにおける参加者のパワーバランスを比較してもよい。出力部22は、この比較結果を出力してもよい。
 また、上記実施形態において、フィードバック装置1は、採用面接での利用と、職場内での面談での利用とを横断的に連携させて用いることができる。例えば、フィードバック装置1は、ある参加者の採用面接で用いられた文言等を参加者情報として蓄積して、職場内での同じ参加者の面談における判断に蓄積された判断情報を用いてもよい。
 また、上記第2実施形態において、評価部33は、参加者(求職者及び面接官)の発言の様子及び内容を解析して、評価指標への変換をしてもよい。また、評価部33は、面接官の発言に対する参加者の反応の違いに基づいて、求職者の状況を評価してもよい。また、評価部33は、参加者がいずれのアジェンダをより適切に語れているかを評価してもよい。また、評価部33は、発言の自身の程度や、豊かな回答を行えていたかを解析し、スコア化してもよい。これにより、評価部33は、参加者の評価制度を安定化することができる。
 また、上記実施形態において、出力部22は、出力内容を、チャット、ダッシュボード、レポート、メール、又はコール(電話等)で通知してよい。また、出力部22は、データを画像で出力する場合、色分け、印をつける、点滅させる、囲いをつける(破線、波線、点線等)、アニメーションをつける、ポップアップでメッセージを入れる(キャラクター含む)、又は音で通知する等で出力してもよい。
 また、上記実施形態において、フィードバック装置1は、面接官の最適なアサインに活用する。また、フィードバック装置1は、参加者の性格を分析し、プロファイリングしてもよい。また、フィードバック装置1は、参加者の今後の活動に反映する(面接時に大人しそうな性格が検知できたので、活気のある部署への配属を避ける方が望ましい可能性がある旨、管理者に通知する等)してもよい。
 図22は、図11の本サービスのシステム構成であって、図12の例と異なる例を示す図である。
 上述の第3実施形態においては、図13に示すシステム構成のフィードバック装置1によりレポートRが作成されるものとして説明したが、本サービスの提供のためのシステム構成は、図22に示すような構成であってもよい。
 具体的には例えば、サービス提供者環境として、面接に用いられたWeb会議システムから面接動画を含むミーティング情報が解析サーバに送信され、解析された特徴点がデータベースに格納される。そして、データベースに格納された任意の特徴点が、Webサーバを介して、リアルタイムにWeb会議に参加している部署担当者M(面接官)に提供される。
 そして、リアルタイム又はWeb会議の終了後等において、データベースに格納された任意の特徴点が人事担当者MJや部署担当者M(面接官)自身にダッシュボードの形態で表示される。ここで、図14のフィードバック装置1は、図22の解析サーバ及びWebサーバを兼ねているものであるといえる。
 また例えば、データベースに格納された任意の特徴点は、企業独自環境にWebサーバに配置されて、適宜ダッシュボードの形態、或いは、さらなる解析がなされて、企業独自システムで参照されるようになっていてもよい。
 1 フィードバック装置
 11 データ取得部
 13 参加者情報取得部
 17 基準情報取得部
 18 決定部
 19 抽出部
 20 比較部
 21 通知作成部
 22 出力部
 23 変更部
 24 基本情報設定部
 25 特徴量格納部
 26 比較単位設定部
 31 判断結果取得部
 33 評価部
 34 傾向判断部
 35 変化取得部
 36 入力取得部

Claims (13)

  1.   オンラインにおける参加者のミーティングにおいてフィードバックを実施するフィードバック装置であって、
     ミーティングに関するミーティングデータを取得するデータ取得部と、
     前記ミーティングデータから抽出する特徴点の種類と当該種類の特徴点に対する判断基準とを基準情報として取得する基準情報取得部と、
     取得された前記基準情報に含まれる前記種類について、取得したミーティングデータに含まれる特徴点を抽出する抽出部と、
     抽出された前記特徴点と、取得された前記基準情報に含まれる前記判断基準とを比較する比較部と、
     比較結果に基づいて、前記ミーティングに関係する関係者に向けた通知を作成する通知作成部と、
     作成された通知を前記関係者に向けて出力する出力部と、
    を備えるフィードバック装置。
  2.  前記通知作成部は、オンラインにおける参加者のミーティングにおいてリアルタイムに通知を作成する請求項1に記載のフィードバック装置。
  3.  前記参加者の属性を示す参加者情報を取得する参加者情報取得部と、
     取得された参加者情報に基づいて、参加者に対して用いる判断基準を決定する決定部と、
    をさらに備え、
     前記比較部は、抽出された特徴点と決定された判断基準とを比較する請求項1又は2に記載のフィードバック装置。
  4.  前記基準情報取得部は、基準情報として通知を出力する出力先の関係者を特定する特定情報をさらに含み、
     前記出力部は、取得された参加者情報と取得された特定情報とに基づいて、出力先の参加者を決定する請求項3に記載のフィードバック装置。
  5.  前記基準情報には、特徴点の前記種類として、予め定められた表現が含まれており、
     前記抽出部は、特徴点として、前記ミーティングデータに含まれる前記表現を抽出し、
     前記比較部は、抽出された前記表現と判断基準とを比較し、
     前記通知作成部は、比較結果に基づいて、予め定められた表現を評価した通知を作成する請求項1から4のいずれかに記載のフィードバック装置。
  6.  前記基準情報には、特徴点の前記種類として、発話比率が含まれており、
     前記抽出部は、参加者の前記発話比率を特徴点として抽出し、
     前記比較部は、抽出された前記発話比率と判断基準とを比較し、
     前記通知作成部は、比較結果に基づいてバランスをとるように促す通知を作成する請求項1から5のいずれかに記載のフィードバック装置。
  7.  前記基準情報には、特徴点の前記種類として、人の状態が含まれており、
     前記抽出部は、特徴点として、参加者の前記状態を抽出し、
     前記比較部は、抽出された前記状態と判断基準とを比較し、
     前記通知作成部は、比較結果に基づいてアドバイスを提供する通知を作成する請求項1から6のいずれかに記載のフィードバック装置。
  8.  前記基準情報には、特徴点の前記種類として、発言の具体的内容が含まれており、
     前記抽出部は、特徴点として、発言の具体的な前記内容を抽出し、
     前記比較部は、抽出された前記内容と判断基準とを比較し、
     前記通知作成部は、比較結果に基づいて抽出した内容に対する通知を作成する請求項1から7のいずれかに記載のフィードバック装置。
  9.  前記基準情報には、特徴点の前記種類として、発言内容に基づく参加者のコミュニケーションの特徴が含まれており、
     前記抽出部は、特徴点として、発言内容に基づく参加者のコミュニケーションの前記特徴を抽出し、
     前記比較部は、抽出された前記特徴と判断基準とを比較し、
     前記通知作成部は、判断結果に基づいて抽出したコミュニケーションの特徴に対する対応手法を通知として作成する請求項1から8のいずれかに記載のフィードバック装置。
  10.  参加者の人数及び属性に応じて取得された基準情報の内容を変更する変更部をさらに備える請求項1から9のいずれかに記載のフィードバック装置。
  11.  前記参加者は、所定団体に属することを希望する希望者と、当該所定団体に属する者であって前記希望者に対して面接をする面接官とを含み、
     前記ミーティングは、前記面接官による前記希望者に対する面接であり、
     前記基準情報には、特徴点の前記種類として、引き出し力を把握するための1以上の種類、ジャッジ力を把握するための1以上の種類、及び、アトラクト力を把握するための1以上の種類のうち、少なくとも1以上の種類を含む、
     請求項1に記載のフィードバック装置。
  12.  前記所定団体は、複数のグループごとに、1回以上の面接を行った前記面接官を1人以有しており、
     前記抽出部における前記特徴点を抽出する単位として、前記所定団体、前記グループ、前記面接官、及び前記ミーティングのうち何れかを設定する単位設定手段をさらに備え、
     前記抽出部は、設定された前記単位に含まれる1以上の前記ミーティングデータから特徴点を抽出し、
     前記比較部の前記比較結果は、設定された前記単位についての結果であり、
     前記通知作成部は、設定された前記単位に関する前記通知を作成する、
     請求項11に記載のフィードバック装置。
  13.  オンラインにおける参加者のミーティングに基づいてフィードバックを実施するフィードバック装置としてコンピュータを機能させるプログラムであって、
     前記コンピュータを、
     ミーティングに関するミーティングデータを取得するデータ取得部と、
     前記ミーティングデータから抽出する特徴点の種類と当該種類の特徴点に対する判断基準とを基準情報として取得する基準情報取得部と、
     取得された前記基準情報に含まれる前記種類について、取得したミーティングデータに含まれる特徴点を抽出する抽出部と、
     抽出された前記特徴点と、取得された前記基準情報に含まれる前記判断基準とを比較する比較部と、
     比較結果に基づいて、前記ミーティングに関係する関係者に向けた通知を作成する通知作成部と、
     作成された通知を前記関係者に向けて出力する出力部と、
     として機能させるプログラム。
PCT/JP2022/033955 2021-09-09 2022-09-09 フィードバック装置及びプログラム WO2023038125A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023547012A JPWO2023038125A1 (ja) 2021-09-09 2022-09-09

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-147207 2021-09-09
JP2021147207 2021-09-09

Publications (1)

Publication Number Publication Date
WO2023038125A1 true WO2023038125A1 (ja) 2023-03-16

Family

ID=85506461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/033955 WO2023038125A1 (ja) 2021-09-09 2022-09-09 フィードバック装置及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2023038125A1 (ja)
WO (1) WO2023038125A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190370390A1 (en) * 2018-05-31 2019-12-05 Microsoft Technology Licensing, Llc Query and information meter for query session
KR20200008838A (ko) * 2018-07-17 2020-01-29 김하륜 가상 면접 제공 방법 및 이를 이용하는 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190370390A1 (en) * 2018-05-31 2019-12-05 Microsoft Technology Licensing, Llc Query and information meter for query session
KR20200008838A (ko) * 2018-07-17 2020-01-29 김하륜 가상 면접 제공 방법 및 이를 이용하는 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: ""Interview" AI advises the interviewer Zenkigen, analysis of 300 items of speech volume and facial expressions for remotes Farewell "pressure"", NIHON KEIZAI SHIMBUN, XP009544303, Retrieved from the Internet <URL:https://www.nikkei.com/article/DGKKZO70261660T20C21A3TJ2000/> *

Also Published As

Publication number Publication date
JPWO2023038125A1 (ja) 2023-03-16

Similar Documents

Publication Publication Date Title
Blacksmith et al. Technology in the employment interview: A meta-analysis and future research agenda
Torres et al. Hiring manager’s evaluations of asynchronous video interviews: The role of candidate competencies, aesthetics, and resume placement
Rasipuram et al. Automatic multimodal assessment of soft skills in social interactions: a review
Frauendorfer et al. The impact of nonverbal behavior in the job interview
Lehmann Bridging strategies and action: Towards a method for change management in Danish emergency management organizations
Konradt et al. Web‐based assessment of call center agents: Development and validation of a computerized instrument
Briggs et al. Competence-questioning communication and gender: Exploring mansplaining, ignoring, and interruption behaviors
Hastings et al. Nonverbal communication and writing deficiencies of graduates: Research by undergraduates for undergraduates
Wang et al. Faster responders are perceived as more extraverted.
WO2023038125A1 (ja) フィードバック装置及びプログラム
Steifo et al. Hybrid onboarding-Its impact on newly hired employees
Kuśmierczyk-O’Conner Constructing a ‘mission statement’: A multimodal perspective on believable identity construction in a job interview
JP2023039862A (ja) フィードバック装置及びプログラム
Ekanayake et al. Impact of emotional contagion on work performance of employees
Nambiar et al. Automatic generation of actionable feedback towards improving social competency in job interviews
Gikas et al. The effect of vocal fillers on credibility, communication competence, and likeability
Sawla et al. Computational Inference of Candidates' Oratory Performance in Employment Interviews Based on Candidates' Vocal Analysis
Fabricius Internal Communication from the Employee Perspective: A Case Study for a Scale-Up Organization
JP2023015022A (ja) 評価装置及びプログラム
JP2023014941A (ja) 評価装置及びプログラム
JP2023014940A (ja) 評価装置及びプログラム
Brown A Qualitative Phenomenological Study of Follower Influence
Ilieva SNR 2008327 Master Thesis MSc Work and Organizational Psychology Tilburg University
Broomé et al. The role of formal internal communication in organizational identification: A case study of two Swedish offices
Harris Communication during the selection interview: a structured review

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22867446

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023547012

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE