WO2021162117A1 - 特性評価システムおよびその方法 - Google Patents

特性評価システムおよびその方法 Download PDF

Info

Publication number
WO2021162117A1
WO2021162117A1 PCT/JP2021/005373 JP2021005373W WO2021162117A1 WO 2021162117 A1 WO2021162117 A1 WO 2021162117A1 JP 2021005373 W JP2021005373 W JP 2021005373W WO 2021162117 A1 WO2021162117 A1 WO 2021162117A1
Authority
WO
WIPO (PCT)
Prior art keywords
team
unit
data
person
observation
Prior art date
Application number
PCT/JP2021/005373
Other languages
English (en)
French (fr)
Inventor
甲斐 賢
内田 吉宣
Original Assignee
株式会社日立ドキュメントソリューションズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ドキュメントソリューションズ filed Critical 株式会社日立ドキュメントソリューションズ
Publication of WO2021162117A1 publication Critical patent/WO2021162117A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Definitions

  • the present invention relates to a characteristic evaluation system and its method, and more particularly to a technique for evaluating human characteristics using IT technology.
  • Patent Document 1 discloses a technique for determining the atmosphere of a place surrounding a karaoke participant and reflecting it in the evaluation of singing. This technology recognizes the facial expressions of each participant and derives a comprehensive evaluation of singing based on the degree of matching with the facial expression attributes associated with the music.
  • the "facial expression attribute associated with the music” in Patent Document 1 can be prepared in advance for a place where the same music is reproduced when the same music is repeatedly played.
  • a place where reproducibility cannot be expected such as selecting the optimum solution using limited resources under uncertain situations such as project management, the idea of the project manager and Since the characteristics are strongly reflected, it is difficult to prepare such "facial expression attributes associated with the music" or attributes corresponding thereto in advance.
  • the present inventors observe the behavior of the subject and judge the behavior obtained from the viewpoint of a specific person such as a project manager or an expert. I thought it might be possible to evaluate the characteristics of a person or the team to which the person belongs.
  • An object of the present invention is to realize a characteristic evaluation system and method capable of evaluating the characteristics of a person or a team to which the person belongs by observing the movement of a person by using the knowledge of a specific person.
  • the characteristic evaluation system uses a model creation unit that generalizes the knowledge possessed by a specific person to create a model, an observation unit that acquires data on the behavior of a target person belonging to a team, and the model.
  • a characteristic having an estimation unit that estimates the characteristics of the target person or the team based on the data obtained by the observation unit, and an instruction unit that outputs the estimation result by the estimation unit based on the characteristics. It is configured as an evaluation system.
  • the present invention is also grasped as a characteristic evaluation method performed in the above characteristic evaluation system.
  • the present invention it is possible to evaluate the characteristics of a person or a team to which the person belongs by observing the movement of the person by using the knowledge of a specific person.
  • FIG. It is a block diagram which shows the whole structure of the characteristic evaluation system by Example 1.
  • FIG. It is a figure which shows the structure of the database used in the characteristic evaluation system. It is a data figure which shows the data structure of the observation data management DB. It is a figure which shows the data structure of the model management DB. It is a figure which shows the data structure of the estimation result management DB. It is a flowchart which shows the process flow of the model creation part. It is a figure which shows the screen example of the model creation part. It is a flowchart which shows the processing flow of an observation part, an estimation part, and an instruction part. It is a figure which shows the composition example of the game place. It is a figure which shows the composition example of the game place.
  • FIG. 1 It is a flowchart which shows the processing flow of the human resources management department. It is a figure which shows the screen example in the processing of the human resources management department. It is a data diagram which shows an example of the metric for observing the interaction in a team by Example 3.
  • FIG. 1 It is a flowchart which shows the processing flow of the human resources management department. It is a figure which shows the screen example in the processing of the human resources management department. It is a data diagram which shows an example of the metric for observing the interaction in a team by Example 3.
  • the characterization system is implemented in a computer-based system.
  • a plurality of people (players) participate in the game to play the game, and the characteristics of the target person or the team to which the target person belongs are estimated by the computer observing the movement of the player (target person) acquired through this game.
  • the estimation of the characteristics of the target person or team is based on, for example, the empirical tacit knowledge (knowledge) possessed by the expert A (specific person such as a project manager or an expert) based on the movement of the player obtained from the game played in the past. ) Is used to create a model, and this model is applied. This estimation of the characteristic may be referred to as evaluation or judgment of the characteristic.
  • the computer 1 has a model creation unit 2, an observation unit 3, an estimation unit 4, an instruction unit 5, a human resources management unit 6, a database (abbreviated as DB) 7, and input / output interfaces (I / F) 14, 15.
  • DB database
  • I / F input / output interfaces
  • the model creation unit 2 performs a process in which the expert A creates a model based on the empirical tacit knowledge of the expert A by referring to the information obtained from the games played by the plurality of teams 13 in the past.
  • the observation unit 3 performs a process of generating observation data based on the movements, facial expressions, and utterances (collectively referred to as movements) of the team 12 and its target person 121 acquired by the sensor 403.
  • the estimation unit 4 performs a process of estimating the characteristics of the target person 121 or the team 12 with respect to the observation data generated by the observation unit 3 by using the model created by the model creation unit 2.
  • the instruction unit 5 performs a process of giving feedback to the target person 121 or the team 12 based on the estimation result by the estimation unit 4.
  • the human resources management unit 6 is a processing unit input / output by the human resources manager B, and performs processing for analyzing and grasping the characteristics of the target person 121 or the team 12 based on the estimation result by the estimation unit 4.
  • the DB7 stores programs and various data. In this embodiment, in particular, a plurality of DBs 21 to 26 (see FIG. 2) are retained.
  • the I / Fs 14 and 15 are interfaces that can input and output to the computer 1, and have an input device and a display device that can be operated by an expert A and a human resources manager B. Note that the I / Fs 14 and 15 may be interfaces in which security is maintained when a terminal is connected to the computer 1.
  • the computer may be, for example, a personal computer (PC) having a processor (CPU) and a storage unit as hardware resources. By executing a desired program on the processor, the functions of the above-mentioned parts are realized.
  • DB7 is stored in the storage unit. A part or all of the program or data that realizes the processing described below may be stored in the DB 7 in advance, or if necessary, a network via an I / F (not shown) provided in the computer 1. It may be stored in the DB 7 from the non-temporary storage device of another device connected by the above, or from the non-temporary storage medium.
  • a display device 402 that forms a game field and manages the progress of the game is connected to the computer 1, and a sensor 403 for detecting the movement of each target person is connected.
  • the configuration of the display device 401 and the sensor 403 in the game field will be described later with reference to FIG.
  • FIG. 9 mainly shows the relationship between the observation unit 3 and the sensor 403
  • FIG. 10 mainly shows the relationship between the indicator unit 5 and the display device 402. 9 and 10 show some examples, respectively.
  • FIG. 9A shows an example of a game field.
  • a digital board game device as a display device 401 is installed in the game field, and a headset 4031 to be attached to each of the four players (target persons) 121 is further prepared.
  • the digital board game device has a touch panel type operation display area 402, and is a device for advancing a game by manually moving an icon displayed on the touch panel while referring to a display during the game.
  • An instruction unit 5 is connected to the digital version board game, and FIG. 10 will be referred to for this.
  • the headset 4031 is a kind of voice sensor 403 that detects an utterance for each subject 121.
  • the observation unit 3 analyzes the movement of the icon on the operation display area 402 and the utterance of the target person 121 detected by the sensor 403.
  • the metrics acquired by the observation unit 3 are as follows, for example. ⁇ Frequency of moving the board game icon per unit time ⁇ Number of times the icon that is meaningful to the context of the board game is moved ⁇ Number of utterances per unit time ⁇ Length of utterance per unit time ⁇ Icon as a team Or the time when the utterance stopped completely
  • FIG. 9B shows another example.
  • a camera 4032 fixed to the ceiling and a microphone 4033 are installed in the game space.
  • the camera 4032 is a kind of image acquisition sensor that captures the entire analog board game in a wide-angle imaging range and acquires an image of the subject 121.
  • the microphone 4033 is a kind of voice sensor, and acquires the utterance of the target person 121 of the team 12, including the direction of the utterance. By analyzing the direction of the utterance by the observation unit 3, it is possible to identify which of the four subjects 121 has spoken. Examples of the metrics acquired by the observation unit 3 according to this example are as follows.
  • FIG. 9C shows yet another example.
  • An example of this is a meeting place, for example.
  • a camera 406 is installed on the desk of the conference room, and the camera 406 is a kind of image sensor that captures a plurality of attendees (objects) 121 in the imaging range.
  • the facial expression and hand movement of the subject 121 can be observed.
  • the metrics acquired by the observation unit 3 according to this example are as follows, for example. ⁇ Number of smiles per unit time ⁇ Range of hand movements per unit time ⁇ Number of hand movements per unit time
  • An indicator 5 is connected to the digital board game device 401.
  • the instruction unit 5 issues an instruction to the digital board game device based on the estimation result by the estimation unit 4, and performs a highlight display 413 on the operation display area 402 (action by display). For example, when the movements of the hands of all the subjects 121 who participate in the board game stop for a predetermined time, the movement of the icon to be performed next is highlighted 413 to encourage the action.
  • FIG. 10B shows another example.
  • a speaker 414 and a lighting device 415 are installed in this place.
  • the instruction unit 5 creates a character example for feeding back to the team 12, converts the character string into voice data, and sends the voice through the speaker 414 (action by sound). For example, when the conversation of the target person 121 participating in the board game is stopped for a predetermined time, an action is promoted by sending a voice message prompting the target person 121 to speak.
  • the instruction unit 410 generates a command for controlling the lighting and transmits it to the lighting device 415, and controls the brightness and the hue of the lighting device 415 by this command (action by lighting).
  • the lighting device 415 is controlled according to the behavior of the subject 121 who participates in the board game and the activity of the utterance. For example, the more active the lighting color is, the more the lighting color is settled to blue, and the more passive the lighting color is, the more active the lighting color is red. It should be noted that one of the devices may be installed or activated without installing both the speaker 414 and the lighting device 415.
  • the data is managed by the personal management DB 21, the team management DB 22, the metrics management DB 23, the observation data management DB 24, the model management DB 25, and the estimation result management DB 26, respectively.
  • the personal management DB 21 uniquely manages the information of the target person 121 who uses the characteristic evaluation system.
  • the team management DB 22 is a DB for managing the team 12 that uses the characteristic evaluation system, and manages each team with identification information.
  • the metric management DB 23 is a DB that manages the sensor 403 that observes the target person 121 and the team 12 and the metric acquired by the sensor.
  • the observation data management DB 24 is a DB that manages the observation data of the subject 121 and the team 12 observed by the observation unit 3.
  • the model management DB 25 is a DB that manages a model that models empirical tacit knowledge by an expert A.
  • the estimation result management DB 26 is a DB that manages the result of estimating the characteristics of the target person 121 and the team 12 by the estimation unit 4 based on the model managed by the model management DB 25.
  • the personal management DB 21, the team management DB 22, the observation data management DB 24, and the estimation result management DB 26 are DBs that include information that identifies an individual, and are by an unauthorized person. It should be protected from unnecessary reference and disclosure, and unauthorized alteration or deletion by unauthorized persons. Therefore, a DB that includes information that identifies these individuals has security functions such as access control and log acquisition. Furthermore, the physical storage location of the DB cannot be transferred beyond the jurisdiction of the law under the law that protects personally identifiable information.
  • the metric management DB 23 and the model management DB 25 are DBs that do not include information that identifies an individual. Even if it does not contain personally identifiable information, it is protected from unnecessary references by unauthorized persons and from unauthorized alteration and deletion by unauthorized persons. Therefore, even a DB that does not include personally identifiable information has security functions such as access control and log acquisition. However, the storage location is not affected by laws that protect personally identifiable information.
  • the personal management DB 21, the team management DB 22, and the metrics management DB 23 are not shown in particular because of their simple configurations.
  • the observation data management DB 24 is shown in FIG. 3
  • the model management DB 25 is shown in FIG. 4
  • the estimation result management DB 26 is shown in FIG.
  • the personal management DB 21 is composed of a plurality of lines with a set of a personal ID and a personal name as one line.
  • the characteristic evaluation system identifies and identifies the subject 121 by the personal ID.
  • the target person 121 can participate in the game by inputting the personal ID.
  • the team management DB 22 is composed of a plurality of lines with a pair of a team ID, a team name, and an individual ID as one line.
  • the team 12 is, for example, in the case of a board game, a set of target persons 121 who participate in the board game.
  • the characterization system identifies and identifies team 12 by team ID.
  • One or more individual IDs are associated with one team ID. Since the team may change with time, the team ID is managed by assigning the formation date and time and the dissolution date and time of the team. In this embodiment, it will be described below assuming that the formation and dissolution can be recognized by the team ID.
  • the metric management DB 23 is composed of a plurality of rows, with the metric ID and the pair with the metric as one row.
  • the metric used by the observation unit 3 is identified and specified by the metric ID.
  • the metric is information related to the sensor such as the sensor used by the observation unit 3 and the information acquired by the sensor.
  • Metrics include, but are not limited to, the following, for example. -Camera location and imaging direction-Operations that are analyzed by applying machine learning to a person image taken by the camera-Facial expressions that are analyzed by applying machine learning to a person's face taken by a camera-Recorded with a microphone Voice data utterance section ⁇ Voice data utterance content ⁇ Voice data utterance volume, etc.
  • the observation data management DB 24 has a tree structure starting from ROOT. First, it branches from ROOT to team ID 101. Next, the team ID 101 branches into the metric ID 102 that targets the team, and further branches from the metric ID 102 into the observation data 103 of the team. For example, for “metrics A-1" for observing "team A”, observation data at regular intervals are “observation data A-1-1”, “observation data A-1-2", and "observation data A”. The observation data 103 is stored as in "1-3".
  • the team ID 101 branches into the individual ID 104
  • the individual ID 104 branches into the metric ID 105 for the individual
  • the metric ID 105 further branches into the observation data 106 obtained by observing the individual.
  • the observation data management DB 24 when the subject 121 belongs to any team 12, the data observed by the observation unit 3 is divided into the observation data 103 as a team and the observation data 106 as an individual. ,Store.
  • FIG. 4 shows the model management DB 25.
  • the model management DB 25 has a tree structure starting from ROOT. First, the ROOT branches to the characteristic ID 111, and the characteristic ID 111 branches to the metric ID 112. Further, the metric ID 112 branches into the best data 113 and the worst data 114.
  • the model management DB 25 models the empirical tacit knowledge of the expert A using metrics.
  • the characteristic is a characteristic of a person who is a target person, and refers to, for example, creativity, memory, reasoning ability, planning ability, judgment ability, consensus ability, leadership, followership, and the like.
  • the metric 1-1 is the number of utterances
  • the metric 1-2 is the number of nouns
  • the verb 1-3 is used.
  • Numbers, metrics 1-4 are the timing of utterances
  • metrics 1-5 are the length of utterance time, and so on.
  • metrics that can express the characteristics will be selected according to the characteristics.
  • the best data 113 is the largest number of utterances
  • the worst data 114 is the smallest number of utterances.
  • FIG. 5 shows the estimation result management DB 26.
  • the estimation result management DB 26 has a tree structure starting from ROOT. First, the ROOT branches to the team ID 121, and the team ID 121 branches to the estimation result 122 of the characteristics of the team. Further, the team ID 121 is branched into the individual ID 123, and the individual ID 123 is branched into the estimation result 124 of the individual characteristics. When the target person 121 belongs to any team 12, the estimation result management DB 26 stores the characteristics as a team and the characteristics as an individual separately.
  • Step 201 When this system is started, the model creation unit 2 reads the team list from the team management DB 22.
  • Step 202 The model creation unit 2 displays an operation display screen (see FIG. 7) via the interface 14 used by the expert A, and enables the expert A to input and output. Expert A inputs to select a unique team.
  • the operation display screen for selecting a unique team is called the model creation screen here. An example is shown in FIG.
  • the model creation screen 300 has a list display area 301 in which the characteristic evaluation system displays a list of teams having observation data, and a list display in which the expert A designates the best team by empirical implicit knowledge by dragging and dropping. It has an area 302, a list display area 303 for designating the team considered to be the worst by dragging and dropping, and an analysis button 304 for starting the analysis of the team difference. While looking at the list display area 301, the expert A designates the team that is considered to be the best and the team that is considered to be the worst in the list display area 302 and the list display area 303, respectively, in light of his own empirical tacit knowledge. .. When the expert A completes the designation of the best team and the worst team, he presses the analysis button 304.
  • Step 203 The model creation unit 2 reads the observation data regarding the best team and the worst team from the observation data management DB 24.
  • Step 204 The model creation unit 2 compares the observation data of the best team with the observation data of the worst team, and calculates the difference between the value of the best team and the value of the worst team for each metric. ..
  • the model creation unit 2 sorts the metrics shown in the metric management DB 23 in order, which have a large difference between the best team and the worst team.
  • the result of rearranging the metrics is displayed on the model creation screen 300 (see FIG. 7). That is, on the model creation screen 300, the best value 306 of the observation data of the best team for each metric and the worst value 307 of the observation data of the worst team are displayed in the list display area 305 in which the list of metrics is arranged in order. NS.
  • metric A indicates the number of utterances
  • metric B indicates the number of nouns
  • metric C indicates the number of verbs
  • the best value 306 of the number of utterances indicates the scale of "20”
  • the worst value indicates the scale of "3".
  • Step 205 The model creation unit 2 displays a screen for selecting metrics and adjusting the best value and the worst value by expert A. That is, on the model creation screen 300, the expert A specifies the metrics used for selecting the characteristics and by checking the check boxes on the list display area 305. Further, the expert A adjusts the best value 306 and the worst value 307 for each metric by moving the pointer on the slide bar in the light of his own empirical tacit knowledge. For example, the expert A can adjust the best value 306 of the number of utterances to "21" and the worst value to "6" for the metric A. Although not shown, it is also possible to specify which characteristic the metric is associated with.
  • Step 206 The model creation unit 2 prompts the expert A to complete the model creation. At this time, the model creation button 308 is displayed on the model creation screen 300. If the expert A is not satisfied with the model, he / she can return to step 202 again and proceed from the selection of the characteristic team.
  • Step 207 The model creation unit 2 detects information that can identify an individual, which is included in the best value 306 or the worst value 307. If we detect personally identifiable information, we will either delete it or anonymize it. This should ensure that the model does not contain any personally identifiable information.
  • the model creation unit 2 stores the created model in the model management DB 25.
  • the model creation unit 2 branches from the characteristic ID 111 related to the characteristics of the individual or the team, and stores the metric ID 112. Further, it branches from the metric ID 112 and stores the best data 113 and the worst data 114. As described above, by the processing of the model creation unit 2, it is possible to create a model using metrics that reflects the empirical tacit knowledge of the expert A.
  • the observation unit 3 registers the target person 121 belonging to the team 12.
  • the subject 121 who has already used the characteristic evaluation system is associated with the personal ID and the team ID in the personal management DB 21.
  • the personal ID and the team ID are linked and registered.
  • observation unit 3 observes the subject 121 and the team 12 using various metrics, and generates observation data.
  • observation data is associated with the following metrics. ⁇ Frequency of moving the board game icon per unit time ⁇ Number of times the icon that is meaningful to the context of the board game is moved ⁇ Number of utterances per unit time ⁇ Length of utterance per unit time ⁇ Icon as a team Or the time when the utterance stopped completely
  • the observation unit 3 associates the observation data acquired through the metrics with the individual of the subject 121.
  • the association may be associated with the personal ID marked in advance, or may be manually associated with the personal ID by the analyst after acquiring the observation data.
  • the observation unit 3 stores the observation data in the observation data management DB 24.
  • Step 225 The estimation unit 4 acquires a model from the model management DB 25.
  • the estimation unit 4 acquires observation data from the observation data management DB 24 and estimates the characteristics of the team 12 based on the above model.
  • the estimation of the characteristics is based on the metric identified by each metric ID 112 of the team stored in the model management DB 25 with respect to the observation data, and is the best state based on which of the best data 113 and the worst data 114 is closer. , Determine if it is in the worst state.
  • the characteristic estimation result for the team 12 is stored in the characteristic estimation result 122, which is branched from the team ID 121, in the estimation result management DB 26.
  • the estimation unit 4 estimates the characteristics of the subject 121 based on the model with respect to the observation data from the observation data management DB 24.
  • the estimation of the characteristics is based on the metric identified by each metric ID 112 of the individual stored in the model management DB 25 with respect to the observation data, and is the best state based on which of the best data 113 and the worst data 114 is closer. , Determine if it is in the worst state.
  • the result of estimating the characteristics for the subject 121 is stored in the estimation result 124 of the estimation result management DB 26, which is branched from the individual ID 123.
  • Step 2228 The estimation unit 4 stores the estimation results of the team 12 and its target person 121 in the estimation result management DB 26.
  • the instruction unit 5 gives feedback to the team 12 based on the estimation result of the characteristics of the team 12. For example, as an example of feedback, as shown in FIG. 10A, an instruction is given to the digital board game device 401, and an action by display is performed.
  • the instruction unit 5 can also give sonic feedback to the team 12 by using the estimation result of the characteristics of the team 12 (FIG. 10 (b)).
  • the indicator 5 can also provide lighting feedback to the team 12 using similar estimation results.
  • the feedback by the instruction unit 5 may be performed by any one or a combination of steps 229 to 231 described above.
  • the worst data is the observation data of the metrics observed by the observation unit 3 based on the model created based on the knowledge of the expert A by the series of processing of the observation unit 3, the estimation unit 4, and the instruction unit 5.
  • the instruction unit 5 By issuing an instruction at an appropriate timing when the instruction unit 5 is about to approach 114, it is possible to give awareness and change in behavior so as to approach the best data 113.
  • the human resources management unit 6 acquires a list of personal IDs and personal names from the personal management DB 21, and displays an operation screen via the interface 15.
  • the human resources manager B selects the personal ID whose characteristics are to be confirmed on the operation screen.
  • Step 242 The human resources management unit 6 searches the team management DB 22 for the personal ID specified by the human resources manager B, and acquires a list of past team IDs to which this personal ID belongs.
  • Step 243 The human resources management unit 6 acquires the estimation result of the corresponding team ID from the estimation result management DB 26 with respect to the list of team IDs acquired in step 242.
  • Step 244 The human resources management unit 6 displays a screen including the estimation result related to the personal ID via the interface 15.
  • An example of the estimation result display screen (human resources management screen) is shown in FIG.
  • the human resources management screen 320 shows the characteristics of the four players (individuals) C1 to C4 belonging to the team C and the characteristics of the team C. That is, a team characteristic radar chart 321 showing the evaluation results of team characteristics 1 to 4 of team C, and an individual characteristic radar chart showing evaluation results of characteristics 1 to 4 of four players C1 to C4 belonging to team C. It is composed of 322 and an individual growth graph 323 showing the growth process of the player C1 (aging of the estimation result) as a bar graph. In the illustrated personal growth graph 323, it can be seen that player C1 has belonged to teams A and B in the past, and the characteristics 1 to 4 in each team are as shown in the bar graph.
  • the human resources manager B can confirm the growth record corresponding to the personal ID on the personal growth graph 323. Further, when the person corresponding to the personal ID belongs to a specific team, the characteristic evaluation result of that team and the characteristic evaluation result of another player belonging to that team can be confirmed. This makes it possible for each individual to confirm which trait contributed to the traits 1 to 4 of the team, which trait was helped by another player, and the like. By the processing of the human resources management unit 6, the human resources manager B can systematically grasp the characteristics of the target person 121 observed through the characteristic evaluation system.
  • the subject 121 can grasp his / her own characteristics based on the model based on the empirical tacit knowledge of the expert A. As a result, the behavior of the subject 121 can be changed in a desired direction in the light of empirical tacit knowledge.
  • this characteristic evaluation system allows expert A to create his own empirical tacit knowledge as a model that can be observed by metrics using observation data observed by past teams. As a result, the expert A can generalize and formalize his empirical tacit knowledge.
  • the human resources manager B can grasp the characteristics of the target person 121 from the viewpoint of the characteristics of the target person 121 in the team 12 and the degree of contribution to the team 12. can.
  • the expert A directly inputs the metrics via the interface 14.
  • the model can be created even when the total number of data in the observation data management DB 24 is small.
  • the processes of the model creation unit 2 are executed in steps 205 and 208, and steps 201 to 204 and steps 206 and 207 are omitted.
  • the model creation unit 2 reads the metric from the metric management DB 23, and displays the model creation screen on the display for the expert A via the interface 14.
  • the display screen is the lower half portion in FIG. 7. That is, on the model creation screen 300, the list display area 305 in which the list of metrics is arranged in order, the best value 306 of the observation data of the best team for each metric, the worst value 307 of the observation data of the worst team, and the model creation It has a display of button 308.
  • Expert A adjusts the best value 306 and the worst value 307 for each metric on the model creation screen 300 by moving the pointer on the slide bar in light of his own empirical tacit knowledge. Specify which characteristic the metric is associated with (not shown).
  • the model creation unit 2 stores data related to the model in the model management DB 25. That is, the model creation unit 2 branches from the characteristic ID 111 related to the characteristics of the individual or the team, and stores the metric ID 112. Further, it branches from the metric ID 112 and stores the best data 113 and the worst data 114.
  • the model can be created without using the observation data management DB 24 in the model creation process, the empirical tacit knowledge of the expert A can be reflected in the model even when the total number of data in the observation data management DB 24 is small. ..
  • Example 3 deals with interactions between individuals within a team as metrics.
  • the metric it is shown whether the individual shown in TO2302 made a utterance after the individual shown in FROM2301 for the utterance within a certain period of time acquired by the microphone.
  • the proportion of the utterances of the individual A2 was 60%
  • the individual A3 was 30%
  • the individual A4 was 10%
  • the proportion of speakers following the utterances of individual A2, individual A3, and individual A4 is analyzed.
  • the ratio of TO2302 is larger than the ratio of FROM2301, it is analyzed that the individual A1 turns to the listening side more than the utterance.
  • This metric is given an identification name of "inter-personal interaction” and is stored in the metric management DB23.
  • the metric of FIG. 13, which is the execution result, is stored in the observation data management DB 24.
  • the metric of “inter-personal interaction” stored in the metric management DB 23 is referred to.
  • Example 3 in addition to the metrics related to teams and individuals described in Example 1, metrics related to interactions between individuals can be constructed. For example, since which individual has the most remarks after which individual can be quantified by this metric, it can be utilized for evaluating characteristics such as individual leadership ability and followership ability.
  • the characterization system is supposed to perform characterization of its participants and teams throughout the game, but is not limited to the evaluation of game participants and teams according to other examples. For example, as shown in FIG. 9C, it is possible to evaluate the characteristics of the attendees of the conference. On the other hand, characterization that evaluates the meeting itself as a team may not always be required.
  • the human resources management unit 6 is provided, and the human resources manager B can grasp the evaluation of the target person and / or the team from the screen displayed via the interface 15.
  • the characteristics of the target person or the team can be provided as a service not only to the human resources manager B but also to a desired user.
  • the user can receive the evaluation result of a person and / or an organization to which the person belongs by using a terminal connected via the interface 15.
  • the characteristics of the person or team can be evaluated based on the observation of the movement of the person or team. For example, even when the way of thinking and characteristics of a specific person such as a project manager in project management are reflected in the learning target, the target person can grasp his / her own characteristics by learning in the light of the knowledge of the specific person. can. As a result, the behavior of the subject can be changed in a more desirable direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

特定者が持つ知識を汎化してモデルを作成するモデル作成部2と、チームに属する対象者の動作に関するデータを取得する観察部3と、前記モデルを用いて、観察部により得られたデータを基に、対象者またはチームの特性を推定する推定部4と、推定部による推定結果の前記特性に基づいて出力する指示部6と、を有する特性評価システム。

Description

特性評価システムおよびその方法
 本発明は、特性評価システムおよびその方法に係り、特に、IT技術を利用して人の特性を評価する技術に関する。
 近年、ボードゲームなどのエンターテインメントに使われるゲーム技術を利用して対象者に気づきを与え、知識あるいはスキルの向上をはかる、所謂「ゲーミフィケーション」と呼ばれる教育技術が知られている。さらには、対象者に相手が居る中で行動してもらい、その行動をIT技術で記録することで、対象者の習熟度や特性をはかり、行動の変容を促すような「エドテック」と呼ばれる教育技術が知られている。「ゲーミフィケーション」あるいは「エドテック」は、受講者がIT技術を活用して自らの習熟度に合わせた学習を進められるので、学習領域が幅広くなっても対応でき、また教師を確保できない場合にも受講者が学習を進められるため、今後、普及が見込まれている。
 このような「ゲーミフィケーション」「エドテック」に関連する技術として、教育そのものではないが、従来から歌唱の分野で、カラオケの採点システムとして、マイクを通した声を分析することで、歌唱を評価することが知られている。例えば、特許文献1には、カラオケの参加者を取り巻く場の雰囲気を判断し、歌唱の評価に反映する技術が開示されている。この技術は、各参加者の顔の表情を認識し、楽曲に対応付けられた表情属性との一致度合に基づき、歌唱に関する総合評価を導出する、としている。
特開2016-188978号公報
 特許文献1における「楽曲に対応付けられた表情属性」は、同じ楽曲を繰り返し演奏したときに再現されるような場に対してあらかじめ用意できるものである。これに対して、プロジェクトマネジメントのような不確実な状況の元で限られたリソースを用いて最適な解を選択するような、再現性が期待できないような場を想定すると、プロジェクトマネージャの考え方や特性が色濃く反映されるために、このような「楽曲に対応付けられた表情属性」あるいはそれに相当するような属性を、あらかじめ用意することが困難である。
 そこで、本発明者らは、再現性が期待できないような場合には、対象者の行動を観察して得られた行動について、プロジェクトマネージャや専門家等の特定者の目線で判断することで、人またはその人が属するチームの特性を評価できるのではないか、と考えた。
 本発明の目的は、特定者の知識を用いて、人の動作の観察から人またはその属するチームの特性を評価することができる特性評価システムおよび方法を実現することにある。
 本発明の好ましい例による特性評価システムは、特定者が持つ知識を汎化してモデルを作成するモデル作成部と、チームに属する対象者の動作に関するデータを取得する観察部と、前記モデルを用いて、前記観察部により得られた前記データを基に、該対象者または該チームの特性を推定する推定部と、前記推定部による推定結果の前記特性に基づいて出力する指示部と、を有する特性評価システム、として構成される。
  本発明はまた、上記特性評価システムにおいて行われる特性評価方法としても把握される。
 本発明によれば、特定者の知識を用いて、人の動作の観察から人またはその属するチームの特性を評価することができる。
実施例1による特性評価システムの全体構成を示すブロック図である。 特性評価システムで使用されるデータベースの構成を示す図である。 観察データ管理DBのデータ構造を示すデータ図である。 モデル管理DBのデータ構造を示す図である。 推定結果管理DBのデータ構造を示す図である。 モデル作成部の処理の流れを示すフローチャート図である。 モデル作成部の画面例を示す図である。 観察部と推定部と指示部の処理の流れを示すフローチャート図である。 ゲームの場の構成例を示す図である。 ゲームの場の構成例を示す図である。 人財管理部の処理の流れを示すフローチャート図である。 人財管理部の処理における画面例を示す図である。 実施例3によるチーム内のインタラクションを観察するメトリクスの一例を示すデータ図である。
 以下、図面を参照して、本発明の好ましい実施形態について説明する。
  好ましい実施例による特性評価システムはコンピュータを用いたシステムで実現される。複数の人(プレーヤ)がゲームに参加してゲームを行い、このゲームを通して取得されるプレーヤ(対象者)の動作をコンピュータが観察することで対象者または対象者が属するチームの特性を推定する。対象者またはチームの特性の推定は、例えば、過去に行われたゲームから得られたプレーヤの動作を基に、有識者A(プロジェクトマネージャや専門家等の特定者)が持つ経験的暗黙知(知識)を用いてモデルを作成し、このモデルを適用することで行われる。この特性の推定は特性の評価または判断と称してもよい。
 〈システム構成〉
 図1を参照して、一実施例による特性評価システムの構成を説明する。
  コンピュータ1は、モデル作成部2、観察部3、推定部4、指示部5、人財管理部6、データベース(DBと略す)7、入出力インタフェース(I/F)14,15、を有する。
 モデル作成部2は、有識者Aが、複数のチーム13が過去に行ったゲームから得られた情報を参照して、有識者Aの経験的暗黙知に基づいてモデルを作成する処理を行う。観察部3は、センサ403が取得する、チーム12やその対象者121の動きや表情や発話(これらを纏めて動作ということにする)を基に観察データを生成する処理を行う。推定部4は、観察部3が生成した観察データについて、モデル作成部2が作成したモデルを用いて、対象者121あるいはチーム12の特性を推定する処理を行う。指示部5は、推定部4による推定結果に基づき、対象者121あるいはチーム12にフィードバックを与える処理を行う。人財管理部6は、人財管理者Bが入出力する処理部であり、推定部4による推定結果に基づき、対象者121あるいはチーム12の特性を分析および把握するための処理を行う。
 DB7はプログラムや種々のデータを記憶する。本実施例では、とりわけ複数のDB21~26(図2参照)が保持される。I/F14、15はコンピュータ1に入出力可能なインタフェースであり、有識者Aや人財管理者Bが操作できるような、入力器や表示器を有している。なお、I/F14、15は、コンピュータ1に端末が接続される構成の場合、セキュリティが保持されたインタフェースでもよい。
 コンピュータは、ハードウェア資源としてプロセッサ(CPU)および記憶部を有する、例えばパソコン(PC)でもよい。プロセッサで所望のプログラムを実行することで上記各部位の機能が実現される。記憶部にはDB7が保持される。
 以下に説明する処理を実現するプログラムやデータの一部または全ては、予めDB7に格納されていてもよいし、必要に応じて、コンピュータ1が備える図示していないI/Fを介して、ネットワークで接続された他の装置の非一時的記憶装置から、または非一時的な記憶媒体から、DB7に格納されてもよい。
 コンピュータ1には、ゲームの場を形成する、ゲームの進行を管理する表示装置402が接続され、また各対象者の動作を検知するためのセンサ403が接続される。ゲームの場における表示装置401およびセンサ403の構成については、図9を参照して後述する。
 〈ゲーム12の場の説明〉
 図9、図10を参照して、ゲームの場の構成例について説明する。
  図9は主に観察部3とセンサ403の関係を示し、図10は主に指示部5と表示装置402との関係を示す。図9および図10はそれぞれ幾つかの例を示している。
 図9(a)はゲームの場の一例を示す。ゲームの場には、表示装置401としてのデジタル版ボードゲーム装置が設置され、さらに4人の各プレーヤ(対象者)121に装着されるヘッドセット4031が用意される。デジタル版ボードゲーム装置はタッチパネル式の操作表示領域402を有し、プレーヤがゲーム中の表示を参照ながらタッチパネルに表示されるアイコンを手で動かすことで、ゲームを進めるような装置である。なお、デジタル版ボードゲームには指示部5が接続されるが、これについては図10を参照する。ヘッドセット4031は対象者121ごとの発話を検知する一種の音声センサ403である。観察部3は、操作表示領域402上のアイコンの動きや、センサ403が検知する対象者121の発話を分析する。この例により観察部3が取得するメトリクスは例えば以下のようなものがある。
  ・単位時間当たりのボードゲームのアイコンを動かす頻度
  ・ボードゲームの文脈に対して意味のあるアイコンを動かした回数
  ・単位時間当たりの発話の回数
  ・単位時間当たりの発話の長さ
  ・チームとしてのアイコンあるいは発話が完全停止した時間
 図9(b)は他の例を示す。ゲームの場には、天井に固定されたカメラ4032と、マイク4033が設置される。カメラ4032は、アナログ版ボードゲームの全体を広角に撮像範囲に捉えて、対象者121の画像を取得する一種の画像取得センサである。マイク4033は一種の音声センサであり、チーム12の対象者121の発話を、発話の方向も含めて取得する。観察部3が発話の方向を分析することで、4人の対象者121のうちの誰が発話したのかを特定することができる。この例により観察部3が取得するメトリクスは例えば以下のようなものがあげられる。
  ・単位時間当たりのボードゲームのコマあるいはカードを動かす頻度
  ・ボードゲームの文脈に対して意味のあるカードを動かした回数
  ・単位時間当たりの発話の回数
  ・単位時間当たりの発話の長さ
  ・チームとしてのカードの動きあるいは発話が完全停止した時間
 図9(c)は更に他の例を示す。
  この例は例えば会議の場である。会議室の机上にカメラ406が設置されて、カメラ406は、複数の出席者(対象者)121を撮像範囲に捉える、一種の画像センサである。このカメラ406が取得した映像を分析することで、対象者121の顔の表情や手の動きを観察できる。この例により観察部3が取得するメトリクスは例えば以下のものがある。
  ・単位時間当たりの笑顔の回数
  ・単位時間当たりの手の動きの範囲
  ・単位時間当たりの手の動きの回数
 図10(a)を参照する。デジタル版ボードゲーム装置401には指示部5が接続される。指示部5は、推定部4による推定結果に基いてデジタル版ボードゲーム装置に指示を出して、操作表示領域402上にハイライト表示413を行う(表示によるアクション)。例えば、ボードゲームに参加する対象者121全員の手の動きが所定の時間止まった場合に、次に行うべきアイコンの動きをハイライト表示413することで、行動を促す。
 図10(b)は他の例を示す。この場には、スピーカ414、照明装置415が設置される。指示部5は、チーム12にフィードバックするための文字例を作成し、その文字列を音声データに変換し、スピーカ414を通じ音声を流す(音によるアクション)。例えば、ボードゲームに参加する対象者121の会話が所定の時間止まった場合に、対象者121の発話を促すようなメッセージを音声で流すことで、行動を促す。
 また、指示部410は、照明を制御するコマンドを生成して、照明装置415に送信し、このコマンドにより照明装置415の明るさや色合いを制御する(照明によるアクション)。例えば、ボードゲームに参加する対象者121の行動や発話の活発具合に応じて照明装置415を制御する。例えば、活発なほど照明の色を青色などに落ち着かせ、消極的なほど照明の色を赤色などに活発にする。
  なお、スピーカ414と照明装置415の両方の装置を設置しないで、何れか1つの装置を設置又は起動するようにしてもよい。
 〈DB構成〉
 次に、図2を参照して、特性評価システムで使用されるデータの全体構成を説明する。データは、個人管理DB21、チーム管理DB22、メトリクス管理DB23、観察データ管理DB24、モデル管理DB25、推定結果管理DB26、によりそれぞれ管理される。
 個人管理DB21は、特性評価システムを利用する対象者121の情報を一意に管理する。チーム管理DB22は、特性評価システムを利用するチーム12を管理するためのDBであり、チームごとに識別情報を付して管理する。メトリクス管理DB23は、対象者121やチーム12を観察するセンサ403およびセンサによって取得されるメトリクスを管理するDBである。観察データ管理DB24は、観察部3により観察された、対象者121やチーム12の観察データを管理するDBである。モデル管理DB25は、有識者Aによる経験的暗黙知をモデル化したモデルを管理するDBである。推定結果管理DB26は、モデル管理DB25が管理するモデルに基づき、推定部4が対象者121やチーム12の特性を推定した結果を管理するDBである。
 ここで、個人管理DB21、チーム管理DB22、観察データ管理DB24、推定結果管理DB26(図2の点線の左側のDB)は、個人を特定する情報を含むようなDBであり、権限のない者による不必要な参照および開示や、権限のない者による勝手な改ざんや削除から守られるべきものである。そのため、これらの個人を特定する情報を含むようなDBでは、アクセス制御やログ取得といったセキュリティ機能を有する。さらには、DBの物理的な保管場所も、個人を特定する情報を保護する法律のもとで、法律の管轄地域を超えて移転できないものとする。
 一方、メトリクス管理DB23、モデル管理DB25(図2の点線の右側のDB)は、個人を特定する情報を含まないDBである。個人を特定する情報を含まなくても、権限のない者による不必要な参照や、権限のない者による勝手な改ざんや削除から守られるものである。そのため、個人を特定する情報を含まないDBであっても、アクセス制御やログ取得といったセキュリティ機能を有する。ただし、その保管場所は、個人を特定する情報を保護するような法律の影響は受けない。
 次に、各DBの詳細な構成について説明する。
  個人管理DB21、チーム管理DB22、メトリクス管理DB23は、簡単な構成のため、特には図示していない。観察データ管理DB24は図3に示し、モデル管理DB25は図4に示し、推定結果管理DB26は図5に示している。
 個人管理DB21は、個人ID、個人名との組を1つの行として、複数の行から構成される。特性評価システムは、個人IDにより対象者121を識別して特定する。対象者121は個人IDを入力することでゲームに参加できる。
 チーム管理DB22は、チームID、チーム名、個人IDとの組を1つの行として、複数の行から構成される。ここで、チーム12とは、例えばボードゲームの場合、ボードゲームに参加する対象者121の集合である。特性評価システムは、チーム12をチームIDにより識別して特定する。1つのチームIDには、1つ以上の個人IDが紐づけされる。なお、チームは時間とともに変わることがあるため、チームIDにはチームの結成日時と解散日時が付与されて管理される。本実施例では、チームIDによりその結成と解散が認識できるものとして、以降説明する。
 メトリクス管理DB23は、メトリクスID、メトリクスとの組を1つの行として、複数の行から構成される。観察部3で利用されるメトリクスは、メトリクスIDにより識別、特定される。ここで、メトリクスとは、観察部3が利用するセンサおよびセンサが取得する情報等のセンサに関係する情報である。メトリクスには例えば以下のようなものであるが、これらに限定されない。
  ・カメラの置き場所と撮像方向
  ・カメラで撮影した人物像に機械学習を適用して解析される動作
  ・カメラで撮影した人物の顔に機械学習を適用して解析される表情
  ・マイクで録音した音声データの発話区間
  ・音声データの発話内容
  ・音声データの発話の声の大きさなど
 次に、図3を参照して、観察データ管理DB24について説明する。
  観察データ管理DB24は、ROOTからはじまる木構造を持つ。まず、ROOTからチームID101に枝分かれする。次に、チームID101からは、チームを対象とするメトリクスID102に枝分かれし、さらに、メトリクスID102からチームの観察データ103に枝分かれする。例えば、「チームA」を観察する「メトリクスA-1」に対して、一定間隔ごとの観察データを「観察データA-1-1」、「観察データA-1-2」、「観察データA-1-3」のように、観察データ103を格納する。さらに、チームID101からは、個人ID104に枝分かれし、個人ID104から個人を対象とするメトリクスID105に枝分かれし、さらにメトリクスID105から個人を観察した観察データ106に枝分かれする。この観察データ管理DB24の構造によって、対象者121が何れかのチーム12に属したときに、観察部3が観察したデータを、チームとしての観察データ103と、個人としての観察データ106に分けて、格納する。
 図4は、モデル管理DB25を示す。
  モデル管理DB25は、ROOTから始まる木構造を持つ。まず、ROOTから特性ID111に枝分かれし、特性ID111からメトリクスID112に枝分かれする。さらに、メトリクスID112からベストデータ113とワーストデータ114に枝分かれする。このモデル管理DB25によって、有識者Aの経験的暗黙知を、メトリクスを用いてモデル化する。
 ここで、特性とは、対象者である人の特性であり、例えば、発想力、記憶力、推理力、立案力、判断力、合意力、リーダーシップ、フォロアーシップ、等を指す。また、特性に関わるメトリクスとは、例えば特性1「発想力」について言えば、メトリクス1-1が発話数、メトリクス1-2が使用された名詞の数、メトリクス1-3が使用された動詞の数、メトリクス1-4が発話のタイミング、メトリクス1-5が発話時間長さ、如きである。他の特性についても、特性に応じてその特性を表現できるメトリクスが選定されることになる。
  また、例えば発話数について言えば、ベストデータ113とは最も多い発話数、ワーストデータ114とは最も少ない発話数、という。
 図5は、推定結果管理DB26を示す。
  推定結果管理DB26は、ROOTから始まる木構造を持つ。まず、ROOTからチームID121に枝分かれし、チームID121からチームの特性の推定結果122に枝分かれする。さらに、チームID121から個人ID123へと枝分かれして、個人ID123は個人の特性の推定結果124に枝分かれする。この推定結果管理DB26によって、対象者121が何れかのチーム12に属したときに、チームとしての特性と、個人としての特性を分けて格納する。
 〈モデル作成部2の処理動作〉
 次に、図6および図7を参照して、モデル作成部2の処理について説明する。
  (ステップ201)このシステムが起動すると、モデル作成部2はチーム管理DB22からチーム一覧を読み込む。
 (ステップ202)モデル作成部2は、有識者Aが使用するインタフェース14を介して操作表示画面(図7参照)を表示して、有識者Aによる入出力を可能とする。有識者Aは特徴のあるチームを選出するための入力を行う。特徴のあるチーム選出のための操作表示画面を、ここではモデル作成画面という。図7にその例を示す。
 図7において、モデル作成画面300は、特性評価システムが観察データをもつチーム一覧を表示するリスト表示領域301と、有識者Aが経験的暗黙知によりベストと考えるチームをドラッグアンドドロップにより指定するリスト表示領域302と、同様にワーストと考えるチームをドラッグアンドドロップにより指定するリスト表示領域303と、チーム差の分析を開始する分析ボタン304とを有する。有識者Aは、リスト表示領域301を見ながら、自身の経験的暗黙知に照らして、ベストだったと考えるチームと、ワーストだったと考えるチームをそれぞれ、リスト表示領域302とリスト表示領域303とで指定する。有識者Aは、ベストなチームとワーストなチームの指定を完了すると、分析ボタン304を押下する。
 (ステップ203)モデル作成部2は、ベストチームとワーストチームに関する観察データを、観察データ管理DB24から読み込む。
 (ステップ204)モデル作成部2は、ベストなチームの観察データと、ワーストなチームの観察データとを比較し、メトリクスごとに、ベストなチームの値とワーストなチームの値との差を計算する。次に、モデル作成部2は、メトリクス管理DB23で示されたメトリクスのうち、ベストなチームとワーストなチームとで差が大きいメトリクスを順に並べ替える。メトリクスを並べ替えた結果を、モデル作成画面300(図7参照)に表示する。すなわち、モデル作成画面300には、メトリクスの一覧を順に並べたリスト表示領域305に、メトリクスごとにベストなチームの観察データのベスト値306と、ワーストなチームの観察データのワースト値307が表示される。例えば、メトリクスAが発話数、メトリクスBが名詞数、メトリクスCが動詞数をそれぞれ示し、発話数のベスト値306が「20」、ワースト値が「3」の目盛を示すが如きである。
 (ステップ205)モデル作成部2は、有識者Aによるメトリクスの選択とベスト値とワースト値の調整を行うための画面を表示する。すなわち、モデル作成画面300において、有識者Aは特性の選定につかうメトリクスと、リスト表示領域305上のチェックボックスにチェックをつけることで指定する。さらに、有識者Aは、メトリクスごとのベスト値306とワースト値307とを、自らの経験的暗黙知に照らして、スライドバー上のポインタを動かして、調整する。例えば、有識者Aは、メトリクスAについて、発話数のベスト値306を「21」に、ワースト値を「6」に調整することができる。なお、図示していないが、メトリクスをどの特性に紐づけるかの指定を行うこともできる。
 (ステップ206)モデル作成部2は、有識者Aによる、モデル作成の完了の操作を促す。このとき、モデル作成画面300にモデル作成ボタン308を表示する。なお、有識者Aがモデルに納得がいかない場合には、再びステップ202に戻って、特徴のあるチーム選出から処理を進めることができる。
 (ステップ207)モデル作成部2は、ベスト値306あるいはワースト値307に含まれる、個人を特定できるような情報を検出する。もし個人を特定できるような情報を検出した場合には当該情報を削除するか匿名化する。これにより、モデルには個人を特定する情報を含まないようにするのがよい。
 (ステップ208)モデル作成部2は、作成したモデルを、モデル管理DB25に格納する。モデル作成部2は、個人あるはチームの特性に関わる特性ID111から枝分かれして、メトリクスID112を格納する。さらに、メトリクスID112から枝分かれして、ベストデータ113とワーストデータ114を格納する。
  上記のように、モデル作成部2の処理により、有識者Aの経験的暗黙知が反映された、メトリクスを用いたモデルを作成することができる。
 〈観察部3、推定部4、指示部5の処理動作〉
次に、図8を参照して、観察部3、推定部4、指示部5の処理について説明する。
  (ステップ221)観察部3は、チーム12に属する対象者121を登録する。既に特性評価システムを利用したことがある対象者121は、個人管理DB21にある個人IDとチームIDとを紐づけられている。新たな対象者121に対しては、個人管理DB21に新規エントリを追加してから、個人IDとチームIDとを紐付けて登録する。
 (ステップ222)観察部3は、各種のメトリクスを用いて、対象者121およびチーム12を観察し、観察データを生成する。例えば、図9(a)の例では、下記のメトリクスに対して観察データが対応付けられる。
  ・単位時間当たりのボードゲームのアイコンを動かす頻度
  ・ボードゲームの文脈に対して意味のあるアイコンを動かした回数
  ・単位時間当たりの発話の回数
  ・単位時間当たりの発話の長さ
  ・チームとしてのアイコンあるいは発話が完全停止した時間
 (ステップ223)観察部3は、メトリクスを通じて取得した観察データに対して、対象者121の個人との紐づけを行う。紐づけは、あらかじめマーキングしておいた個人IDと紐づけるものであってもよく、観察データを取得した後に、分析者が手動で個人IDと紐づけるものであってもよい。
 (ステップ224)観察部3は、観察データを観察データ管理DB24に格納する。
 (ステップ225)推定部4は、モデル管理DB25から、モデルを取得する。
 (ステップ226)推定部4は、観察データ管理DB24から観察データを取得し、上記モデルに基づき、チーム12の特性を推定する。特性の推定は、観察データに対して、モデル管理DB25に格納されたチームの各メトリクスID112で識別されたメトリクスに基づき、ベストデータ113とワーストデータ114のいずれかの近いかをもって、ベストな状態か、ワーストな状態かを判定する。チーム12に対する特性の推定結果は、推定結果管理DB26の、チームID121から枝分かれした、特性の推定結果122に格納される。
 (ステップ227)推定部4は、観察データ管理DB24から観察データに対して、モデルに基づき、対象者121の特性を推定する。特性の推定は、観察データに対して、モデル管理DB25に格納された個人の各メトリクスID112で識別されたメトリクスに基づき、ベストデータ113とワーストデータ114のいずれかの近いかをもって、ベストな状態か、ワーストな状態かを判定する。対象者121に対する特性の推定の結果は、推定結果管理DB26の、個人ID123から枝分かれした推定結果124に格納される。
 (ステップ228)推定部4は、チーム12およびその対象者121の推定結果を、推定結果管理DB26に格納する。
 (ステップ229)指示部5は、チーム12の特性の推定結果に基づいて、チーム12に対するフィードバックを行う。例えばフィードバックの一例として、図10(a)に示すように、デジタル版ボードゲーム装置401に指示を出して、表示によるアクションを行う。
 (ステップ230~231)指示部5はまた、チーム12の特性の推定結果を用いて、チーム12に対して音によるフィードバックを行うことができる(図10(b))。指示部5はまた、同様の推定結果を用いて、チーム12に対して照明によるフィードバックを行うことができる。なお、指示部5によるフィードバックは、上記ステップ229~231の何れか1又は幾つかを組合せて行ってもよい。
 以上のように、観察部3、推定部4、指示部5の一連の処理により、有識者Aの知識を基に作成されたモデルに基づき、観察部3で観察されたメトリクスの観察データがワーストデータ114に近づきそうなときに、指示部5が適度なタイミングで指示を出すことで、ベストデータ113に近づくように、気づきと行動の変化を与えることができる。
 〈人財管理部6の処理動作〉
 次に、図11、図12を参照して、人財管理部6の処理について説明する。
  (ステップ241)人財管理部6は、個人管理DB21から個人IDと個人名の一覧を取得し、インタフェース15を介して操作画面を表示する。人財管理者Bは、操作画面上で、特性の確認したい個人IDを選択する。
 (ステップ242)人財管理部6は、人財管理者Bが指定した個人IDについてチーム管理DB22を検索して、この個人IDが属した過去のチームIDの一覧を取得する。
 (ステップ243)人財管理部6は、ステップ242で取得したチームIDの一覧に対して、推定結果管理DB26から該当するチームIDの推定結果を取得する。
 (ステップ244)人財管理部6は、インタフェース15を介して、個人IDに関わる推定結果を含む画面を表示する。推定結果の表示画面(人財管理画面)の例を、図12に示す。
 図12において、人財管理画面320は、チームCに属する4人のプレーヤ(個人)C1~C4の特性と、チームCの特性を表している。すなわち、チームCのチーム特性1~チーム特性4の評価結果を表すチーム特性レーダーチャート321と、チームCに属する4人のプレーヤC1~C4の特性1~4の評価結果を表した個人特性レーダーチャート322と、プレーヤC1の成長の過程(推定結果の経年変化)を棒グラフで示した個人成長グラフ323と、を有して構成される。図示の個人成長グラフ323では、プレーヤC1は、過去にチームA,Bに属したことがあり、それぞれのチームにおける特性1~4は棒グラフの通りであることがわかる。
 人財管理者Bは、人財管理画面320の内容を確認することで、個人IDに対応する成長記録を個人成長グラフ323で確認できる。さらに、個人IDに対応する当人が特定のチームに属したときの、そのチームの特性評価結果と、そのチームに属した他のプレーヤの特性評価結果を確認することができる。これにより、各個人が、チームの特性1~4においてどの特性で貢献したか、どの特性を他のプレーヤに助けてもらったか、等を確認することができる。
  この人財管理部6の処理により、人財管理者Bは特性評価システムを通じて観察された対象者121の特性を、体系的に把握することができる。
 上述のように、実施例1の特性評価システムによれば、対象者121は、自らの特性を、有識者Aの経験的暗黙知によるモデルに基づいて把握することができる。これにより、対象者121の行動を経験的暗黙知に照らして望ましい方向に変えることができる。
 また、この特性評価システムにより、有識者Aは、自身の経験的暗黙知を、過去のチームで観察された観察データを用いて、メトリクスで観察可能なモデルとして作成することができる。これにより、有識者Aは自身の経験的暗黙知を汎化し形式知化することができる。
 さらに、この特性評価システムにより、人財管理者Bは、対象者121の特性を、対象者121のチーム12の中での特性と、チーム12への貢献の度合いの観点で、把握することができる。
 実施例2は、有識者Aが経験的暗黙知をモデル化するモデル作成部2において、メトリクスを、有識者Aがインタフェース14を介して直接入力するものである。これにより、観察データ管理DB24のデータ総数が少ないときにも、モデルを作成することができる。
 実施例2によれば、モデル作成部2の処理は、図6において、ステップ205、ステップ208の処理が実行されて、ステップ201からステップ204、およびステップ206と207が省略される。
 以下、ステップ205および208の処理を説明する。
  (ステップ205)モデル作成部2は、メトリクス管理DB23からメトリクスを読み込み、インタフェース14を介して、有識者Aのための表示器にモデル作成画面を表示する。表示画面としては、図7における下半分の部分である。すなわち、モデル作成画面300は、メトリクスの一覧を順に並べたリスト表示領域305と、メトリクスごとにベストなチームの観察データのベスト値306と、ワーストなチームの観察データのワースト値307と、モデル作成ボタン308の表示を有する。
 有識者Aは、モデル作成画面300の、メトリクスごとのベスト値306とワースト値307とを、自らの経験的暗黙知に照らして、スライドバー上のポインタを動かして調整する。メトリクスをどの特性に紐づけるかの指定を行う(不図示)。
 (ステップ208)モデル作成部2は、モデルに関わるデータを、モデル管理DB25に格納する。すなわち、モデル作成部2は、個人あるはチームの特性に関わる特性ID111から枝分かれして、メトリクスID112を格納する。さらに、メトリクスID112から枝分かれして、ベストデータ113とワーストデータ114を格納する。
 実施例2によれば、モデル作成処理において、観察データ管理DB24を使わずにモデルを作成できるので、観察データ管理DB24のデータ総数が少ない場合でも、有識者Aの経験的暗黙知がモデルに反映できる。
 実施例3は、メトリクスとして、チーム内の個人間のインタラクションを扱うものである。図13を参照するに、メトリクスでは、マイクで取得した一定時間内の発話に対して、FROM2301に示す個人の後で、TO2302に示す個人が発話したかを示す。例えば、個人A1の発話の後では、個人A2の発話の割合が60%、個人A3が30%、個人A4が10%であった、ことを示す。同様に、個人A2、個人A3、個人A4の発話につづく発話者の割合を分析する。
 次に、TO2302の列方向で、前述の割合を加算する。例えば個人A1は、25+15+70=110%となる。このとき個人A1は、FROM2301の割合よりもTO2302の割合のほうが大きいことから、発話よりも、聞く側に回る方が多いと分析する。一方個人A2は、60+25+10=95%となることから、聞く側よりも、発話する機会が多いと分析する。
 このメトリクスは、「inter-personalのインタラクション」、との識別名称が付与されて、メトリクス管理DB23に保管される。その実行結果である、図13のメトリクスは観察データ管理DB24に保管される。モデルの作成処理に際しては、図6のステップ205において、メトリクス管理DB23に保管された「inter-personalのインタラクション」、のメトリクスで参照する。
 有識者は、個人を一人ずつ見たいときは、inter-personalのインタラクションを選択しないが、チーム内の個人間の関係をみたいときには、inter-personalのインタラクションを選択することができる。
 実施例3によれば、実施例1で述べたチームおよび個人に関するメトリクスに加えて、個人間のインタラクションに関するメトリクスを構成することができる。例えば、何れの個人の後に何れの個人の発言が多いかを、このメトリクスで数値化することができるので、個人のリーダーシップ力やフォロワーシップ力等の特性を評価するのに活用できる。
 本発明は、上記実施例以外にも種々変形、応用して実施し得る。
  好ましい例では、上記特性評価システムは、ゲームを通してその参加者およびチームの特性評価を行うとしているが、他の例によれば、ゲームの参加者やチームの評価に限定されない。例えば、図9(c)のように、会議の出席者の特性を評価することが可能である。一方、会議自体をチームとして評価する特性評価は必ずしも必要とされないことがある。
 また、上記実施例では、人財管理部6を有していて、インタフェース15を介して表示される画面により、人財管理者Bが対象者および又はチームの評価を把握できるとした。他の例によれば、人財管理者Bに限らず、希望するユーザに、対象者又はチームの特性をサービスとして提供することができる。例えば、ユーザはインタフェース15を介して接続される端末を用いて、人および又はその人が属する団体の評価結果の提供を受けることができる。もちろん、人やその団体に関わる情報を扱っているので、セキュリティの確保が必要である。
 以上のように、上記の実施例によれば、人またはチームの動作の観察に基づいてその人またはチームの特性を評価することができる。例えば、プロジェクトマネジメントにおけるプロジェクトマネージャのような特定者の考え方や特性が学習対象に反映される場合でも、対象者が特定者による知識に照らして学習を行うことで、自らの特性を把握することができる。これにより、対象者の行動をより望ましい方向に変えることができる。

Claims (13)

  1. コンピュータを用いた特性評価システムであって、
    特定者が持つ知識を汎化してモデルを作成するモデル作成部と、
    チームで行動する複数の人の動作に関するデータを取得する観察部と、
    前記モデルを用いて、前記観察部により得られた前記データを基に、該人または該チームの特性を推定する推定部と、を有し、
    前記推定部による推定結果の前記特性に基づいて出力する指示部と、
    を有する特性評価システム。
  2. 前記コンピュータは、入出力可能なインタフェースを有し、
    該インタフェースは、複数の前記チームのうちから任意のチームが選択できる表示と、前記観察部が取得できる観察データのメトリクスを調整できる表示と、を含む表示画面を表示し、
    前記モデル作成部は、前記画面から前記特定者の操作により入力される、第1のチームの第1の観察データと第2のチームの第2の観察データを比較し、該第1の観察データと該第2の観察データの差を際立たせるメトリクスと、ベストデータとワーストデータを選定して、前記モデルを作成する、
    請求項1の特性評価システム。
  3. 前記推定部は、前記観察部により取得された観察データを、前記モデルに含まれる前記メトリクスに対して、前記ベストデータと前記ワーストデータの間の位置を分析することで、前記人の特性または前記チームの特性を推定する、
    請求項2の特性評価システム。
  4. 前記チームを構成する複数の人が共に行動する場に設置され、該複数の人の動作を検知するセンサと、
    該センサが取得するデータを保管する観察データ管理DBと、を有し、
    前記観察部は、前記センサにより検知される、1または複数のメトリクスに係るデータを取得し、
    前記チームに関する1または複数のメトリクスおよび該メトリクスに対応する1または複数の観察データと、前記チームに属する複数の人に関する1または複数のメトリクスおよび該メトリクスに対応する1または複数の観察データと、を関連つけて、前記観察データ管理DBに保管する、
    請求項1の特性評価システム。
  5. 前記センサは、前記人が操作する操作対象の動き、または前記人による振る舞い、または前記人の発話、を検知し、
    前記前記観察データ管理DBは、検知された前記動き、または振る舞い、または前記発話のデータを保管する
    請求項4の特性評価システム。
  6. 前記チームを構成する複数の人が共に行動する場に配置される、表示装置、または音声出力装置、または照明装置を有し、
    前記指示部は、前記推定部による前記チームの特性の推定結果に基づいて、前記装置の何れかにフィードバックを行う、
    請求項1の特性評価システム。
  7. 前記モデル作成部により作成された前記モデルを、人に関する複数の前記特性と、該特性ごとに1または複数のメトリクスと、該メトリクスに対応するベストデータと、ワーストデータと、を関連つけて保管するモデル管理DBと、
    前記推定部により作成された前記推定結果を、1または複数の前記チームの前記特性に関する推定結果と、前記チームに属する複数の人の特性に関する前記複数の特性に関する推定結果と、を関連つけて保管する推定結果管理DBと、
    を有する請求項1の特性評価システム。
  8. 前記コンピュータは、
    前記推定部による推定結果を用いて、前記人または前記チームの特性に係る処理情報の提供を行う管理部と、入出力可能なインタフェースと、を有し、
    前記管理部は、前記入出力可能なインタフェースを介して指定される、前記チームに係る特性の推定結果と、該チームに属する人に係る特性の推定結果とを、前記推定結果管理DBから取得して、
    該チームの評価を表す表示、または該人の評価を表す表示、または指定された該人の該推定結果の経年変化を表す表示と、を含む表示画面を、該インタフェースに表示する
    請求項7の特性評価システム。
  9. 前記モデル管理DBは、発想力、記憶力、推理力、立案力、判断力、合意力、リーダーシップ、フォロアーシップ、に関する前記複数の特性のデータを保管する
    請求項7の特性評価システム。
  10. 前記チームを構成する複数の人が参加して操作することができる、デジタル版ボードゲーム装置と、該複数の人の動作を検知するセンサと、を有し、
    前記観察部は、前記センサにより検知される、1または複数のメトリクスに係るデータを取得し、
    前記指示部は、前記推定部による前記チームの特性の推定結果に基づいて、前記デジタル版ボードゲーム装置の表示を変化させる、
    請求項1の特性評価システム。
  11. 前記チームに関する1または複数のメトリクスおよび該メトリクスに対応する1または複数の観察データと、前記チームに属する複数の人に関する1または複数のメトリクスおよび該メトリクスに対応する1または複数の観察データと、を関連つけて保管する前記観察データ管理DBを有し、
    前記モデル作成部は、前記観察データ管理DBから選択される、前記チームと、該チームに係る該観察データの該メトリクスを用いて、前記モデルを作成する
    請求項1の特性評価システム。
  12. コンピュータにより行う特性評価方法であって、
    特定者が持つ知識を汎化してモデルを作成するモデル作成ステップと、
    チームで行動する複数の人の動作に関するデータを取得する観察ステップと、
    前記モデルを用いて、前記観察ステップにより得られた前記データを基に、該人または該チームの特性を推定する推定ステップと、を有し、
    前記推定ステップによる推定結果の前記特性に基づいて出力する指示ステップと、を有する特性評価方法。
  13. 前記コンピュータは、
    前記推定部による、前記チームに係る特性の推定結果と、該チームに属する人に係る特性の推定結果を用いて、該チームの評価を表す表示、または該人の評価を表す表示、または指定された該人の該推定結果の経年変化を表す表示と、を含む表示画面を形成し、入出力インタフェースを介して該表示画面を表示する
    請求項12の特性評価方法。
PCT/JP2021/005373 2020-02-13 2021-02-12 特性評価システムおよびその方法 WO2021162117A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020022083A JP7358265B2 (ja) 2020-02-13 2020-02-13 特性評価システムおよびその方法
JP2020-022083 2020-02-13

Publications (1)

Publication Number Publication Date
WO2021162117A1 true WO2021162117A1 (ja) 2021-08-19

Family

ID=77292299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/005373 WO2021162117A1 (ja) 2020-02-13 2021-02-12 特性評価システムおよびその方法

Country Status (2)

Country Link
JP (1) JP7358265B2 (ja)
WO (1) WO2021162117A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202100022802A1 (it) * 2021-09-03 2023-03-03 Imasterminds S R L Sistema per ottimizzare la realizzazione di un gruppo di lavoro e relativo metodo.

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027536A (ja) * 2015-07-28 2017-02-02 Kddi株式会社 特性語によってグループ状態を推定可能なプログラム、装置及び方法
JP2019121161A (ja) * 2018-01-04 2019-07-22 富士通株式会社 判定プログラム、判定方法、および判定装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027536A (ja) * 2015-07-28 2017-02-02 Kddi株式会社 特性語によってグループ状態を推定可能なプログラム、装置及び方法
JP2019121161A (ja) * 2018-01-04 2019-07-22 富士通株式会社 判定プログラム、判定方法、および判定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202100022802A1 (it) * 2021-09-03 2023-03-03 Imasterminds S R L Sistema per ottimizzare la realizzazione di un gruppo di lavoro e relativo metodo.

Also Published As

Publication number Publication date
JP2021128487A (ja) 2021-09-02
JP7358265B2 (ja) 2023-10-10

Similar Documents

Publication Publication Date Title
Vinciarelli et al. A survey of personality computing
Williamon et al. Simulating and stimulating performance: introducing distributed simulation to enhance musical learning and performance
US9305465B2 (en) Method and system for topic based virtual environments and expertise detection
Andrist et al. Look together: Analyzing gaze coordination with epistemic network analysis
US8161398B2 (en) Assistive group setting management in a virtual world
Lohle et al. Real projects, virtual worlds: Coworkers, their avatars, and the trust conundrum
Callaway et al. Mobile drama in an instrumented museum: inducing group conversation via coordinated narratives
Nørskov et al. Applicant fairness perceptions of a robot-mediated job interview: a video vignette-based experimental survey
Hale et al. The virtual maze: A behavioural tool for measuring trust
Goldberg et al. The structure of competence: Evaluating the factor structure of the Cognitive Therapy Rating Scale
Benlamine et al. BARGAIN: behavioral affective rule-based games adaptation interface–towards emotionally intelligent games: application on a virtual reality environment for socio-moral development
WO2021162117A1 (ja) 特性評価システムおよびその方法
Charisis et al. EmoActivity-An EEG-based gamified emotion HCI for augmented artistic expression: The i-Treasures paradigm
Hanna et al. Do Birds of a Feather Work Better Together? The Impact of Virtual Agent Personality on a Shared Mental Model with Humans during Collaboration.
Ho et al. A Thief among Us: The Use of Finite-State Machines to Dissect Insider Threat in Cloud Communications.
Bergstrom et al. The keys to success: Supplemental measures of player expertise in Massively Multiplayer Online Games
JP7152453B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
WO2022180860A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
Anand Exploring the Applications and Limitations of Large Language Models: A Focus on ChatGPT in Virtual NPC Interactions
Brugnoli et al. The PASION Project: Psychologically Augmented Social Interaction Over Networks.
Caddle et al. A psychometric detection system to create dynamic psychosocial relationships between non-player characters
WO2022249462A1 (ja) 動画像分析システム
JP7138998B1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP7477909B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022113248A1 (ja) ビデオミーティング評価端末及びビデオミーティング評価方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21754184

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21754184

Country of ref document: EP

Kind code of ref document: A1