WO2016132612A1 - 情報処理装置、制御方法、およびプログラム - Google Patents

情報処理装置、制御方法、およびプログラム Download PDF

Info

Publication number
WO2016132612A1
WO2016132612A1 PCT/JP2015/082176 JP2015082176W WO2016132612A1 WO 2016132612 A1 WO2016132612 A1 WO 2016132612A1 JP 2015082176 W JP2015082176 W JP 2015082176W WO 2016132612 A1 WO2016132612 A1 WO 2016132612A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
team
information processing
performance
Prior art date
Application number
PCT/JP2015/082176
Other languages
English (en)
French (fr)
Inventor
健 宮下
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2016132612A1 publication Critical patent/WO2016132612A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Definitions

  • the present disclosure relates to an information processing device, a control method, and a program.
  • Patent Document 1 in team division of a competitive game provided by a video game machine, biological information of an operator who operates a controller is analyzed, and an operator (player) is analyzed according to the analysis result.
  • the present disclosure proposes an information processing apparatus, a control method, and a program that can perform optimal team division according to the relationship between users.
  • an information processing apparatus comprising: an estimation unit that estimates a relationship between users; and a generation unit that generates information on at least one team member based on the estimated relationship between users. suggest.
  • a control method including estimating a relationship between users and generating information on at least one team member based on the estimated relationship between users is proposed.
  • a computer in order to cause a computer to be executed as an estimation unit that estimates a relationship between users, and a generation unit that generates information on at least one team member based on the estimated relationship between users. Suggest a program.
  • FIG. 1 It is a figure which shows the specific calculation formula of the bidirectional
  • FIG. 1 It is a flowchart which shows the team organization process of the information processing system by this embodiment. It is a figure which shows an example of the team selection in the team organization process of this embodiment. It is a figure explaining the modification of team selection in the team organization processing by this embodiment. It is a figure which shows an example of the team condition input screen by this embodiment. It is a figure which shows an example of the team organization screen by this embodiment.
  • the schedule and progress of work performed by each person, the type and contents history of work documents accessed by the user, result information, etc. are stored on the network.
  • the business information server 2 Stored in the business information server 2.
  • the business information server 2 can also store a history of types and contents of business documents that are in the user's field of view (it is estimated that the user is reading).
  • biometric information heart rate, sweat rate, body temperature, brain wave, etc.
  • position information are continuously acquired during work by a wearable device such as a smart band 3, a smart watch, or a smart eyeglass worn by each person.
  • a wearable device such as a smart band 3, a smart watch, or a smart eyeglass worn by each person.
  • the state in which each person is working is captured by the camera 4 installed in the room.
  • the camera 4 also includes a microphone that collects each person's conversation.
  • the camera 4 can be installed in a hallway as well as a room such as a workplace or a conference room.
  • the biological information, position information, conversation, state (face expression, who is working with whom, etc.) of each person who is working, and the contents of the work (Schedule, progress, outcome) can be continuously acquired by various methods.
  • the information acquisition method described with reference to FIG. 1 is an example, and is not particularly limited in the present embodiment.
  • the team organization apparatus 1 acquires the information (schedule, a result, etc.) of work contents from the work information server 2, and the biometric information / position information of the user at the time of performing work from the wearable apparatus.
  • the captured image / audio information is acquired from the camera 4.
  • the team organizing apparatus 1 can grasp in what state (for example, a psychological state such as a degree of concentration and arousal level) the user is performing business from the user's biological information, captured image, and audio information. is there. Further, the team organizing apparatus 1 can grasp who the user is working with, and who is working with the same team, from the user's position information, captured images, business schedule, and the like. Furthermore, the team organizing apparatus 1 can grasp the progress and result of the user's business from the information on the business content.
  • the team organizing apparatus 1 estimates how much performance is exhibited when the user is working with whom (or with the same team as whom).
  • performance refers to, for example, a numerical value of the psychological state for each person to work efficiently, such as concentration and arousal level, sales performance, performance of the developed product, quality of service provided, number of processing cases This shows the results of work that can be quantified.
  • Each person's performance greatly depends on the compatibility (ie, relationship) between team members. For example, when user A works in a pair with user B, and when works in a pair with user C, The performance of user A is different.
  • the team organizing apparatus 1 estimates how much performance is output when the user works with whom, and compatibility (relationship) between the users estimated based on the estimation result )) To make the best team division. That is, the team organizing apparatus 1 according to the present embodiment can perform the optimum team organization that maximizes the performance as a team according to the relationship between users.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the team organization device 1 according to the present embodiment.
  • the team organization device 1 includes a control unit 10, a communication unit 11, a sensor DB 12 (database), a user information DB 13, a compatibility DB 14, and a display unit 15.
  • the communication unit 11 has a function of connecting to an external device by wireless / wired and transmitting / receiving data.
  • the communication unit 11 according to the present embodiment is connected to, for example, the business information server 2 and receives information regarding the business content (schedule, progress, results, etc.) of each user.
  • the communication unit 11 is connected to a wearable device worn by each user, and receives biological information and position information such as heartbeat, sweating, and body temperature of the user who is working.
  • the communication unit 11 is connected to a camera 4 installed in a workplace, a conference room, a hallway, and the like, and receives a captured image obtained by capturing one or more users in a room and the like, and voice information obtained by collecting a conversation. .
  • Each received information is stored in the sensor DB 12.
  • the control unit 10 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a nonvolatile memory, and an interface unit. Control. Specifically, as shown in FIG. 2, the control unit 10 according to the present embodiment functions as a performance estimation unit 10 a, a separation / confusion recognition unit 10 b, a compatibility estimation unit 10 c, and a team information generation unit 10 d.
  • a performance estimation unit 10 a a separation / confusion recognition unit 10 b
  • a compatibility estimation unit 10 c a compatibility estimation unit 10 c
  • team information generation unit 10 d team information generation unit
  • the performance estimation unit 10a analyzes the information stored in the sensor DB 12, and estimates the performance of each user. For example, the performance estimation unit 10a performs business based on the biological information of the user in business stored in the sensor DB 12, facial expression information analyzed from captured images, voice color information analyzed from voice information, and the like. The psychological state (concentration level, arousal level, etc.) is estimated as performance. In addition, when the business results can be quantified such as sales results, the performance of the developed product, the number of processes, etc., it is also possible to use the quantified business results to estimate the user performance.
  • the performance estimation unit 10a indicates the performance of the user by a numerical value of 0 to 100, for example, based on these psychological states and work results. Moreover, the performance estimation part 10a performs performance estimation, for example for every time.
  • the user performance information estimated by the performance estimation unit 10a is stored in the user information DB 13 in association with time, biological information, business status, and the like.
  • the separation / collection recognition unit 10b analyzes the information stored in the sensor DB 12, and recognizes the separation / concentration of each user. For example, the separation / condensation recognition unit 10b analyzes the location information of the user in business stored in the sensor DB 12 and the state of the room in business analyzed from the captured image, and each user is associated with each time. Analyzing whether they are together, linking to the performance information described above, and storing it in the user information DB 13. In addition, the separation / collection recognition unit 10b may analyze the work schedule stored in the sensor DB 12 to analyze with whom each user is working.
  • FIG. 3 an example of the user performance information stored in the user information DB 13 is shown in FIG.
  • performance information for each time of user A is linked to biometric information, facial expression information, voice color information, business situation information, and people who are together (people who are working together).
  • “Business status information” is information indicating the type of business content ascertained from information acquired from the business information server 2. For example, when the user A is involved in a plurality of tasks, it can be determined by analyzing a user's task schedule or the like which project (task type) the participating conference (task) relates to. Further, the business type may be a business type divided by time zones such as morning work, afternoon work, and the like. As shown in FIG.
  • the performance of the user A is “80” when the business X is performed with the user B and the user C at 13:00 on November 20, 2014, based on biological information and facial expressions at each time. It is estimated that “100” when the business Y is performed alone at 14:00 on the same day, and “50” when business X is performed with the user D at 15:00 on the same day.
  • the compatibility estimation unit 10c analyzes the cause of the influence on the performance of each user, and estimates the compatibility (relationship) with other users in the performance of each user.
  • the compatibility with other users in the user's performance is, for example, ease of work in performing business.
  • the compatibility of each user with other users can be calculated using the performance information of each user stored in the user information DB 13.
  • the compatibility estimation unit 10c creates teacher data for calculating the compatibility between the user and other users from the user performance information stored in the user information DB 13.
  • teacher data as shown in FIG. 4 is created from the performance information of user A shown in FIG.
  • business factors such as business X, business Y, and business Z and other user factors such as user B, user C, and user D are given as factors (v j ) of performance (P i ) at each time.
  • the compatibility estimation unit 10c inputs the created teacher data to an analysis algorithm such as regression analysis.
  • an analysis algorithm such as regression analysis.
  • a formula for calculating performance (P i ) using regression analysis is shown in Formula 1 of FIG.
  • the performance P i of the user i is obtained by adding the weight w ij for each factor v j .
  • the weight w ij is the contribution rate of the other person to the performance P i of the user i, and the larger this value, the more the user j is compatible with the user i (from the user i to the other It is considered that the compatibility in one direction with respect to the user j is good.
  • the formula 1 in FIG. 5 when inputting the training data shown in FIG. 4, as shown in equation 2 of FIG. 5, the performance P A of user A, the weight of the business X w AX v X, business Y of the weight w It can be seen that AY v Y , work Z weight w AZ v Z , user B weight w AB v B , user C weight w AC v C , and user D weight w AD v D are added. As described above, the weight w ij is the contribution rate of the other person to the performance P i of the user i.
  • the compatibility estimating unit 10c is a calculation formula of the regression analysis to calculate the performance P A of the user A as shown in equation 2 of FIG. 5, created respectively for each teacher data shown in FIG. 4, the user B
  • the weight w AB , the weight w AC of the user C, and the weight w AD of the user D are calculated, and the business compatibility of the user A with respect to the user B, the user C, and the user D is calculated (estimated).
  • the compatibility estimation unit 10c calculates (estimates) the compatibility in one direction with respect to other users of each user.
  • the compatibility estimation unit 10c estimates the bidirectional compatibility between the users based on the estimated one-way compatibility of each user, and stores information on the estimated bidirectional compatibility between the users in the compatibility DB 14. To do. For example, as shown in Equation 3 in FIG. 6, the compatibility estimation unit 10 c calculates the bidirectional compatibility T ij by adding the unidirectional compatibility (w ij , w ji ) to both parties.
  • FIG. 7 is a diagram illustrating an example of unidirectional compatibility between users obtained by regression analysis.
  • a unidirectional compatibility “10” with respect to the user B of the user A is obtained as the weight of the factor B in the influence on the performance of the user A
  • a unidirectional compatibility with the user C is obtained as the weight of the factor C. It is assumed that “50” is obtained.
  • a unidirectional compatibility “20” with respect to the user A of the user B is obtained as the weight of the factor A in the influence on the performance of the user B
  • a unidirectional compatibility “30” with respect to the user C is obtained as the weight of the factor C.
  • a unidirectional compatibility “40” with respect to the user A of the user C is obtained as the weight of the factor A in the influence on the performance of the user C
  • a unidirectional compatibility “0” with respect to the user B is obtained as the weight of the factor B.
  • the team information generation unit 10d forms a team for performing a certain task, and generates information on the formed team. Specifically, the team information generation unit 10d uses the information about the bidirectional compatibility between users stored in the compatibility DB 14, and uses the specified conditions (the number of teams to be organized, the number of teams, or the users included in the team). ) Create an optimal team that satisfies the attributes.
  • the sensor DB 12 stores data received from the external device by the communication unit 11. Specifically, the sensor DB 12 stores biometric information and position information detected by a wearable device worn by each user, a captured image captured by the camera 4, and collected sound information. The sensor DB 12 also stores information regarding the business content received from the business information server 2.
  • the user information DB 13 stores information about users. Specifically, the performance information of each user estimated by the performance estimation unit 10a is stored in the user information DB 13. The user information DB 13 also stores user attribute information (for example, job type, specialty, skill, etc.).
  • the compatibility DB 14 stores information on compatibility between users. Specifically, as described above, information on one-way compatibility between users estimated by the compatibility estimation unit 10c and information on bidirectional compatibility are stored.
  • the display unit 15 has a function of displaying a menu screen, an operation screen, and the like.
  • the display unit 15 is realized by a liquid crystal display. Specifically, the display unit 15 displays a team organization screen based on information regarding the organized team generated by the team information generation unit 10d.
  • the structure of the team organization apparatus 1 shown in FIG. 2 is an example, Comprising: This embodiment is not limited to this.
  • the user information DB 13 and the compatibility DB 14 may be stored in an external memory on the network.
  • the team organization device 1 may not have the display unit 15.
  • the team organization device 1 is a server on the network, and performs team organization in response to a request from a user terminal (information processing device), and the team information generation unit 10d is controlled by the control unit 10 of the team organization device 1. It controls so that the information regarding the team produced
  • FIG. 9 is a flowchart showing team organization processing of the information processing system according to the present embodiment.
  • step S103 the team information generating unit 10d of the team organizing apparatus 1 inputs team conditions (number of teams, number of teams, member attributes, etc.). Specifically, the team information generation unit 10 d acquires the team condition input by the administrator from the team condition input screen displayed on the display unit 15.
  • step S106 the team information generation unit 10d organizes a team that satisfies the team condition. For example, as shown in the upper part of FIG. 10, when “skill: programming in C language”, “number of teams: 1”, and “number of teams: 2” are input as the team conditions, As shown in the middle part of FIG. 10, the three teams “Team 1: User A, User B”, “Team 2: User B, User C”, and “Team 3: User C, User A” are shown as the team that satisfies the conditions. Organize.
  • the team information generation unit 10d selects a team with high team performance based on the compatibility of each user. Specifically, the team information generation unit 10d selects the team with the highest compatibility as the team with the highest performance based on the bidirectional compatibility between the users stored in the compatibility DB 14. For example, as shown in Equation 4 in FIG. 8, the bidirectional compatibility between the user A and the user B is “30”, and the bidirectional compatibility between the user B and the user C is “30”. The compatibility of the direction is “90”, and the compatibility of user C and user A is the highest. Therefore, the team information generation unit 10d selects “Team 3: User C, User A” as the team with the highest performance, as shown in the lower part of FIG.
  • the team organization apparatus 1 outputs the information regarding the selected team.
  • the team organizing apparatus 1 displays on the display unit 15 a team organizing screen that shows information about members included in the selected team (name, department, employee number, detailed information, etc.).
  • FIG. 11 is a diagram for explaining a modification example of team selection in the team organization process of the present embodiment.
  • the scale is larger than the team selection described above with reference to FIG. 10 will be described.
  • 26 people are assigned to five teams so that they are as compatible as possible.
  • the necessary skills and the number of persons are input to each of the five teams as the conditions for team formation of this modification (S103 above).
  • team 1 requires one marketing person, one designer, and three programmers. Further, it is possible to include detailed attributes of personnel in the conditions. For example, one designer of team 1 is given a condition that experience in 3D modeling is required.
  • one team 2 programmer is required to have server program experience, and two team 3 designers are required to have UI (User Interface) design experience.
  • UI User Interface
  • the team information generation unit 10d refers to the input team condition and the user (personnel) information stored in the user information DB 13 to determine the condition. Create a team that meets your needs.
  • the team information generating unit 10d performs team formation for all patterns that satisfy the conditions.
  • the team information generation unit 10 d may organize a pattern including vacancies (see the pattern 500) as shown in the pattern 500.
  • the team information generation unit 10d selects several patterns of team formations with high total performance of each team. Specifically, the team information generation unit 10d selects a team with high performance based on the bidirectional compatibility between team members, regarding the total compatibility of each team as the total performance of each team. . At this time, since the total team performance is selected with priority, a team including a vacancy such as the pattern 500 shown in the lower part of FIG. In some cases.
  • FIG. 13 is a diagram showing an example of the team organization screen according to the present embodiment. In the team organization screen 35 shown in FIG. 13, information on the team organization with high performance selected by the team information generation unit 10d is displayed.
  • the administrator can understand how the teams can be combined to maximize the performance as a whole.
  • the displayed team formation pattern includes vacancies and personnel with insufficient skills.
  • the administrator can add one designer who has experience of three-dimensional modeling to the team 1.
  • the manager adopts the team organization of the pattern 124 the administrator I knows that the user I of the programmer of the team 1 needs to study the server program.
  • the relationship between users according to the present embodiment is a compatibility such as ease of work, and the compatibility between users can be statistically calculated using the performance of each user based on sensing data.
  • Each user's performance includes, for example, numerical values that objectively indicate the concentration, arousal level, and emotions (pleasant and uncomfortable) when working, business results such as sales performance, performance of developed products, and quality of services provided. The numerical value shown corresponds.
  • a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the team organization apparatus 1 described above to exhibit the functions of the team organization apparatus 1.
  • a computer-readable storage medium storing the computer program is also provided.
  • the compatibility estimation unit 10c may use machine learning such as a support vector machine, a neural network, or deep learning as a method for estimating the compatibility between users.
  • team formation according to the present embodiment is not limited to team formation for business in a company or the like, for example, sports team formation, class formation in school or cram school, experiment / excursion classroom group formation in school or cram school, etc. It is also possible to apply to.
  • this technique can also take the following structures.
  • An information processing apparatus comprising: (2) The information processing apparatus according to (1), wherein the estimation unit estimates a relationship with another user in a user performance. (3) The information processing apparatus according to (2), wherein the generation unit selects a team member with high performance based on the relationship between the users and generates information regarding the team member. (4) The information processing apparatus according to (2) or (3), further including an estimation unit that estimates the performance of the user. (5) The information processing apparatus according to (4), wherein the estimation unit estimates the performance of the user based on the biological information of the user.
  • the information processing apparatus according to (4) or (5), wherein the estimation unit estimates the performance of the user based on the captured image or audio information of the user.
  • the information processing apparatus according to any one of (4) to (6), wherein the estimation unit estimates the performance of the user based on the result information of the user.
  • the said estimation part statistically estimates the relationship between users based on the performance history of each user extracted from the memory
  • the information processing apparatus selects team members according to predetermined team formation conditions.
  • the information processing apparatus according to (10), wherein the team formation condition includes at least the number of teams, the number of teams, and attributes of members included in the team.
  • the information processing apparatus according to any one of (1) to (11), wherein the information on the team member generated by the generation unit includes information on a vacancy or a member's insufficient skill.
  • the information processing apparatus includes: The information processing apparatus according to any one of (1) to (12), further including a display control unit that controls to display a display screen including information on the team member generated by the generation unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザ間の関係性に応じて最適なチーム分けを行うことが可能な情報処理装置、制御方法、およびプログラムを提供する。 【解決手段】ユーザ間の関係性を推測する推測部と、前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成する生成部と、を備える、情報処理装置。

Description

情報処理装置、制御方法、およびプログラム
 本開示は、情報処理装置、制御方法、およびプログラムに関する。
 従来、チームやペア等、複数人で何らかの業務を行う場合、管理者やリーダーによってチーム分けが行われていたが、各人のスキルや属性をそれぞれ把握してベストなチーム分けを考えることは手間がかかり、また、人数が増えるとチーム分けに時間がかかってしまっていた。
 チーム分け技術に関し、例えば下記特許文献1では、ビデオゲーム機で提供される対戦型ゲームのチーム分けにおいて、コントローラを操作する操作者の生体情報を分析し、分析結果に応じて操作者(遊戯者)が所属するチームを判定する対戦型ゲームにおけるチーム分け方法が提案されている。
特開2004-329515号公報
 このように各人のスキルや属性、上記特許文献1に記載の生体情報の分析によって把握される性格のタイプ(熱血型、冷静型)等といったメンバーそれぞれの特徴に応じてチーム分けを行ったとしても、実際にチームで各人の能力をどの程度発揮できるかは、チームメンバー間の相性(すなわち、ユーザ間の関係性)に大きく依存する。
 しかしながら、組織の中では各人から管理者やリーダーに他の作業員との相性は申告し難く、また、管理者やリーダーが個人間の相性の詳細を知ることに抵抗がある場合もある。
 そこで、本開示では、ユーザ間の関係性に応じて最適なチーム分けを行うことが可能な情報処理装置、制御方法、およびプログラムを提案する。
 本開示によれば、ユーザ間の関係性を推測する推測部と、前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成する生成部と、を備える、情報処理装置を提案する。
 本開示によれば、ユーザ間の関係性を推測することと、前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成することと、を含む、制御方法を提案する。
 本開示によれば、コンピュータを、ユーザ間の関係性を推測する推測部と、前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成する生成部と、として実行させるためのプログラムを提案する。
 以上説明したように本開示によれば、ユーザ間の関係性に応じて最適なチーム分けを行うことが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要を示す図である。 本実施形態によるチーム編成装置の構成の一例を示すブロック図である。 本実施形態によるユーザ情報DBに格納されるユーザのパフォーマンス情報の一例を示す図である。 図3に示すユーザのパフォーマンス情報から作成される教師データの一例を示す図である。 本実施形態による相性推測部が回帰分析を行った時のパフォーマンスの算出式を示す図である。 本実施形態による双方向の相性の算出式を示す図である。 本実施形態による各ユーザの単方向の相性の一例を示す図である。 図7に示す単方向の相性を用いたユーザ間の双方向の相性の具体的な算出式を示す図である。 本実施形態による情報処理システムのチーム編成処理を示すフローチャートである。 本実施形態のチーム編成処理におけるチーム選定の一例を示す図である。 本実施形態によるチーム編成処理におけるチーム選定の変形例を説明する図である。 本実施形態によるチーム条件入力画面の一例を示す図である。 本実施形態によるチーム編成画面の一例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.基本構成
 3.動作処理
 4.まとめ
  <1.本開示の一実施形態による情報処理システムの概要>
 まず、本開示の一実施形態による情報処理システムの概要を図1に示して説明する。図1に示すように、本実施形態による情報処理システムでは、各人が行っている業務のスケジュールや進捗状況、ユーザがアクセスした業務書類の種類や内容の履歴、成果情報等が、ネットワーク上の業務情報サーバ2に格納される。また、ユーザがスマートアイグラスを装着している場合、ユーザの視界にある(ユーザが読んでいると推定される)業務書類の種類や内容の履歴も業務情報サーバ2に格納され得る。また、各人が装着するスマートバンド3やスマートウォッチ、スマートアイグラス等のウェアラブル装置により、業務中に生体情報(心拍、発汗量、体温、脳波等)や位置情報が継続的に取得される。また、各人が業務を行っている様子が、部屋に設置されたカメラ4により撮像される。当該カメラ4は、各人の会話を収音するマイクロホンも備える。カメラ4は、職場や会議室等の部屋の他、廊下にも設置され得る。
 このように、本実施形態による情報処理システムでは、業務中の各人の生体情報、位置情報、会話、様子(顔の表情や、誰と一緒に作業を行っているか等)、および業務の内容(スケジュール、進捗、成果)が、様々な方法により継続的に取得され得る。なお、図1を参照して説明したこれらの情報の取得方法は一例であって、本実施形態では特に限定しない。
 そして、本実施形態によるチーム編成装置1は、業務情報サーバ2から業務内容の情報(スケジュール、成果等)を取得し、ウェアラブル装置からは業務を行っている際のユーザの生体情報・位置情報を取得し、カメラ4からは撮像画像・音声情報を取得する。チーム編成装置1は、ユーザの生体情報、撮像画像、および音声情報から、ユーザがどのような状態(例えば集中度、覚醒度等の心理状態)で業務を行っているかを把握することが可能である。また、チーム編成装置1は、ユーザの位置情報、撮像画像、業務スケジュール等から、ユーザが誰と一緒に、また、誰と同じチームで業務を行っているかを把握することが可能である。さらに、チーム編成装置1は、業務内容の情報から、ユーザの業務の進み具合や成果を把握することが可能である。
 これらの情報に基づいて、チーム編成装置1は、ユーザが誰と一緒に(若しくは誰と同じチームで)業務を行っている際に、どの程度のパフォーマンスを発揮しているかを推定する。ここで、パフォーマンスとは、例えば集中度、覚醒度といった、各人が業務を効率よく行うための心理状態を数値化したものや、営業成績、開発製品の性能、提供サービスの品質、処理案件数といった、数値化可能な業務の成果を示す。各人のパフォーマンスは、チームメンバー間の相性(すなわち、関係性)に大きく依存し、例えばユーザAがユーザBとペアを組んで作業した場合と、ユーザCとペアを組んで作業した場合とで、ユーザAのパフォーマンスは異なる。
 本実施形態によるチーム編成装置1は、ユーザが誰と組んで作業を行った場合にどの程度のパフォーマンスが出力されるかを推定し、かかる推定結果に基づいて推測されるユーザ間の相性(関係性)を用いて最適なチーム分けを行う。すなわち、本実施形態によるチーム編成装置1は、ユーザ間の関係性に応じて、チームとしてのパフォーマンスが最大化する最適なチーム編成を行うことが可能となる。
 以上、本実施形態による情報処理システムの概要について説明した。続いて、本開示の一実施形態による情報処理システムに含まれるチーム編成装置1(情報処理装置)の構成について図2を参照して説明する。
  <2.基本構成>
 図2は、本実施形態によるチーム編成装置1の構成の一例を示すブロック図である。図2に示すように、チーム編成装置1は、制御部10、通信部11、センサDB12(データベース)、ユーザ情報DB13、相性DB14、および表示部15を有する。
 (通信部11)
 通信部11は、無線/有線により外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部11は、例えば業務情報サーバ2と接続し、各ユーザの業務内容(スケジュール、進捗、成果等)に関する情報を受信する。また、通信部11は、各ユーザが装着するウェアラブル装置と接続し、業務中のユーザの心拍、発汗、体温といった生体情報および位置情報を受信する。また、通信部11は、職場、会議室、廊下等に設置されたカメラ4と接続し、部屋等に居る1以上のユーザの様子を撮像した撮像画像および会話を収音した音声情報を受信する。これら受信した各情報は、センサDB12に格納される。
 (制御部10)
 制御部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、チーム編成装置1の各構成を制御する。具体的には、本実施形態による制御部10は、図2に示すように、パフォーマンス推定部10a、離合集散認識部10b、相性推測部10c、およびチーム情報生成部10dとして機能する。
 パフォーマンス推定部10aは、センサDB12に格納された情報を解析し、各ユーザのパフォーマンスを推定する。例えば、パフォーマンス推定部10aは、センサDB12に格納されている業務中のユーザの生体情報、撮像画像から解析された表情情報、音声情報から解析された声色情報等に基づいて、業務を行っている際の心理状態(集中度、覚醒度等)をパフォーマンスとして推定する。また、業務の成果が営業成績、開発製品の性能、処理数等の数値化できるものである場合、数値化された業務成果をユーザのパフォーマンスの推定に用いることも可能である。パフォーマンス推定部10aは、これら心理状態や業務成果に基づいて、ユーザのパフォーマンスを例えば0~100の数値で示す。また、パフォーマンス推定部10aは、パフォーマンスの推定を例えば時刻毎に行う。パフォーマンス推定部10aにより推定されたユーザのパフォーマンス情報は、時刻や生体情報、業務状況等と紐付けて、ユーザ情報DB13に格納される。
 離合集散認識部10bは、センサDB12に格納された情報を解析し、各ユーザの離合集散を認識する。例えば、離合集散認識部10bは、センサDB12に格納されている業務中のユーザの位置情報、および撮像画像から解析された業務中の部屋の様子を分析して、各ユーザが時刻毎に誰と一緒にいるのかを解析し、上述したパフォーマンス情報に紐付けてユーザ情報DB13に格納する。なお離合集散認識部10bは、センサDB12に格納されている業務スケジュールを分析して、各ユーザが誰と一緒に業務を行っているかを解析してもよい。
 ここで、ユーザ情報DB13に格納されるユーザのパフォーマンス情報の一例を図3に示す。図3に示すように、例えばユーザAの時刻毎のパフォーマンス情報が、生体情報、表情情報、声色情報、業務状況情報、および一緒にいる人(一緒に業務を行っている人)と紐付けて格納されている。「業務状況情報」は、業務情報サーバ2から取得される情報から把握される業務内容の種別を示す情報である。例えば、ユーザAが複数の業務に関与している場合、参加している会議(業務)がどのプロジェクト(業務種別)に関するものであるかは、ユーザの業務スケジュール等を解析して把握される。また、業務種別は、午前中の仕事、午後の仕事等の時間帯で区切った業務種別であってもよい。図3に示すように、ユーザAのパフォーマンスは、時刻毎の生体情報や表情等に基づき、2014年11月20日の13時にユーザBおよびユーザCと共に業務Xを行っている際は「80」、同日14時に一人で業務Yを行っている際は「100」、同日15時にユーザDと共に業務Xを行っている際は「50」と推定される。
 相性推測部10cは、各ユーザのパフォーマンスに与えている影響の原因を解析し、各ユーザのパフォーマンスにおける他ユーザとの相性(関係性)を推測する。ユーザのパフォーマンスにおける他ユーザとの相性とは、例えば業務を行う上での仕事のし易さである。各ユーザの他ユーザとの相性は、ユーザ情報DB13に格納された各ユーザのパフォーマンス情報を用いて算出され得る。
 具体的には、まず、相性推測部10cは、ユーザ情報DB13に格納されたユーザのパフォーマンス情報から、当該ユーザと他ユーザとの相性を算出するための教師データを作成する。例えば図3に示すユーザAのパフォーマンス情報からは、図4に示すような教師データが作成される。図4に示すように、時刻毎にパフォーマンス(Pi)の要因(vj)として業務X、業務Y、業務Zといった業務要因と、ユーザB、ユーザC、ユーザDといった他ユーザ要因が挙げられる。次いで、相性推測部10cは、作成した教師データを回帰分析等の解析アルゴリズムに入力する。ここで、一例として回帰分析を用いたパフォーマンス(Pi)の算出式を図5の式1に示す。式1に示すように、ユーザiのパフォーマンスPiは、要因vj毎のウェイトwijを加算したものである。このような回帰分析を用いた場合、ウェイトwijは、ユーザiのパフォーマンスPiに対する他人の寄与率となり、この数値が大きい程、ユーザiにとって他のユーザjは相性が(ユーザiから他のユーザjに対する一方向の相性が)よいと考えられる。
 以下、具体例を挙げて説明する。例えば図5の式1に、図4に示す教師データを入力すると、図5の式2に示すように、ユーザAのパフォーマンスPAが、業務XのウェイトwAXvX、業務YのウェイトwAYvY、業務ZのウェイトwAZvZ、ユーザBのウェイトwABvB、ユーザCのウェイトwACvC、およびユーザDのウェイトwADvDを加算したものであることが分かる。上述したように、ウェイトwijは、ユーザiのパフォーマンスPiに対する他人の寄与率であるため、ウェイトwABが高い程ユーザBとの業務相性が良く、ウェイトwACが高い程ユーザCとの業務相性が良く、また、ウェイトwADが高い程ユーザDとの業務相性が良いと言える。
 そして、相性推測部10cは、図5の式2に示すようなユーザAのパフォーマンスPAを算出するための回帰分析の算出式を、図4に示す教師データ毎にそれぞれ作成し、ユーザBのウェイトwAB、ユーザCのウェイトwAC、およびユーザDのウェイトwADを算出し、ユーザAのユーザB、ユーザC、およびユーザDに対する各業務相性をそれぞれ算出(推測)する。また、相性推測部10cは、同様に各ユーザの他ユーザに対する一方向の相性をそれぞれ算出(推測)する。
 続いて、相性推測部10cは、上記推測した各ユーザの一方向の相性に基づいて、ユーザ間の双方向の相性を推測し、推測したユーザ間の双方向の相性に関する情報を相性DB14に格納する。相性推測部10cは、例えば図6の式3に示すように、双方向の相性Tijを、双方の相手に対する単方向の相性(wij、wji)を加算して求める。
 以下、具体例を挙げて説明する。図7は、回帰分析によって得られた各ユーザ間の単方向の相性の一例を示す図である。図7に示すように、例えばユーザAのパフォーマンスへの影響における要因BのウェイトとしてユーザAのユーザBに対する一方向の相性「10」が得られ、要因CのウェイトとしてユーザCに対する一方向の相性「50」が得られたとする。また、ユーザBのパフォーマンスへの影響における要因AのウェイトとしてユーザBのユーザAに対する一方向の相性「20」が得られ、要因CのウェイトとしてユーザCに対する一方向の相性「30」が得られたとする。また、ユーザCのパフォーマンスへの影響における要因AのウェイトとしてユーザCのユーザAに対する一方向の相性「40」が得られ、要因BのウェイトとしてユーザBに対する一方向の相性「0」が得られたとする。この場合、相性推測部10cは、図8の式4の一段目に示すように、ユーザAとユーザBの双方向の相性TABを、ユーザAに対する要因BのウェイトwABとユーザBに対する要因AのウェイトwBAとを加算して算出する(TAB=10+20=30)。また、相性推測部10cは、図8の式4の二段目に示すように、ユーザBとユーザCの双方向の相性TBCを、ユーザBに対する要因CのウェイトwBCとユーザCに対する要因BのウェイトwCBとを加算して算出する(TBC=30+0=30)。また、相性推測部10cは、図8の式4の三段目に示すように、ユーザCとユーザAの双方向の相性TCAを、ユーザCに対する要因AのウェイトwCAとユーザAに対する要因CのウェイトwACとを加算して算出する(TAC=40+50=90)。これにより、ユーザA、ユーザB、ユーザCのペアのうち、ユーザAとユーザCの組み合わせが最も相性が良い(仕事がし易い)ことが分かる。
 以上、本実施形態による相性推測部10cによるユーザ間の相性の推測について具体的に説明した。
 チーム情報生成部10dは、ある業務を遂行するためのチーム編成を行い、編成したチームに関する情報を生成する。具体的には、チーム情報生成部10dは、相性DB14に格納されたユーザ間の双方向の相性に関する情報を用いて、指定された条件(編成するチーム数、チーム人数、またはチームに含むユーザの属性等)を満たす最適なチーム編成を行う。
 (センサDB12)
 センサDB12は、通信部11により外部装置から受信したデータを格納する。具体的には、センサDB12には、各ユーザが装着するウェアラブル装置により検知された生体情報および位置情報や、カメラ4により撮像された撮像画像および収音された音声情報が格納される。また、センサDB12には、業務情報サーバ2から受信した業務内容に関する情報も格納される。
 (ユーザ情報DB13)
 ユーザ情報DB13は、ユーザに関する情報を格納する。具体的には、ユーザ情報DB13には、パフォーマンス推定部10aにより推定された各ユーザのパフォーマンス情報が格納される。また、ユーザ情報DB13には、ユーザの属性情報(例えば職種、専門、スキル等)も格納される。
 (相性DB14)
 相性DB14は、ユーザ間の相性に関する情報を格納する。具体的には、上述したように相性推測部10cにより推測されたユーザ間の一方向の相性や、双方向の相性に関する情報が格納される。
 (表示部15)
 表示部15は、メニュー画面、操作画面等を表示する機能を有する。また、表示部15は、液晶ディスプレイにより実現される。具体的には、表示部15は、チーム情報生成部10dにより生成された編成されたチームに関する情報に基づくチーム編成画面を表示する。
 以上、本実施形態によるチーム編成装置1の具体的な構成について説明した。なお図2に示すチーム編成装置1の構成は一例であって、本実施形態はこれに限定されない。例えば、ユーザ情報DB13および相性DB14は、ネットワーク上の外部メモリに格納されていてもよい。
 また、チーム編成装置1は、表示部15を有していなくともよい。この場合、例えばチーム編成装置1はネットワーク上のサーバであって、ユーザ端末(情報処理装置)からの要求に応じてチーム編成を行い、チーム編成装置1の制御部10により、チーム情報生成部10dで生成されたチームに関する情報をユーザ端末で表示するよう制御する。
  <3.動作処理>
 続いて、本実施形態による情報処理システムの動作処理について、図9を参照して説明する。図9は、本実施形態による情報処理システムのチーム編成処理を示すフローチャートである。
 図9に示すように、まず、ステップS103において、チーム編成装置1のチーム情報生成部10dは、チーム条件(チーム数、チーム人数、メンバー属性等)を入力する。具体的には、チーム情報生成部10dは、表示部15に表示したチーム条件入力画面から管理者により入力されたチーム条件を取得する。
 次に、ステップS106において、チーム情報生成部10dは、チーム条件を満たすチームの編成を行う。例えば、図10の上段に示すように、チーム条件として「スキル:C言語によるプログラミング」、「チーム数:1」、「チーム人数:2名」が入力された場合、チーム情報生成部10dは、条件を満たすチームとして、図10の中段に示すように、「チーム1:ユーザA、ユーザB」「チーム2:ユーザB、ユーザC」、「チーム3:ユーザC、ユーザA」の3つのチームを編成する。
 次いで、ステップS109において、チーム情報生成部10dは、各ユーザの相性に基づいて、チームのパフォーマンスが高いチームを選定する。具体的には、チーム情報生成部10dは、相性DB14に格納された各ユーザ間の双方向的な相性に基づいて、最も相性が高いチームを、パフォーマンスが高いチームとして選定する。例えば、図8の式4に示したように、ユーザAとユーザBの双方向の相性は「30」、ユーザBとユーザCの双方向の相性は「30」、ユーザCとユーザAの双方向の相性は「90」であって、ユーザCとユーザAの相性が最も高い。したがって、チーム情報生成部10dは、図10の下段に示すように、「チーム3:ユーザC、ユーザA」を、最もパフォーマンスが高いチームとして選定する。
 そして、ステップS112において、チーム編成装置1は、選定したチームに関する情報を出力する。例えば、チーム編成装置1は、選定したチームに含まれるメンバーに関する情報(氏名、所属部署、社員番号、詳細情報等)を示すチーム編成画面を表示部15に表示する。
 以上、本実施形態によるチーム編成処理について具体的に説明した。なお図10を参照して説明したチーム編成は、最もパフォーマンスの高い1チームを編成するものであったが、本実施形態はこれに限定されず、パフォーマンスの最大化を考慮して多数のチームを編成することも可能である。以下、図11~図12を参照して具体的に説明する。
 (変形例)
 図11は、本実施形態のチーム編成処理におけるチーム選定の変形例を説明する図である。図11に示す例では、図10を参照して上述したチーム選定よりも大規模な場合について説明する。具体的には、26名の人員を5つのチームに可能な限り相性が良いように振り分けを行う。
 まず、図11の上段に示すように、本変形例のチーム編成の条件として、5つのチームそれぞれに必要スキルと人数が入力される(上記S103)。例えばチーム1は、マーケティング担当1名、デザイナー1名、プログラマー3名を必要とする。また、人員の細かい属性も条件に含むことが可能である。例えばチーム1のデザイナー1名には、立体造形の経験が必要という条件が付される。また、チーム2のプログラマー1名には、サーバのプログラム経験が必要という条件が付され、チーム3のデザイナー2名には、UI(User Interface)のデザイン経験が必要という条件が付される。このようなチーム編成条件は、表示部15に表示されたチーム条件入力画面から管理者によって入力され得る。ここで、図12に、チーム条件入力画面の一例を示す。図12に示すチーム条件入力画面30は、チーム編成の候補となる人員一覧表示31と、各チームに必要なスキルと人数を入力するチーム条件入力領域32とを含む。管理者は、人員一覧へ人員の追加・削除を行うことも可能である。管理者によりチーム条件が入力され、編成ボタン33が選択されると、チーム情報生成部10dは、入力されたチーム条件およびユーザ情報DB13に格納されているユーザ(人員)情報を参照して、条件を満たすチームを編成する。
 次に、チーム情報生成部10dは、図11の中段に示すように、条件を満たす全パターンのチーム編成を行う。図11の中段に示す例では、例えば条件を満たす5つのチームが500パターン編成される。また、この際、チーム情報生成部10dは、パターン500に示すように、欠員を含むパターン(パターン500参照)を編成してもよい。
 次いで、チーム情報生成部10dは、図11の下段に示すように、各チームの合計パフォーマンスが高いチーム編成を数パターン選定する。具体的には、チーム情報生成部10dは、チームメンバー間の双方向の相性に基づいて、各チームの相性の合計を、各チームのパフォーマンスの合計とみなして、パフォーマンスが高いチーム編成を選定する。この際、チームパフォーマンスの合計を優先して選定しているため、図11の下段に示すパターン500のような欠員を含むチームや、パターン124のようにスキルが一部足りないチームが選定される場合もある。図13は、本実施形態によるチーム編成画面の一例を示す図である。図13に示すチーム編成画面35では、チーム情報生成部10dにより選定されたパフォーマンスの高いチーム編成に関する情報が表示される。これにより、管理者は、どのような組み合わせで各チームを編成すれば全体でパフォーマンスの最大化が図れるかが分かる。また、表示されたチーム編成パターンには、欠員やスキルが不足している人員も含まれる。この場合、管理者は、パターン500のチーム編成を採用する場合、立体造形の経験があるデザイナー1名をチーム1に追加すればよいことが分かる。また、管理者は、パターン124のチーム編成を採用する場合、チーム1のプログラマーのユーザIはサーバのプログラムに関する勉強が必要であることが分かる。
  <4.まとめ>
 上述したように、本開示の実施形態による情報処理システムでは、ユーザ間の関係性に応じて最適なチーム分けを行うことを可能とする。多くの組織において、各人が他者との相性を自己申告することは人間関係への影響の大きさからはばかられるが、本実施形態によれば、組織管理者が個人間の相性の詳細を知ることなく、パフォーマンスを最大化するチーム編成を行うことが可能となる。
 また、本実施形態によるユーザ間の関係性とは、例えば仕事のし易さといった相性であって、ユーザ間の相性は、センシングデータに基づく各ユーザのパフォーマンスを用いて統計的に算出され得る。各ユーザのパフォーマンスとは、例えば仕事を行う上での集中力、覚醒度、感情(快、不快)を客観的に示す数値や、営業成績、開発製品の性能、提供サービスの品質といった業務成果を示す数値が相当する。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述したチーム編成装置1に内蔵されるCPU、ROM、およびRAM等のハードウェアに、チーム編成装置1の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、上述した実施形態による相性推測部10cは、ユーザ間の相性を推測する手法として、サポートベクターマシン、ニューラルネットワーク、またはディープラーニングといった機械学習を用いてもよい。
 また、本実施形態によるチーム編成は、会社等における業務を行うチーム編成に限定されず、例えばスポーツのチーム編成、学校や塾等におけるクラス編成、学校や塾等における実験/課外教室の班編成等にも適用することが可能である。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザ間の関係性を推測する推測部と、
 前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成する生成部と、
を備える、情報処理装置。
(2)
 前記推測部は、ユーザのパフォーマンスにおける他ユーザとの関係性を推測する、前記(1)に記載の情報処理装置。
(3)
 前記生成部は、前記ユーザ間の関係性に基づいて、パフォーマンスが高いチームメンバーを選出し、当該チームメンバーに関する情報を生成する、前記(2)に記載の情報処理装置。
(4)
 前記情報処理装置は、前記ユーザのパフォーマンスを推定する推定部をさらに備える、前記(2)または(3)に記載の情報処理装置。
(5)
 前記推定部は、前記ユーザの生体情報に基づいて前記ユーザのパフォーマンスを推定する、前記(4)に記載の情報処理装置。
(6)
 前記推定部は、前記ユーザの撮像画像または音声情報に基づいて前記ユーザのパフォーマンスを推定する、前記(4)または(5)に記載の情報処理装置。
(7)
 前記推定部は、前記ユーザの成果情報に基づいて前記ユーザのパフォーマンスを推定する、前記(4)~(6)のいずれか1項に記載の情報処理装置。
(8)
 前記推測部は、各ユーザのパフォーマンスを一緒に居た他ユーザに関する情報と共に蓄積する記憶部から抽出した各ユーザのパフォーマンス履歴に基づいて、統計的にユーザ間の関係性を推測する、前記(2)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記ユーザ間の関係性は、各ユーザのパフォーマンスに対する互いの影響の大きさに依存して求められる、前記(8)に記載の情報処理装置。
(10)
 前記生成部は、所定のチーム編成条件に応じたチームメンバーを選出する、前記(1)~(9)のいずれか1項に記載の情報処理装置。
(11)
 前記チーム編成条件は、チーム数、チームの人数、およびチームに含まれるメンバーの属性を少なくとも含む、前記(10)に記載の情報処理装置。
(12)
 前記生成部が生成するチームメンバーに関する情報は、欠員、またはメンバーの不足スキルに関する情報を含む、前記(1)~(11)のいずれか1項に記載の情報処理装置。
(13)
 前記情報処理装置は、
 前記生成部により生成された前記チームメンバーに関する情報を含む表示画面を表示するよう制御する表示制御部をさらに備える、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)
 ユーザ間の関係性を推測することと、
 前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成することと、
を含む、制御方法。
(15)
 コンピュータを、
 ユーザ間の関係性を推測する推測部と、
 前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成する生成部と、
として実行させるためのプログラム。
 1  チーム編成装置(情報処理装置)
 10  制御部
 10a  パフォーマンス推定部
 10b  離合集散認識部
 10c  相性推測部
 10d  チーム情報生成部
 11  通信部
 12  センサDB
 13  ユーザ情報DB
 14  相性DB
 15  表示部
 2  業務情報サーバ
 3  スマートバンド
 4  カメラ

Claims (15)

  1.  ユーザ間の関係性を推測する推測部と、
     前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成する生成部と、
    を備える、情報処理装置。
  2.  前記推測部は、ユーザのパフォーマンスにおける他ユーザとの関係性を推測する、請求項1に記載の情報処理装置。
  3.  前記生成部は、前記ユーザ間の関係性に基づいて、パフォーマンスが高いチームメンバーを選出し、当該チームメンバーに関する情報を生成する、請求項2に記載の情報処理装置。
  4.  前記情報処理装置は、前記ユーザのパフォーマンスを推定する推定部をさらに備える、請求項2に記載の情報処理装置。
  5.  前記推定部は、前記ユーザの生体情報に基づいて前記ユーザのパフォーマンスを推定する、請求項4に記載の情報処理装置。
  6.  前記推定部は、前記ユーザの撮像画像または音声情報に基づいて前記ユーザのパフォーマンスを推定する、請求項4に記載の情報処理装置。
  7.  前記推定部は、前記ユーザの成果情報に基づいて前記ユーザのパフォーマンスを推定する、請求項4に記載の情報処理装置。
  8.  前記推測部は、各ユーザのパフォーマンスを一緒に居た他ユーザに関する情報と共に蓄積する記憶部から抽出した各ユーザのパフォーマンス履歴に基づいて、統計的にユーザ間の関係性を推測する、請求項2に記載の情報処理装置。
  9.  前記ユーザ間の関係性は、各ユーザのパフォーマンスに対する互いの影響の大きさに依存して求められる、請求項8に記載の情報処理装置。
  10.  前記生成部は、所定のチーム編成条件に応じたチームメンバーを選出する、請求項1に記載の情報処理装置。
  11.  前記チーム編成条件は、チーム数、チームの人数、およびチームに含まれるメンバーの属性を少なくとも含む、請求項10に記載の情報処理装置。
  12.  前記生成部が生成するチームメンバーに関する情報は、欠員、またはメンバーの不足スキルに関する情報を含む、請求項1に記載の情報処理装置。
  13.  前記情報処理装置は、
     前記生成部により生成された前記チームメンバーに関する情報を含む表示画面を表示するよう制御する表示制御部をさらに備える、請求項1に記載の情報処理装置。
  14.  ユーザ間の関係性を推測することと、
     前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成することと、
    を含む、制御方法。
  15.  コンピュータを、
     ユーザ間の関係性を推測する推測部と、
     前記推測したユーザ間の関係性に基づいて少なくとも1つのチームメンバーに関する情報を生成する生成部と、
    として実行させるためのプログラム。
PCT/JP2015/082176 2015-02-19 2015-11-17 情報処理装置、制御方法、およびプログラム WO2016132612A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-030822 2015-02-19
JP2015030822A JP2016152020A (ja) 2015-02-19 2015-02-19 情報処理装置、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2016132612A1 true WO2016132612A1 (ja) 2016-08-25

Family

ID=56692050

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/082176 WO2016132612A1 (ja) 2015-02-19 2015-11-17 情報処理装置、制御方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP2016152020A (ja)
WO (1) WO2016132612A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6973746B2 (ja) * 2017-09-29 2021-12-01 富士通株式会社 マッチングプログラム、マッチング方法およびマッチング装置
JP6943744B2 (ja) * 2017-12-13 2021-10-06 Kddi株式会社 支援決定装置、方法及びプログラム
JP7404623B2 (ja) * 2018-08-31 2023-12-26 カシオ計算機株式会社 情報処理装置及びプログラム
JP7085957B2 (ja) * 2018-10-02 2022-06-17 三菱電機株式会社 作業スケジュール作成装置
JP7008053B2 (ja) * 2019-07-02 2022-01-25 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022209498A1 (ja) * 2021-03-29 2022-10-06 ソニーグループ株式会社 生体情報処理装置および生体情報処理システム
WO2023053730A1 (ja) * 2021-09-29 2023-04-06 パナソニックIpマネジメント株式会社 スケジュール管理システム、スケジュール管理方法、及びプログラム
JP2023132597A (ja) * 2022-03-11 2023-09-22 株式会社リコー 情報処理システム、組織構成支援システム、情報処理方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282965A (ja) * 2000-03-30 2001-10-12 Fuji Xerox Co Ltd チーム生成支援装置、チーム生成支援方法及び記録媒体
JP2008287690A (ja) * 2007-04-20 2008-11-27 Hitachi Ltd グループ可視化システム及びセンサネットワークシステム
JP2012063885A (ja) * 2010-09-14 2012-03-29 Canon Electronics Inc 情報分析装置、情報分析方法、情報分析システムおよびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282965A (ja) * 2000-03-30 2001-10-12 Fuji Xerox Co Ltd チーム生成支援装置、チーム生成支援方法及び記録媒体
JP2008287690A (ja) * 2007-04-20 2008-11-27 Hitachi Ltd グループ可視化システム及びセンサネットワークシステム
JP2012063885A (ja) * 2010-09-14 2012-03-29 Canon Electronics Inc 情報分析装置、情報分析方法、情報分析システムおよびプログラム

Also Published As

Publication number Publication date
JP2016152020A (ja) 2016-08-22

Similar Documents

Publication Publication Date Title
WO2016132612A1 (ja) 情報処理装置、制御方法、およびプログラム
Scheutz et al. A framework for developing and using shared mental models in human-agent teams
JP2018142258A (ja) 生産管理装置、方法およびプログラム
Hajifar et al. A forecasting framework for predicting perceived fatigue: Using time series methods to forecast ratings of perceived exertion with features from wearable sensors
JP2018142259A (ja) 作業管理装置、方法およびプログラム
US20100153597A1 (en) Generating Furtive Glance Cohorts from Video Data
JP6965525B2 (ja) 感情推定サーバ装置、感情推定方法、提示装置及び感情推定システム
US20130172693A1 (en) Diagnosing system for consciousness level measurement and method thereof
JP2016007363A (ja) 集団感情推定装置、集団感情推定方法及び集団感情推定プログラム
Li et al. A probabilistic model of social working memory for information retrieval in social interactions
Wiltshire et al. Social analytics of team interaction using dynamic complexity heat maps and network visualizations
JP7205528B2 (ja) 感情推定システム
US20190018661A1 (en) Device for use in improving a user interaction with a user interface application
WO2020261977A1 (ja) 空間提案システム、及び、空間提案方法
Thoring et al. Technology-supported design research
JP6910919B2 (ja) システム及び意思疎通を図るために行うアクションの評価方法
Ujwary-Gil Intra-organizational two-mode networks analysis of a public organization
JP6798353B2 (ja) 感情推定サーバ及び感情推定方法
CN109902904A (zh) 创新性能力分析系统及方法
Sas et al. “A Switch Went off in my Whole Body”: Lived Experiences of Fatigue and Post-Exertional Malaise in Long Covid
Dedabrishvili et al. Smartphone sensor-based fall detection using machine learning algorithms
Wiltshire et al. Examining team interaction using dynamic complexity and network visualizations
Rezaie et al. Ranking the multiple intelligences of people with epilepsy using analytical hierarchy process and data envelopment analysis
Le-Quang et al. Wemotion: A system to detect emotion using wristbands and smartphones
Sun et al. Health promotion using smart device interlocked robot partners for elderly people

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15882713

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15882713

Country of ref document: EP

Kind code of ref document: A1