WO2009145187A1 - 人間行動分析システム - Google Patents

人間行動分析システム Download PDF

Info

Publication number
WO2009145187A1
WO2009145187A1 PCT/JP2009/059601 JP2009059601W WO2009145187A1 WO 2009145187 A1 WO2009145187 A1 WO 2009145187A1 JP 2009059601 W JP2009059601 W JP 2009059601W WO 2009145187 A1 WO2009145187 A1 WO 2009145187A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
organization
analysis system
information
human behavior
Prior art date
Application number
PCT/JP2009/059601
Other languages
English (en)
French (fr)
Inventor
紀彦 森脇
和男 矢野
信夫 佐藤
聡美 辻
宏視 荒
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US12/993,551 priority Critical patent/US20110099054A1/en
Priority to JP2010514492A priority patent/JP5153871B2/ja
Publication of WO2009145187A1 publication Critical patent/WO2009145187A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management

Definitions

  • the present invention relates to a business microscope system that acquires human communication data and visualizes the state of an organization.
  • the present invention relates to a service providing method for acquiring sensor data from a sensor attached to a customer employee, analyzing organizational dynamics, and providing the result to the customer.
  • a technology called sensor net can be used as one method for detecting communication between people.
  • Sensor nets are applied to the acquisition and control of status by attaching a small computer terminal equipped with a sensor and wireless communication circuit to the environment, objects, people, etc., and extracting various information obtained from the sensor via wireless communication.
  • Technology As sensors for detecting communication between members in an organization, there are an infrared sensor for detecting a face-to-face state between members, a voice sensor for detecting speech and environment, and an acceleration sensor for detecting human movements. can give.
  • the business microscope is a system that detects the status of communication between members and the movement of members within the organization from the physical quantities obtained by these sensors, and quantifies and visualizes the organization dynamics that could not be seen before. There is a system called. In the business microscope, it is known that the communication dynamics of an organization can be visualized by face-to-face information of members in the organization.
  • the service organization collects customer organization data from the organization and feeds back the results of diagnosis and analysis of the organization status to the customer.
  • the method to do is promising.
  • personal information on the customer side is handled.
  • the service provider performs the transaction requested by the viewer using only the ID information, and associates the ID with the personal information on the viewer's terminal.
  • a method of storing and displaying personal information when a transaction result is received is known (Patent Document 1).
  • Patent Document 1 holds ID-personal information association information in each viewer's terminal, and provides a service requested by each viewer based on this association information. Therefore, when dealing with a large number of viewers, such as when publishing organization dynamics information to members as well as organization administrators, or when publishing specific team or organization information to specific members However, there is a heavy load on ID-personal information-related settings and setting changes. Therefore, it is not appropriate to use this method as it is for a service utilizing a business microscope system.
  • an object of the present invention is to understand the organization dynamics information for a large number of members on the customer side without receiving personal information such as personal names from the customer when performing an organization dynamics analysis service using a sensor. It is to provide easily and to provide these services easily.
  • Another object of the present invention is to define an effective index that matches the characteristics of white-collar work in order to increase the value of organizational dynamics analysis.
  • the terminal transmits sensor data and terminal identification information to the service gateway.
  • the server calculates the organization analysis data of the organization to which the user of each terminal belongs based on the sensor data and transmits it to the service gateway.
  • the service gateway is connected to the server via the Internet, converts the terminal identification information extracted from the organization analysis data into the user's personal information, and outputs the organization analysis data including the personal information to the connected display device.
  • the terminal transmits the face-to-face data and acceleration data with other terminals to the server.
  • the server measures the work quality of the user of the terminal based on the meeting data and the acceleration data.
  • the service provider can view the organization dynamics analysis including personal information only on the customer side without receiving personal information such as name from the customer, the provision of the organization analysis service can be realized easily. it can.
  • Example of overall configuration and components of business microscope system according to embodiment 1 Example of overall configuration and components of business microscope system according to embodiment 1
  • Example of overall configuration and components of business microscope system according to embodiment 1 Example of overall configuration and components of business microscope system according to embodiment 1
  • Configuration example of data table according to embodiment 1 Example of business microscope service according to Example 1
  • Example of allocation method of name tag type sensor node (TR) to members of organization and ID-NAME conversion table according to embodiment 1 An example of processing for converting an organization network diagram using node ID information according to the first embodiment into an organization network diagram using personal names
  • the business microscope refers to the data obtained from the sensor nodes attached to the members in the organization regarding the movement of the members and the interaction between the members.
  • the dynamics of the organization is clarified. It is a system to help improve the organization.
  • Fig. 1-a, Fig. 1-b, and Fig. 1-c are explanatory diagrams showing the overall configuration and components of a business microscope system.
  • FIG. 1A shows a sensor network server (SS) and an application server (AS) installed in a service provider (SV) of a business microscope.
  • the sensor network server (SS) and the application server (AS) are connected by the local network 1 (LNW1) inside the service provider (SV).
  • LNW1 local network 1
  • FIG. 1B shows a name tag type sensor node (TR), a base station (GW), and a service gateway (SVG) used at a customer site (CS) of a business microscope.
  • TR name tag type sensor node
  • GW base station
  • SVG service gateway
  • FIG. 1-c shows a detailed configuration of the name tag type sensor node (TR).
  • the sensor data obtained from the name tag type sensor node (TR) shown in FIGS. 1B and 1C stores sensor data via the base station (GW) and the service gateway (SVG).
  • GW base station
  • SVG service gateway
  • the name tag type sensor node (TR) shown in FIGS. 1-b and 1-c will be described.
  • the name tag type sensor node (TR) includes a plurality of infrared transmission / reception units (AB) for detecting a human face-to-face situation, a three-axis acceleration sensor (AC) for detecting a wearer's movement, and the wearer's speech and surroundings.
  • Various sensors such as a microphone (AD) for detecting sound, an illuminance sensor (LS1F, LS1B) for detecting the front and back of a name tag type sensor node, and a temperature sensor (AE) are mounted.
  • the sensor to be mounted is an example, and other sensors may be used to detect the face-to-face condition and movement of the wearer.
  • the infrared transmission / reception unit (AB) continues to periodically transmit terminal information (TRMT), which is unique identification information of the name tag type sensor node (TR), in the front direction.
  • TRMT terminal information
  • a person wearing another name tag type sensor node (TR) is positioned substantially in front (for example, front or oblique front)
  • Terminal information (TRMT) is exchanged by infrared rays. For this reason, it is possible to record who is facing who.
  • Each infrared transmission / reception unit is generally composed of a combination of an infrared light emitting diode for infrared transmission and an infrared phototransistor.
  • the infrared ID transmitter (IrID) generates terminal information (TRMT) that is its own ID and transfers it to the infrared light emitting diode of the infrared transceiver module.
  • TRMT terminal information
  • all the infrared light emitting diodes are turned on simultaneously by transmitting the same data to a plurality of infrared transmission / reception modules.
  • independent data may be output at different timings.
  • the data received by the infrared phototransistor of the infrared transmission / reception unit (AB) is logically ORed by an OR circuit (IROR). That is, if the ID is received by at least one of the infrared light receiving sections, the name tag type sensor node recognizes the ID.
  • OR circuit IROR
  • a configuration having a plurality of ID receiving circuits independently may be employed. In this case, since the transmission / reception state can be grasped with respect to each infrared transmission / reception module, it is also possible to obtain additional information, for example, in which direction the other name tag type sensor node facing each other is.
  • Sensor data (SENSD) detected by the sensor is stored in the storage unit (STRG) by the sensor data storage control unit (SDCNT).
  • the sensor data (SENSD) is processed into a transmission packet by the radio communication control unit (TRCC) and transmitted to the base station (GW) by the transmission / reception unit (TRSR).
  • TRCC radio communication control unit
  • TRSR transmission / reception unit
  • the communication timing control unit (TRTMG) that generates sensor data (SENSD) from the storage unit (STRG) and generates a wireless transmission timing.
  • the communication timing control unit (TRTMG) has a plurality of time bases (TB1, TB2) that generate a plurality of timings.
  • Data stored in the storage unit includes sensor data (SENSD) currently detected by the sensor, batch feed data (CMBD) acquired and accumulated in the past, and firmware that is an operation program for the name tag type sensor node.
  • SENSD sensor data
  • CMBD batch feed data
  • FMUD Firmware update data
  • the name tag type sensor node (TR) of the present embodiment detects that the external power source (EPOW) is connected by the external power source detection circuit (PDET), and generates an external power source detection signal (PDETS).
  • the transmission timing generated by the timing control unit (TRTMG) and the data wirelessly communicated are switched by the time base switching unit (TMGSEL) and the data switching unit (TRDSEL) by the external power supply detection signal (PDETS).
  • the illuminance sensors (LS1F, LS1B) are mounted on the front and back surfaces of the name tag type sensor node (NN), respectively.
  • the data acquired by the illuminance sensors (LS1F, LS1B) is stored in the storage unit (STRG) by the sensor data storage control unit (SDCNT), and at the same time is compared by the flip-over detection unit (FBDET).
  • the illuminance sensor (LS1F) mounted on the front surface receives external light
  • the illuminance sensor (LS1B) mounted on the back surface is connected between the name tag type sensor node body and the wearer. Since the positional relationship is sandwiched between them, no extraneous light is received.
  • the illuminance detected by the illuminance sensor (LS1F) takes a larger value than the illuminance detected by the illuminance sensor (LS1B).
  • the illuminance sensor (LS1B) receives extraneous light, and the illuminance sensor (LS1F) faces the wearer, so the illuminance detected by the illuminance sensor (LS1F) Accordingly, the illuminance detected by the illuminance sensor (LS1B) becomes larger.
  • the turnover detection unit (FBDET)
  • the name tag node is turned over and not correctly mounted. Can be detected.
  • FBDET turn over detection unit
  • a warning sound is generated from the speaker (SP) to notify the wearer.
  • Microphone acquires audio information.
  • the surrounding information such as “noisy” or “quiet” can be known from the sound information.
  • the face-to-face state that the infrared transmitter / receiver (AB) cannot detect due to the standing position of a person can be supplemented by voice information and acceleration information.
  • the voice acquired by the microphone acquires both a voice waveform and a signal obtained by integrating the voice waveform by an integration circuit (AVG).
  • the integrated signal represents the energy of the acquired speech.
  • the triaxial acceleration sensor (AC) detects the acceleration of the node, that is, the movement of the node. For this reason, from the acceleration data, it is possible to analyze the intensity of movement of the person wearing the name tag type sensor node (TR) and the behavior such as walking. Further, by comparing the acceleration values detected by a plurality of name tag type sensor nodes, it is possible to analyze the communication activity level, mutual rhythm, mutual correlation, etc. between persons wearing those name tag type sensor nodes.
  • the data acquired by the three-axis acceleration sensor (AC) is stored in the storage unit (STRG) by the sensor data storage control unit (SDCNT), and at the same time, the vertical detection is performed.
  • the direction of the name tag is detected by a circuit (UDDET). This is based on the fact that the acceleration detected by the three-axis acceleration sensor (AC) is observed as two types of dynamic acceleration changes due to the movement of the wearer and static accelerations due to the gravitational acceleration of the earth. .
  • the display device When the name tag type sensor node (TR) is worn on the chest, the display device (LCDD) displays personal information such as the wearer's affiliation and name. In other words, it behaves as a name tag.
  • the wearer holds the name tag type sensor node (TR) in his / her hand and points the display device (LCDD) toward him / her, the turn of the name tag type sensor node (TR) is reversed.
  • the content displayed on the display device (LCDD) and the function of the button are switched by the vertical detection signal (UDDETS) generated by the vertical detection circuit (UDDET).
  • information to be displayed on the display device according to the value of the up / down detection signal (UDDETS), the analysis result by the infrared activity analysis (ANA) generated by the display control (DISP), and the name tag display (DNM) ).
  • the name tag type sensor node (TR) has faced another name tag type sensor node (TR) by the infrared transceiver (AB) exchanging infrared rays between the nodes, that is, the name tag type sensor node (TR). It is detected whether or not the person wearing is facing a person wearing another name tag type sensor node (TR). For this reason, it is desirable that the name tag type sensor node (TR) is attached to the front part of the person.
  • GW close base station
  • PAN personal area network
  • the temperature sensor (AE) of the name tag type sensor node (TR) acquires the temperature of the place where the name tag type sensor node is located, and the illuminance sensor (LS1F) acquires the illuminance such as the front direction of the name tag type sensor node (TR).
  • the surrounding environment can be recorded. For example, it is possible to know that the name tag type sensor node (TR) has moved from one place to another based on temperature and illuminance.
  • buttons 1 to 3 (BTN1 to 3), a display device (LCDD), a speaker (SP) and the like are provided.
  • the storage unit (STRG) is specifically composed of a nonvolatile storage device such as a hard disk or a flash memory, and includes terminal information (TRMT) that is a unique identification number of the name tag type sensor node (TR), sensing interval, and display
  • TRMT terminal information
  • TRMA operation setting
  • TRCK clock
  • the sensor node performs an intermittent operation that repeats a start state and a stop state at regular intervals in order to save power. This is an operation of driving necessary hardware only when a task such as sensing or data transmission is executed, and causing the CPU or the like to sleep in a low power mode when there is no task to be executed.
  • the sensing interval here means an interval for sensing in the activated state.
  • the storage unit (STRG) can temporarily record data, and is used to record sensed data.
  • the communication timing control unit holds time information (GWCSD) and updates the time information (GWCSD) at regular intervals.
  • the time information periodically corrects the time according to the time information (GWCSD) transmitted from the base station (GW) in order to prevent the time information (GWCSD) from deviating from other name tag type sensor nodes (TR).
  • the sensor data storage control unit controls the sensing interval of each sensor according to the operation setting (TRMA) recorded in the storage unit (STRG), and manages the acquired data.
  • Time synchronization acquires time information from the base station (GW) and corrects the clock. Time synchronization may be executed immediately after an associate described later, or may be executed in accordance with a time synchronization command transmitted from the base station (GW).
  • the radio communication control unit performs transmission interval control and conversion to a data format compatible with radio transmission / reception when transmitting / receiving data. If necessary, the wireless communication control unit (TRCC) may have a wired communication function instead of wireless communication. The radio communication control unit (TRCC) may perform congestion control so that transmission timing does not overlap with other name tag type sensor nodes (TR).
  • Associate (TRTA) should send and receive an associate request (TRTAQ) and associate response (TRTAR) to form a personal area network (PAN) with the base station (GW) shown in FIG.
  • a base station (GW) is determined.
  • Associate (TRTA) is when the power of the name tag type sensor node (TR) is turned on, and when the name tag type sensor node (TR) is moved, transmission / reception with the base station (GW) is interrupted. To be executed.
  • the name tag type sensor node (TR) is associated with one base station (GW) in the near range where the radio signal from the name tag type sensor node (TR) reaches.
  • the transmission / reception unit includes an antenna and transmits and receives radio signals. If necessary, the transmission / reception unit (TRSR) can perform transmission / reception using a connector for wired communication.
  • Data (TRSRD) transmitted and received by the transceiver (TRSR) is transferred to and from the base station (GW) via the personal area network (PAN).
  • the base station (GW) has a function of transmitting sensor data received wirelessly from the name tag type sensor node (TR) to the service gateway (SVG).
  • a necessary number of base stations (GW) are installed in consideration of the wireless reach and the size of the area where the organization to be measured exists.
  • the base station includes a control unit (GWCO), a storage unit (GWME), a clock (GWCK), and a transmission / reception unit (GWSR).
  • GWCO control unit
  • GWME storage unit
  • GWCK clock
  • GWSR transmission / reception unit
  • the control unit includes a CPU (not shown).
  • the CPU executes a program stored in the storage unit (GWME), sensing data sensor information acquisition timing, sensing data processing, transmission / reception to the name tag type sensor node (TR) and sensor network server (SS) It manages the timing and timing of time synchronization.
  • the CPU executes a program stored in the storage unit (GWME), the wireless communication control / communication control unit (GWCC), data format conversion, associate (GWTA), time synchronization management (GWCD) And processing such as time synchronization (GWCS).
  • the wireless communication control / communication control unit controls the timing of communication with the name tag type sensor node (TR) and the service gateway (SVG) by wireless or wired. Further, the wireless communication control / communication control unit (GWCC) distinguishes the type of received data. Specifically, the wireless communication control / communication control unit (GWCC) determines whether the received data is general sensing data, data for association, time synchronization response, or the like. Identify from the part and pass the data to the appropriate function respectively.
  • the wireless communication control / communication control unit refers to the data format information (GWMF) recorded in the storage unit (GWME), converts the data into a format suitable for transmission / reception, and the type of data Data format conversion is performed to add tag information for indicating.
  • the associate (GWTA) transmits a response (TRTAR) to the associate request (TRTAQ) sent from the name tag type sensor node (TR), and assigns a local ID to each name tag type sensor node (TR).
  • TRTAR response to the associate request
  • TRTAQ associate request
  • TRTF terminal management information
  • Time synchronization management controls the interval and timing for executing time synchronization, and issues a command to synchronize time.
  • the sensor network server (SS) installed at the service provider (SV) site performs time synchronization management (GWCD), thereby supervising from the sensor network server (SS) to the base station (GW) of the entire system. You may send an order.
  • Time synchronization is connected to an NTP server (TS) on the network and acquires time information.
  • Time synchronization (GWCS) periodically updates information on the clock (GWCK) based on the acquired time information.
  • the time synchronization (GWCS) transmits a time synchronization command and time information (GWCD) to the name tag type sensor node (TR).
  • TR name tag type sensor node
  • the storage unit (GWME) is composed of a nonvolatile storage device such as a hard disk or a flash memory.
  • the storage unit (GWME) stores at least operation setting (GWMA), data format information (GWMF), terminal management table (GWTT), and base station information (GWMG).
  • the operation setting (GWMA) includes information indicating an operation method of the base station (GW).
  • the data format information (GWMF) includes information indicating a data format for communication and information necessary for tagging the sensing data.
  • the terminal management table (GWTT) is the local information distributed to manage the terminal information (TRMT) of the name tag type sensor nodes (TR) under the association with which the terminal tag is currently associated and the name tag type sensor nodes (TR). Includes ID.
  • the base station information (GWMG) includes information such as the address of the base station (GW) itself. Further, the storage unit (GWME) temporarily stores firmware (GWTF) mounted on the name tag type sensor node.
  • the storage unit (GWME) may further store a program executed by a central processing unit CPU (not shown) in the control unit (GWCO).
  • the clock In order to hold the time information, the clock (GWCK) corrects its own time information based on the time information acquired from the NTP (Network Time Protocol) server (TS) at a constant cycle.
  • NTP Network Time Protocol
  • the transmission / reception unit receives radio from the name tag type sensor node (TR) and transmits to the service gateway (SVG) through the local network 2 (LNW2).
  • the service gateway (SVG) transmits data collected from all base stations (GW) to the service provider (SV) through the Internet (NET).
  • data acquired from the base station (GW) is stored in the local data storage (LDST) under the control of the local data backup (LDBK).
  • LST local data storage
  • LLBK local data backup
  • SVGSR transmission / reception unit
  • a sensor network server (SS) installed at a service provider (SV) site manages data collected at all name tag type sensor nodes (TR) operating at the customer site (CS). Specifically, the sensor network server (SS) stores data sent via the Internet (NET) in a database, and based on requests from the application server (AS) and the client PC (CL). Send sensor data. Further, the sensor network server (SS) receives a control command from the base station (GW), and returns a result obtained from the control command to the base station (GW).
  • NET Internet
  • AS application server
  • CL client PC
  • the sensor network server (SS) includes a transmission / reception unit (SSSR), a storage unit (SSME), and a control unit (SSCO).
  • SSSR transmission / reception unit
  • SSME storage unit
  • SSCO control unit
  • GWCD time synchronization management
  • the sensor network server (SS) also requires a clock.
  • the transmission / reception unit transmits and receives data to and from the base station (GW), application server (AS), and service gateway (SVG). Specifically, the transmission / reception unit (SSSR) receives the sensing data sent from the service gateway (SVG) and transmits the sensing data to the application server (AS).
  • the storage unit (SSME) is configured by a nonvolatile storage device such as a hard disk or a flash memory, and stores at least a performance table (BB), data format information (SSMF), a data table (BA), and a terminal management table (SSTT). . Further, the storage unit (SSME) may store a program executed by a CPU (not shown) of the control unit (SSCO). Further, the storage unit (SSME) temporarily stores the updated firmware (SSTF) of the name tag type sensor node stored in the terminal firmware registration unit (TFI).
  • BB performance table
  • SSMF data format information
  • BA data table
  • SSTT terminal management table
  • the storage unit (SSME) may store a program executed by a CPU (not shown) of the control unit (SSCO). Further, the storage unit (SSME) temporarily stores the updated firmware (SSTF) of the name tag type sensor node stored in the terminal firmware registration unit (TFI).
  • the performance table (BB) is a database for recording an evaluation (performance) about an organization or an individual inputted from a name tag type sensor node (TR) or existing data together with time data.
  • SSMF data format information
  • SSCC communication control unit
  • SSMF data format conversion
  • SSDA data management
  • sensing data acquired by each name tag type sensor node (TR), information on the name tag type sensor node (TR), and sensing data transmitted from each name tag type sensor node (TR) have passed.
  • It is a database for recording information of a base station (GW) and the like.
  • a column is created for each data element such as acceleration and temperature, and the data is managed.
  • a table may be created for each data element. In either case, all data is managed in association with terminal information (TRMT), which is the ID of the acquired name tag type sensor node (TR), and information regarding the acquired time.
  • TRMT terminal information
  • the terminal management table (SSTT) is a table that records which name tag type sensor node (TR) is currently managed by which base station (GW). When a name tag type sensor node (TR) is newly added under the management of the base station (GW), the terminal management table (SSTT) is updated.
  • the control unit includes a central processing unit CPU (not shown), and controls transmission / reception of sensing data and recording / retrieving to / from a database. Specifically, the CPU executes a program stored in the storage unit (SSME), thereby executing processing such as communication control (SSCC), terminal management information correction (SSTF), and data management (SSDA).
  • SSCC communication control
  • SSTF terminal management information correction
  • SSDA data management
  • the communication control unit controls the timing of communication with the service gateway (SVG), application server (AS), and client (CL).
  • the communication control unit (SSCC) determines the data format in the sensor network server (SS) based on the data format information (SSMF) recorded in the storage unit (SSME). Convert to a format or a data format specialized for each communication partner.
  • communication control (SSCC) reads the header part which shows the kind of data, and distributes data to a corresponding process part. Specifically, received data is distributed to data management (SSDA), and a command for correcting terminal management information is distributed to terminal management information correction (SSTF).
  • the destination of the data to be transmitted is determined by the base station (GW), service gateway (SVG), application server (AS) or client (CL).
  • the terminal management information correction updates the terminal management table (SSTT) when receiving a command for correcting the terminal management information from the base station (GW).
  • Data management manages correction / acquisition and addition of data in the storage unit (SSME). For example, by data management (SSDA), sensing data is recorded in an appropriate column of a database for each data element based on tag information. Even when the sensing data is read from the database, processing such as selecting necessary data based on the time information and the terminal information and rearranging in order of time is performed.
  • the data received by the sensor network server (SS) via the service gateway (SVG) is organized and recorded in the performance table (BB) and data table (BA) by the data management (SSDA).
  • the application server (AS) shown in FIG. receives a request from the client PC (CL) in the customer site (CS) or automatically performs sensing data analysis processing at a set time. A request is sent to SS), the necessary sensing data is acquired, the acquired data is analyzed, and the analyzed data is transmitted to the client PC (CL). The analyzed data may be recorded in the analysis database as it is.
  • the application server (AS) includes a transmission / reception unit (ASSR), a storage unit (ASME), and a control unit (ASCO).
  • the transmission / reception unit transmits and receives data between the sensor network server (SS) and the service gateway (SVG). Specifically, the transmission / reception unit (ASSR) receives a command sent via the client PC (CL) service gateway (SVG), and transmits a data acquisition request to the sensor network server (SS). Further, the transmission / reception unit (ASSR) transmits the analyzed data to the client PC (CL) via the service gateway (SVG).
  • the storage unit (ASME) is composed of an external recording device such as a hard disk, memory or SD card.
  • the storage unit (ASME) stores setting conditions for analysis and analyzed data.
  • the storage unit (ASME) includes an analysis condition (ASMJ), an analysis algorithm (ASMA), an analysis parameter (ASMP), a terminal information-ID correspondence table (ASMT), an analysis result table (E), and an analyzed range.
  • ASMJ analysis condition
  • ASMA analysis algorithm
  • ASMP analysis parameter
  • ASMT terminal information-ID correspondence table
  • E analysis result table
  • E analysis result table
  • a table (ASJCA) and a general information table (ASIP) are stored.
  • ASMJ Analysis conditions temporarily store analysis conditions for display requested from the client PC (CL).
  • ASMA Analysis algorithm
  • the analysis parameter (ASMP) records, for example, parameters for feature quantity extraction.
  • the analysis parameter (ASMP) is rewritten.
  • the terminal information-ID correspondence table is a comparison table of a terminal ID and another ID and attribute information associated with the terminal.
  • the analysis result table (E) is a database for storing data analyzed by the individual / organization dynamics analysis (D).
  • the analyzed range table (ASJCA) describes the analysis range and the processing time in the individual / organization dynamics analysis (D).
  • ASIP General information table
  • the control unit includes a central processing unit CPU (not shown), and performs control of data transmission / reception and analysis of sensing data. Specifically, a CPU (not shown) executes a program stored in a storage unit (ASME), thereby executing communication control (ASCC), personal / organization dynamics analysis (D), and Web service (WEB).
  • ASME storage unit
  • ASCC communication control
  • D personal / organization dynamics analysis
  • WEB Web service
  • Communication control controls the timing of communication with the sensor network server (SS) by wire or wireless. Further, the communication control (ASCC) executes data format conversion and sorting of destinations by data type.
  • Personal / organization dynamics analysis uses sensor data to execute analysis processing described in an analysis algorithm (ASMA), and stores the analysis results in an analysis result table (E). Further, the analyzed range table (ASJCA) indicating the analyzed range is updated.
  • ASMA analysis algorithm
  • ASJCA analyzed range table
  • the Web service When the Web service (WEB) receives a request from the client PC (CL) of the customer site (CS), the analysis result stored in the analysis result table (E) is sent to the visual data generation unit (VDGN). After the data is converted into data necessary for display, it has a server function for transmitting to the client PC (CL) through the Internet (NET). Specifically, information such as display contents and drawing position information is transmitted in a format such as HTML (Hyper Text Makeup Language).
  • HTML Hyper Text Makeup Language
  • the description is given by the functions of the sensor network server and the application server, such as storage / management of collected sensor data and analysis of organizational dynamics, but one server having both functions is used. Needless to say, they can be implemented.
  • the above shows a series of flows from the sensor data obtained from the name tag type sensor node (TR) to the application server (AS) until the analysis of the organization dynamics is performed.
  • the organization dynamics analysis result requested by the client PC (CL) reaches the service gateway (SVG) through the Internet (NET).
  • the downstream processing of the service gateway (SVG) includes ID-NAME conversion (IDCV), ID-NAME conversion table (IDNM), filtering policy (FLPL), filtering setting IF (FLIF), and ID-NAME registration IF (RGIF). ) Is executed.
  • IDCV ID-NAME conversion
  • IDNM ID-NAME conversion table
  • FLPL filtering policy
  • FLIF filtering setting IF
  • RGIF ID-NAME registration IF
  • the policy is registered in advance in a filtering policy (FLPL).
  • the policy is a condition for determining a display method of the organization dynamics analysis result on the client PC. Specifically, a condition for determining whether or not to convert an ID included in the organization dynamics analysis result into a name, or a condition for determining whether or not to delete configuration information related to an unknown ID that does not exist in the organization is there.
  • An example of displaying the organization dynamics analysis result based on the policy recorded in the filtering policy will be described later with reference to FIGS. 6B to 6D.
  • the filtering policy (FLPL) and ID-NAME conversion table (IDNM) are set and registered by the administrator in the filtering setting IF (FLIF) and ID-NAME registration IF (RGIF), respectively. .
  • the organization dynamics result converted into a form in which the personal name can be expressed by ID-NAME conversion (IDCV) is displayed in a format that is easy for the user to understand through the Web browser (WEBB) of the client PC (CL).
  • IDCV ID-NAME conversion
  • WEBB Web browser
  • FIG. 2 a configuration example of a data table (BA) that stores sensor data and performance input (C) will be described with reference to FIG. 2, the sensor data and the performance are associated with the time when the sensor data was acquired and the terminal identification information of the sensor node.
  • organization dynamics information such as a relationship between members constituting the organization, for example, a connection relationship and centrality of communication.
  • analysis combining sensor data and performance becomes possible.
  • the user ID (BAA) in the data table (BA) is an identifier of the user, and specifically stores terminal identification information (TRMT) of the terminal (TR) worn by the user.
  • the acquisition time is the time when the name tag type sensor node (TR) acquires the sensor data
  • the base station is the base station that received the data from the name tag type sensor node (TR)
  • the acceleration sensor is the acceleration sensor.
  • AC sensor data
  • IR sensor BAE
  • AB infrared transceiver
  • sound sensor BAF
  • BAG temperature
  • AE temperature
  • the notice (BAH), thanks (BAI), and net (BAJ) are data obtained from the performance input (C) or the presence or absence of the button (BTN1 to 3) on the name tag type sensor node (TR).
  • the performance input (C) is a process of inputting a value indicating performance.
  • Performance is a subjective or objective evaluation that is determined based on some criteria. For example, a person wearing a name tag type sensor node (TR) at a predetermined timing has a value of subjective evaluation (performance) based on some criteria such as achievement of work, contribution to the organization and satisfaction at that time. Enter.
  • the predetermined timing may be, for example, once every several hours, once a day, or when an event such as a meeting ends.
  • a person wearing a name tag type sensor node (TR) inputs a performance value by operating the name tag type sensor node (TR) or operating a personal computer such as a client PC (CL). Can do.
  • values entered by handwriting may be collectively input later on a PC.
  • the input performance value is used for analysis processing.
  • Organizational performance may be calculated from individual performance.
  • Objective data such as sales or cost, and already digitized data such as customer questionnaire results may be input from another system as performance.
  • a numerical value is automatically obtained, such as an error occurrence rate in production management, the obtained numerical value may be automatically input as a performance value.
  • FIG. 3 The overall view of the business microscope service realized by the functional configuration shown in FIGS. 1A, 1B, 1C, and 2 is shown in FIG.
  • sensor data associated with the sensor node ID is received from the customer site, the organization analysis is performed on the service provider side, and the organization analysis data based on the ID is fed back to the customer site. It is characterized by doing.
  • Organizational analysis data is characterized in that when a customer views them, the ID and personal information (name) are converted at the service gateway installed at the customer site and presented to the customer as easy-to-understand information. To do.
  • sensor data (SDAT) transmitted from a plurality of customer sites (CA-A, CS-B, CS-C) is transmitted to a service provider (SV) via the Internet (NET). ), And this is analyzed by the organization analysis system (OAS).
  • SDAT Primarily sensor data
  • ACC acceleration data
  • IR face-to-face data
  • BA data table
  • OASV organization analysis result
  • CS customer site
  • RNET-ID organization analysis result
  • SVG service gateway
  • the service provider does not handle personal information but only ID information, and this ID information is processed on the customer site (CS) side. Needs to be converted to a personal name.
  • a network diagram as shown in the left diagram of FIG. 4 is considered.
  • An example of configuration information (NETS) necessary for displaying this analysis result is shown in the right diagram of FIG. Specifically, it is composed of coordinate information (POS) of four nodes (0 to 3), attribute information (ATT) of coordinates, and a link connection matrix (LMAT) indicating a connection relation of the four nodes.
  • POS coordinate information
  • ATT attribute information
  • LMAT link connection matrix
  • the attribute (ATT) is composed of a display name, affiliation, and node display color.
  • POS coordinate information
  • the link connection matrix is created by aggregating the data of the IR sensor (BAE) in the data table (BA). Specifically, information on which user IDs face which user IDs within a certain period is totalized for all combinations of target user IDs. As a result, when there is a face-to-face history, this is represented as “1” on the matrix representing the combination of user IDs, and when there is no face-to-face history, this is represented as “0”. “1” and “1” indicate connection relations between nodes when represented by a network diagram ("1" and "0" indicate presence or absence of connection relations between nodes, respectively).
  • the configuration information (NETS) of the network diagram into the configuration information of the character string notation, it becomes easy to extract the character string, so that the attribute (ATT) of the attribute (ATT) is set at the service gateway (SVG) of the customer site
  • SVG service gateway
  • an existing character string conversion algorithm may be used for conversion from ID information to a personal name.
  • a network diagram is used as an example of configuration information for expressing organizational dynamics. However, it is not always necessary to use a network diagram. Can be extracted into a personal name.
  • the configuration information of the network diagram has been described as being capable of easily searching and replacing a character string, but the network diagram can also be image information.
  • a character string is extracted by applying a character recognition algorithm to the image information, and the above-described character string conversion algorithm is applied to the extracted character string to convert it to image information again. It ’s fine.
  • TR name tag type sensor nodes
  • FIG. 5 a case is considered in which a name tag type sensor node is assigned to each of three members of the organization (personal names are Thomas, James, and Emily, respectively).
  • An administrator on the customer site (CS) side involved in the operation of the business microscope service (hereinafter referred to as a service administrator) has a name tag sensor node TR-A for Thomas, a name tag sensor node TR-B for James, The name tag side sensor node TR-C is assigned to Emily.
  • the node ID of the name tag side sensor node TR-A is assigned “A”
  • the node ID of the name tag side sensor node TR-B is “B”
  • the node ID of the name tag side sensor node TR-C is assigned “C”.
  • This node ID assignment is performed in the case of using a physical name tag type sensor node (TR) set in advance on the service provider (SV) side (specifically, terminal information (TRMT)).
  • TRMT terminal information
  • CS customer site
  • an ID that is unique within the organization such as an employee number in the customer's organization, can be assigned.
  • the service manager creates an ID-NAME conversion table (IDNM) based on this information.
  • IDNM is an MAC address that is an identifier that can identify all physical name tag type sensor nodes (TR) based on the assignment result of the name tag type sensor nodes (TR) to the members of the organization.
  • MCAD logical name tag type sensor node
  • NDID node ID
  • TMNM user affiliation
  • the MAC address (MCAD) is the same as or including a part of the terminal information (TRMT).
  • the organization network diagram (NET-0, NET-1) used here shows the communication state for a certain period using the in-person information between members (data of the IR sensor (BAE) of the data table (BA)).
  • node ID information (A, B, C, D, E, F, G) of seven members of two teams (Team 1 and Team 2) is assigned to individual names (Thomas, James, Emily). , Percy, Toby, Sam, Peter).
  • the service gateway (SVG) performs the process according to the process flow of FIG.
  • the ID-NAME conversion unit (IDCV) sequentially extracts IDs from the analysis results (STEP 01), and then sends the extracted IDs to the ID-NAME conversion table (IDNM) (STEP 02). Next, it is checked whether or not the extracted ID exists in the ID-NAME conversion table (IDNM) (STEP 03). When the ID exists, the corresponding personal name (for example, Thomas when the node ID is A in FIG. 5) shown in the ID-NAME conversion table (IDNM) is converted into the ID-NAME conversion unit (IDCV). ) To perform conversion processing (STEP 04).
  • the corresponding ID portion of the network diagram configuration information as shown in FIG. 4 is converted into a personal name.
  • the organization network diagram (NET-1) is displayed. If the extracted ID does not exist in the ID-NAME conversion table (IDNM) in STEP 03, the process ends without performing the conversion process.
  • IDNM ID-NAME conversion table
  • the organization network diagram (NET-0) using the node ID information can be converted into the organization network diagram (NET-1) using the personal name.
  • FIG. 6B a process for converting the organization network diagram (NET-0) using the node ID information into the organization network diagram (NET-2) using the personal name will be described with reference to FIG. 6B.
  • the node ID information (A, B, C, D, E, F, G) of the seven members of two teams (Team 1, Team 2) is assigned to each individual name (Thomas, James, Emily). , Percy, Toby, Sam, Peter), the configuration information related to an unknown node ID that does not exist in the organization is deleted.
  • the service gateway (SVG) performs the process according to the process flow shown in FIG. 6B.
  • IDNM ID-NAME conversion table
  • IDCV configuration information (coordinate information (POS), attribute (ATT), and link connection matrix (LMAT) information) corresponding to the ID information “X” is deleted (STEP 05).
  • the service gateway (SVG) performs the process according to a process flow as shown in FIG.
  • IDNM ID-NAME conversion table
  • the application server can be provided with a function for deleting configuration information and a function for determining whether or not it corresponds to a filtering target department as described above.
  • these functions are executed by the application server and the organization dynamics analysis result is transmitted to the service gateway, and the service gateway only needs to convert the ID into a name.
  • the service provider does not handle personal information by performing node ID information conversion processing, but handles only ID information. It becomes possible to prevent dangers such as information leakage.
  • the client PC (CL) viewing the result does not need to install a special program or distribute data.
  • the results can be viewed with a modern browser. Therefore, even when the number of client PCs (CL) is large, the business microscope service can be smoothly introduced and operated.
  • the second embodiment features an effective index creation method that matches the characteristics of white-collar work in order to increase the value of organizational dynamics analysis.
  • High-productivity white-collar work is characterized by both enhancing the work ability of members themselves and promoting further knowledge creation through communication between members. Therefore, as a characteristic of white-collar work centered on knowledge workers, ensuring time and environment where personal work is concentrated without being interrupted, and also actively participating in meetings and discussions. There are two viewpoints.
  • the business quality of the organization is measured by a combination of face-to-face information and acceleration information. Specifically, when one member is facing another member and the amount of movement exceeds a certain threshold, it is determined that active communication is being performed, and the amount of movement is reduced. If it is less than or equal to the threshold, it is determined that it is passively involved in communication. In non-face-to-face meetings, when the magnitude of movement is below a certain threshold, it is determined that there is no interrupt (telephone or conversation) and that you can concentrate on your work. If the value exceeds the threshold, it is determined that the user cannot concentrate.
  • FIG. 7A when the member is facing other members using acceleration data and face-to-face data, that is, in a discussion or communication, there is little movement (the measurement result by the acceleration sensor is stationary). If it is close to), it is determined that the conversation is passive, and if there is a lot of movement (as a result of measurement by the acceleration sensor, the magnitude of movement corresponding to nodding or speaking is detected) If), determine that you are actively participating in the dialogue.
  • the working hours of each member are divided into fixed time slots, and it is determined in each time slot whether or not a name tag node is attached at that time (STEP 11). Whether the sensor node is attached can be determined by the illuminance acquired by the sensor node using the illuminance sensors (LS1F, LS1B). If the name tag node is not attached, it is determined that the business was performed outside the office (STEP 12). If a name tag node is attached, face-to-face determination is performed at that time (STEP 13).
  • the personal work quality is measured by the combination of face-to-face information and acceleration information. Specifically, it is determined whether an active dialogue is being held at a meeting or discussion, or whether the person is concentrating on personal work. As a result, it is possible to promote further knowledge creation by enhancing the member's own business ability and promoting communication between members.
  • FIG. 8 shows these determination results as a time-series chart.
  • the result of member A (CHT01) is an example in which there is a lot of time to concentrate on personal work but the communication is passive.
  • the result of member B (CHT02) is an active dialogue. Although there are many cases, there is an example in which a feature such as not having enough time for personal work appears. In this way, the balance of personal work and mutual work (communication with others) can be grasped by looking at the aggressiveness of dialogue and the degree of concentration of personal work on a time axis.
  • FIG. 9A shows an example of a business balance chart (CHT03) in which the horizontal axis represents the concentration time on the horizontal axis and the vertical axis represents the activeness at the time of dialogue for the business quality of each member of the two teams.
  • CHT03 business balance chart
  • the pattern A hatching (PTNA) is given to the members where “+” is gathered, and the members where “ ⁇ ” is gathered,
  • PTNB pattern B hatching
  • the pattern A member can be determined as a pitcher type and the pattern B member can be a catcher type, so that the communication flow dynamics can be displayed more clearly. It becomes.
  • FIG. 9A shows an example of visualizing the tendency of the way of working as an organization and a team.
  • FIG. 9B shows an index definition method that ideally increases the team's work quality, both the positiveness during dialogue and the concentration time of individual work (CHT04).
  • CHT04 concentration time of individual work
  • FIG. 11 is a work chart in which icons corresponding to information on locations where work is performed (for example, own seats, laboratories, conference rooms, and meeting spaces) are mapped to the work charts of the members shown in FIG. (CHT06) is shown.
  • CHT06 work charts of the members shown in FIG.
  • This visualization result makes it possible to clarify the spatial factors that are likely to cause work concentration and active communication, making it easier for members of the organization to demonstrate their abilities, and for white-collar work. Productivity can be improved.
  • BB performance table
  • the performance data (PFM) stored in the performance table (BB) and the acceleration sensor (BAD) data stored in the data table (BA) are used.
  • An example of performance analysis is shown.
  • the process of item selection (ISEL) and rhythm extraction (REXT) is performed, respectively.
  • the item selection is to select a performance to be analyzed among a plurality of performances.
  • Rhythm extraction is to extract a feature quantity (rhythm) such as a frequency (for example, 1 to 2 Hz) within a predetermined range obtained from acceleration data.
  • STAT statistical correlation processing
  • Figure 12-b shows the calculation result as a radar chart (RDAT).
  • RDAT radar chart
  • Examples 2 and 3 an effective index creation method showing the productivity of white-collar work has been described.
  • the sensor network server (SS) and the application server (AS) configure these indices as organization dynamics information that does not include personal information, and convert it into personal information at the service gateway of the customer site. By converting, it is also possible to provide easy-to-understand organization dynamics information.

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 センサを使用した組織ダイナミクス分析サービスを行う際に、個人名等の個人情報を顧客から受け取ることなく、顧客側の多数のメンバに対して、組織ダイナミクス情報をわかりやすく提供する。このため、顧客サイトからIDと関連付けをされたセンサデータを受信して、サービス事業者側にて組織分析を行った後、IDをベースに行った組織分析データを顧客サイトにフィードバックする。組織分析データは顧客がこれらを閲覧する際に、顧客サイトに設置したサービスゲートウェイにて、予め顧客側で指定してあるIDと個人情報(個人名)との変換表に従って、IDを個人情報に変換し、わかりやすい情報として顧客に提示する。

Description

人間行動分析システム
 本発明は、人物のコミュニケーションデータを取得し、組織の状態を可視化するビジネス顕微鏡システムに関する。特に、顧客の社員に装着したセンサからセンサデータを取得し、組織ダイナミクスを分析して、その結果を顧客に提供するサービス提供の実現方式に関する。
 先進国においては、知識労働者と呼ばれるホワイトカラー業務の生産性の向上が大きな課題となっている。工場等の製造現場においては、生産現場においての生産物が明確であるために、その生産性に結びつかない無駄を排除することが容易であった。これに対して、研究開発、企画、営業、等の知識労働を行うホワイトカラー組織に関しては、生産物となる成果の定義が容易では無く、製造現場のように業務の無駄を排除することが難しい。また、プロジェクト組織に代表されるホワイトカラー業務の生産性向上には、個人の能力に加えて、複数メンバの協力関係を最大限に発揮させる仕組みが必要となる。これらホワイトカラー業務を推進するためには、メンバ間のコミュニケーションが重要である。メンバ間のコミュニケーションにより、意思疎通が加速され、信頼感が生まれ、メンバのモチベーションを高めることにより、組織としての目標達成が可能となる。
 この人と人とのコミュニケーションを検出する一つの方法に、センサネットと呼ばれる技術を活用することができる。センサネットは、センサと無線通信回路を備えた小型のコンピュータ端末を環境や物、人などに取り付け、センサから得られた様々な情報を無線経由で取り出すことで、状態の取得や制御に応用する技術である。組織内のメンバ間でのコミュニケーションを検出することを目的としたセンサとして、メンバ間の対面状態を検出するための赤外線センサ、発話や環境を検出する音声センサ、人の動作を検出する加速度センサがあげられる。
 これらセンサにより得られる物理量から、組織内でのメンバ間のコミュニケーションの状況やメンバの動きを検出して、従来は見ることの出来なかった組織のダイナミクスを定量化・可視化するシステムとして、ビジネス顕微鏡と呼ばれるシステムがある。ビジネス顕微鏡では、組織内メンバの対面情報により組織のコミュニケーションのダイナミクスを可視化することができることが知られている。
 ビジネス顕微鏡システムを活用した組織分析サービスを実現するためには、サービス事業者が対象とする顧客の組織のデータを組織から収集し、その組織の状態の診断・分析の結果を、顧客側にフィードバックする方式が有望である。そして、ビジネス顕微鏡システムを活用した組織分析サービスを実現するためには、顧客側の個人情報を扱うことになる。
 個人情報を扱うことなく、別業者がサービスを提供する方法として、サービス事業者は閲覧者が要求するトランザクションをID情報のみを用いて行い、閲覧者側の端末にてIDと個人情報の関連付けを保持しておき、トランザクション結果の受信時に個人情報を合成して表示する方法が知られている(特許文献1)。
特開2002-99511号公報
 組織のダイナミクスをわかりやすく顧客にフィードバックするためには、その組織で活動するメンバの活動状態、グループやチームの活動状態を、個人名を使用して表現することが必要となる。これは、サービス事業者が顧客から個人情報を受け取る必要があることを意味しており、昨今問題となっている情報漏洩などの問題から、その取り扱いについては慎重に行う必要がある。
 また、組織内で働くワーカーの情報を扱うために、このサービスを監視と受け取られないように配慮する必要がある。これを実現するためには、組織の管理者だけでなく、組織のメンバに対しても組織のダイナミクス情報を公開し、メンバ自身に対しても利点を与えるようなサービス提供が必要となる。
 特許文献1に開示する方法は、各閲覧者の端末にID-個人情報の関連付け情報を保持しており、この関連付け情報に基づいて各閲覧者が要求するサービスを提供するものである。そのため、組織の管理者だけでなくメンバに対しても組織のダイナミクス情報を公開する場合、特定のチームや組織の情報を特定のメンバに公開するような場合など、多数の閲覧者に対応する場合には、ID-個人情報の関連の設定や設定変更などの負荷が大きい。よって、ビジネス顕微鏡システムを活用したサービスに対してこの方式をそのまま用いることは適当でない。
 そこで、本発明の目的としては、センサを使用した組織ダイナミクス分析サービスを行う際に、個人名等の個人情報を顧客から受け取ることなく、顧客側の多数のメンバに対して、組織ダイナミクス情報をわかりやすく提供すること、かつ、これらのサービスを容易に提供することである。
 また、組織ダイナミクス情報の価値をより高めるためには、ホワイトカラーの業務の生産性に関わる指標を定義して、その指標データをダイナミックに提供できる仕組みが必要とされる。そこで、本発明の別の目的としては、組織ダイナミクス分析の価値を高めるためにホワイトカラー業務の特徴に合致した有効な指標を定義することである。
 本発明において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記のとおりである。
 端末は、センサデータと端末識別情報とをサービスゲートウェイに送信する。サーバは、センサデータに基づいて各端末のユーザが属する組織の組織分析データを算出してサービスゲートウェイへ送信する。サービスゲートウェイは、インターネットを介してサーバと接続され、組織分析データから抽出される端末識別情報をユーザの個人情報に変換し、個人情報を含む組織分析データを接続される表示装置に出力する。
 また、端末は、他の端末との対面データ、及び、加速度データをサーバに送信する。サーバは、対面データ及び加速度データに基づいて端末のユーザの業務の質を測定する。
 サービス提供者は氏名等の個人情報を顧客から受け取ることなく、顧客側のみで個人情報を含んだ組織ダイナミクス分析を閲覧することが可能となるため、組織分析サービスの提供を容易に実現することができる。
 また、組織ダイナミクス分析結果として、ホワイトカラー業務にとっての有効な指標を、顧客にフィードバックすることができる。
実施例1によるビジネス顕微鏡システムの全体構成および構成要素の一例 実施例1によるビジネス顕微鏡システムの全体構成および構成要素の一例 実施例1によるビジネス顕微鏡システムの全体構成および構成要素の一例 実施例1によるデータテーブルの構成例 実施例1によるビジネス顕微鏡サービスの一例 実施例1による組織ダイナミクスの表現例およびこれを実現するための構成情報の一例 実施例1による組織のメンバへの名札型センサノード(TR)の割り当て方法およびID-NAME変換表の一例 実施例1によるノードID情報を用いた組織ネットワーク図を、個人名を用いた組織ネットワーク図に変換を行う処理の一例 実施例1によるノードID情報を用いた組織ネットワーク図を、個人名を用いた組織ネットワーク図に変換を行う処理の一例 実施例1によるノードID情報を用いた組織ネットワーク図を、個人名を用いた組織ネットワーク図に変換を行う処理の一例 実施例1によるノードID情報を用いた組織ネットワーク図を、個人名を用いた組織ネットワーク図に変換を行う処理の一例 実施例2によるホワイトカラー業務の特徴に合致した業務品質指標の一例 実施例2によるホワイトカラー業務の特徴に合致した業務品質判定フローの説明図の一例 実施例2による業務品質指標判定結果の表現の一例 実施例2による業務品質指標判定結果の表現の一例 実施例2による業務品質指標判定結果の表現の一例 実施例2による業務品質指標判定結果の表現の一例 実施例2による業務品質指標判定結果の表現の一例 実施例3によるセンサデータとパフォーマンスデータのコンビネーションによる生産性指標の生成例 実施例3によるセンサデータとパフォーマンスデータのコンビネーションによる生産性指標の表現例 実施例2による業務品質指標判定結果の表現の一例 実施例2による業務品質指標判定結果の表現の一例
(実施の形態1)
 本発明の第1の実施形態を、図面を参照して説明する。
 本発明における人間の行動を分析・解析するシステムの位置づけと機能を明らかにするため、まずビジネス顕微鏡システムについて説明する。ここで、ビジネス顕微鏡とは、組織内のメンバに装着したセンサノードから、メンバの動きやメンバ間のインタラクションに関するデータを取得し、このデータの解析結果として、組織のダイナミクスを明らかにすることで、組織の改善に役立てるためのシステムである。
 図1-a、図1-b、図1-cは、ビジネス顕微鏡システムの全体構成および構成要素を示す説明図である。
 本システムは、名札型センサノード(TR)、基地局(GW)、サービスゲートウェイ(SVG)、センサネットサーバ(SS)、アプリケーションサーバ(AS)によって構成されている。これらの構成要素は、図示の都合上図1-a、図1-b、図1-cの3つの図に分割して示してあるが、各々図示された各処理は相互に連携して実行される。図1-aには、ビジネス顕微鏡のサービス事業者(SV)に設置される、センサネットサーバ(SS)、アプリケーションサーバ(AS)が示されている。センサネットサーバ(SS)とアプリケーションサーバ(AS)は、サービス事業者(SV)の内部にてローカルネットワーク1(LNW1)にて接続される。また、図1-bには、ビジネス顕微鏡の顧客サイト(CS)で使用される、名札型センサノード(TR)、基地局(GW)、サービスゲートウェイ(SVG)が示されている。名札型センサノード(TR)、基地局(GW)間は無線通信にて、また、基地局(GW)とサービスゲートウェイ(SVG)間は、ローカルネットワーク2(LNW2)にて接続される。さらに、図1-cには、名札型センサノード(TR)の詳細な構成が示されている。
 まず、図1-b及び図1-cに示す名札型センサノード(TR)から所得されたセンサデータが、基地局(GW)、サービスゲートウェイ(SVG)を経由して、センサデータを格納するセンサネットサーバ(SS)に到達し、さらに、組織ダイナミクスの分析を行うアプリケーションサーバ(AS)にて処理されるまでの一連の流れについて説明する。
 図1-b及び図1-cに示す名札型センサノード(TR)について説明を行う。名札型センサノード(TR)は人間の対面状況を検出するための複数の赤外線送受信部(AB)、装着者の動作を検出するための三軸加速度センサ(AC)、装着者の発話と周囲の音を検出するためのマイク(AD)、名札型センサノードの裏表検知のための照度センサ(LS1F、LS1B)、温度センサ(AE)の各種センサを搭載する。搭載するセンサは一例であり、装着者の対面状況と動作を検出するために他のセンサを使用してもよい。
 本実施例では、赤外線送受信部を4組搭載する。赤外線送受信部(AB)は、名札型センサノード(TR)の固有識別情報である端末情報(TRMT)を正面方向に向かって定期的に送信し続ける。他の名札型センサノード(TR)を装着した人物が略正面(例えば、正面又は斜め正面)に位置した場合、名札型センサノード(TR)と他の名札型センサノード(TR)は、それぞれの端末情報(TRMT)を赤外線で相互にやり取りする。このため、誰と誰が対面しているのかを記録することができる。
 各赤外線送受信部は一般に、赤外線送信のための赤外発光ダイオードと、赤外線フォトトランジスタの組み合わせにより構成される。赤外線ID送信部(IrID)は、自らのIDである端末情報(TRMT)を生成して赤外線送受信モジュールの赤外線発光ダイオードに対して転送する。本実施例では、複数の赤外線送受信モジュールに対して同一のデータを送信することで、全ての赤外線発光ダイオードが同時に点灯する。もちろん、それぞれ独立のタイミング、別のデータを出力してもよい。
 また、赤外線送受信部(AB)の赤外線フォトトランジスタによって受信されたデータは、論理和回路(IROR)によって論理和が取られる。つまり、最低どれか一つの赤外線受光部でID受光されていれば名札型センサノードにIDとして認識される。もちろん、IDの受信回路を独立して複数持つ構成でもよい。この場合、それぞれの赤外線送受信モジュールに対して送受信状態が把握できるので、例えば、対面する別の名札型センサノードがどの方向にいるかなど付加的な情報を得ることも可能である。
 センサによって検出したセンサデータ(SENSD)はセンサデータ格納制御部(SDCNT)によって、記憶部(STRG)に格納される。センサデータ(SENSD)は無線通信制御部(TRCC)によって送信パケットに加工され、送受信部(TRSR)によって基地局(GW)に対し送信される。
 このとき、記憶部(STRG)からをセンサデータ(SENSD)取り出し、無線送信するタイミングを生成するのが通信タイミング制御部(TRTMG)である。通信タイミング制御部(TRTMG)は、複数のタイミングを生成する複数のタイムベース(TB1、TB2)を持つ。
 記憶部に格納されるデータには、現在センサによって検出したセンサデータ(SENSD)の他、過去にセンサにより取得して蓄積した纏め送りデータ(CMBD)や、名札型センサノードの動作プログラムであるファームウェアを更新するためのファームウェア更新データ(FMUD)がある。
 本実施例の名札型センサノード(TR)は、外部電源検出回路(PDET)により、外部電源(EPOW)が接続されたことを検出し、外部電源検出信号(PDETS)を生成する。外部電源検出信号(PDETS)によって、タイミング制御部(TRTMG)が生成する送信タイミングと無線通信されるデータをそれぞれタイムベース切替部(TMGSEL)、データ切替部(TRDSEL)によって切り替える。
 照度センサ(LS1F、LS1B)は、それぞれ名札型センサノード(NN)の前面と裏面に搭載される。照度センサ(LS1F、LS1B)により取得されるデータは、センサデータ格納制御部(SDCNT)によって記憶部(STRG)に格納されると同時に、裏返り検知部(FBDET)によって比較される。名札が正しく装着されているときは、前面に搭載されている照度センサ(LS1F)が外来光を受光し、裏面に搭載されている照度センサ(LS1B)は名札型センサノード本体と装着者との間に挟まれる位置関係となるため、外来光を受光しない。このとき、照度センサ(LS1B)で検出される照度より、照度センサ(LS1F)で検出される照度の方が大きな値を取る。一方で、名札型センサノード(TR)が裏返った場合、照度センサ(LS1B)が外来光を受光し、照度センサ(LS1F)が装着者側を向くため、照度センサ(LS1F)で検出される照度より、照度センサ(LS1B)で検出される照度の方が大きくなる。
 ここで、照度センサ(LS1F)で検出される照度と、照度センサ(LS1B)で検出される照度を裏返り検知部(FBDET)で比較することで、名札ノードが裏返って、正しく装着していないことが検出できる。裏返り検知部(FBDET)で裏返りが検出されたとき、スピーカ(SP)により警告音を発生して装着者に通知する。
 マイク(AD)は、音声情報を取得する。音声情報によって、「騒々しい」又は「静か」等の周囲の環境を知ることができる。さらに、人物の声を取得・分析することによって、コミュニケーションが活発か停滞しているのか、相互に対等に会話をやり取りしているか一方的に話しているのか、怒っているのか笑っているのか、などの対面コミュニケーションのクオリティを分析することができる。さらに、人物の立ち位置等の関係で赤外線送受信器(AB)が検出できなかった対面状態を、音声情報及び加速度情報によって補うこともできる。
 マイク(AD)で取得される音声は、音声波形及び、それを積分回路(AVG)で積分した信号の両方を取得する。積分した信号は、取得した音声のエネルギを表す。
 三軸加速度センサ(AC)は、ノードの加速度すなわちノードの動きを検出する。このため、加速度データから、名札型センサノード(TR)を装着した人物の動きの激しさや、歩行などの行動を解析することができる。さらに、複数の名札型センサノードが検出した加速度の値を比較することによって、それらの名札型センサノードを装着した人物間のコミュニケーションの活性度や相互のリズム、相互の相関等を解析できる。
 本実施例の名札型センサノード(TR)では、三軸加速度センサ(AC)で取得されるデータは、センサデータ格納制御部(SDCNT)によって記憶部(STRG)に格納されると同時に、上下検知回路(UDDET)によって名札の向きを検出する。これは、三軸加速度センサ(AC)で検出される加速度は、装着者の動きによる動的な加速度変化と、地球の重力加速度による静的加速度の2種類が観測されることを利用している。
 表示装置(LCDD)は、名札型センサノード(TR)を胸に装着しているときは、装着者の所属、氏名などの個人情報を表示する。つまり、名札として振舞う。一方で、装着者が名札型センサノード(TR)を手に持ち、表示装置(LCDD)を自分の方に向けると、名札型センサノード(TR)の転地が逆になる。このとき、上下検知回路(UDDET)によって生成される上下検知信号(UDDETS)により、表示装置(LCDD)に表示される内容と、ボタンの機能を切り替える。本実施例では、上下検知信号(UDDETS)の値により、表示装置(LCDD)に表示させる情報を、表示制御(DISP)によって生成される赤外線アクティビティ解析(ANA)による解析結果と、名札表示(DNM)とを切り替える例を示している。
 赤外線送受信器(AB)がノード間で赤外線をやり取りすることによって、名札型センサノード(TR)が他の名札型センサノード(TR)と対面したか否か、すなわち、名札型センサノード(TR)を装着した人物が他の名札型センサノード(TR)を装着した人物と対面したか否かが検出される。このため、名札型センサノード(TR)は、人物の正面部に装着されることが望ましい。
 名札型センサノードは多くの場合には複数存在し、それぞれが近い基地局(GW)と結びついてパーソナルエリアネットワーク(PAN)を形成している。
 名札型センサノード(TR)の温度センサ(AE)は名札型センサノードのある場所の温度を、照度センサ(LS1F)は名札型センサノード(TR)の正面方向などの照度を取得する。これによって、周囲の環境を記録することができる。例えば、温度及び照度に基づいて、名札型センサノード(TR)が、ある場所から別の場所に移動したこと等を知ることもできる。
 装着した人物に対応した入出力装置として、ボタン1~3(BTN1~3)、表示装置(LCDD)、スピーカ(SP)等を備える。
 記憶部(STRG)は、具体的にはハードディスク、フラッシュメモリなどの不揮発記憶装置で構成され、名札型センサノード(TR)の固有識別番号である端末情報(TRMT)、センシングの間隔、及び、ディスプレイへの出力内容等の動作設定(TRMA)、時計(TRCK)を記録している。なお、センサノードは、省電力化のために、一定間隔で起動状態と停止状態を繰り返す間欠動作を行っている。これはセンシングやデータ送信のようなタスクを実行する時のみ必要なハードウェアを駆動し、実行すべきタスクがない時は、CPU等を低電力モードで休眠させるという動作である。ここでのセンシングの間隔とは、起動状態においてセンシングを行う間隔を意味する。また、この他にも記憶部(STRG)は一時的にデータを記録することができ、センシングしたデータを記録しておくために利用される。
 通信タイミング制御部(TRTMG)は、時刻情報(GWCSD)を保持し、一定間隔でその時刻情報(GWCSD)を更新する。時間情報は、時刻情報(GWCSD)が他の名札型センサノード(TR)とずれることを防ぐために、基地局(GW)から送信される時刻情報(GWCSD)によって定期的に時刻を修正する。
 センサデータ格納制御部(SDCNT)は、記憶部(STRG)に記録された動作設定(TRMA)に従って、各センサのセンシング間隔などを制御し、取得したデータを管理する。
 時刻同期は、基地局(GW)から時刻情報を取得して時計を修正する。時刻同期は、後述するアソシエイトの直後に実行されてもよいし、基地局(GW)から送信された時刻同期コマンドに従って実行されてもよい。
 無線通信制御部(TRCC)は、データを送受信する際に、送信間隔の制御、及び、無線の送受信に対応したデータフォーマットへの変換を行う。無線通信制御部(TRCC)は、必要であれば、無線でなく有線による通信機能を持ってもよい。無線通信制御部(TRCC)は、他の名札型センサノード(TR)と送信タイミングが重ならないように輻輳制御を行うこともある。
 アソシエイト(TRTA)は、図1-bに示す基地局(GW)とパーソナルエリアネットワーク(PAN)を形成するためのアソシエイト要求(TRTAQ)と、アソシエイト応答(TRTAR)を送受信し、データを送信すべき基地局(GW)を決定する。アソシエイト(TRTA)は、名札型センサノード(TR)の電源が投入されたとき、及び、名札型センサノード(TR)が移動した結果それまでの基地局(GW)との送受信が絶たれたときに実行される。アソシエイト(TRTA)の結果、名札型センサノード(TR)は、その名札型センサノード(TR)からの無線信号が届く近い範囲にある一つの基地局(GW)と関連付けられる。
 送受信部(TRSR)は、アンテナを備え、無線信号の送信及び受信を行う。必要があれば、送受信部(TRSR)は、有線通信のためのコネクタを用いて送受信を行うこともできる。送受信部(TRSR)によって送受信されるデータ(TRSRD)は、基地局(GW)との間でパーソナルエリアネットワーク(PAN)を介して転送される。
 次に、図1-bに示す基地局(GW)の機能についての説明を行う。基地局(GW)は、名札型センサノード(TR)から無線で受信したセンサデータをサービスゲートウェイ(SVG)に対して送信する機能を有する。基地局(GW)は、無線の到達距離、測定対象の組織が存在するエリアの大きさを考慮して、必要な台数が設置される。
 基地局(GW)は、制御部(GWCO)、記憶部(GWME)、時計(GWCK)及び、送受信部(GWSR)を備える。
 制御部(GWCO)は、CPU(図示省略)を備える。CPUが記憶部(GWME)に格納されているプログラムを実行することによって、センシングデータセンサ情報の取得タイミング、センシングデータの処理、名札型センサノード(TR)やセンサネットサーバ(SS)への送受信のタイミング、及び、時刻同期のタイミングを管理する。具体的には、CPUが記憶部(GWME)に格納されているプログラムを実行することによって、無線通信制御・通信制御部(GWCC)、データ形式変換、アソシエイト(GWTA)、時刻同期管理(GWCD)及び時刻同期(GWCS)等の処理を実行する。
 無線通信制御・通信制御部(GWCC)は、無線又は有線による名札型センサノード(TR)及びサービスゲートウェイ(SVG)との通信のタイミングを制御する。また、無線通信制御・通信制御部(GWCC)は、受信したデータの種類を区別する。具体的には、無線通信制御・通信制御部(GWCC)は、受信したデータが一般のセンシングデータであるか、アソシエイトのためのデータであるか、時刻同期のレスポンスであるか等をデータのヘッダ部分から識別して、それらのデータをそれぞれ適切な機能に渡す。
 なお、無線通信制御・通信制御部(GWCC)は、記憶部(GWME)に記録されたデータ形式情報(GWMF)を参照して、送受信のために適した形式にデータを変換し、データの種類を示すためのタグ情報を付け加えるデータ形式変換を実行する。
 アソシエイト(GWTA)は、名札型センサノード(TR)から送られてきたアソシエイト要求(TRTAQ)に対する応答(TRTAR)を送信し、各名札型センサノード(TR)にローカルIDを割り当てる。アソシエイトが成立したら、アソシエイト(GWTA)は、端末管理テーブル(GWTT)と端末ファームウェア(GWTF)を用いて端末管理情報を修正する(GWDF)。
 時刻同期管理(GWCD)は、時刻同期を実行する間隔及びタイミングを制御し、時刻同期するように命令を出す。あるいは、サービス事業者(SV)サイトに設置されているセンサネットサーバ(SS)が時刻同期管理(GWCD)を実行することによって、センサネットサーバ(SS)からシステム全体の基地局(GW)に統括して命令を送ってもよい。
 時刻同期(GWCS)は、ネットワーク上のNTPサーバ(TS)に接続され、時刻情報の取得を行う。時刻同期(GWCS)は、取得した時刻情報に基づいて、時計(GWCK)の情報を周期的にアップデートする。また、時刻同期(GWCS)は、名札型センサノード(TR)に対して、時刻同期の命令と時刻情報(GWCD)を送信する。この仕組みにより、基地局(GW)に接続されている複数の名札型センサノード(TR)は、ノード間で時刻の同期を保つことが可能となる。
 記憶部(GWME)は、ハードディスク、フラッシュメモリのような不揮発記憶装置で構成される。記憶部(GWME)には、少なくとも動作設定(GWMA)、データ形式情報(GWMF)、端末管理テーブル(GWTT)、及び基地局情報(GWMG)が格納される。動作設定(GWMA)は、基地局(GW)の動作方法を示す情報を含む。データ形式情報(GWMF)は、通信のためのデータ形式を示す情報、及び、センシングデータにタグを付けるために必要な情報を含む。端末管理テーブル(GWTT)は、現在アソシエイトできている配下の名札型センサノード(TR)の端末情報(TRMT)、及び、それらの名札型センサノード(TR)を管理するために配布しているローカルIDを含む。基地局情報(GWMG)は、基地局(GW)自身のアドレスなどの情報を含む。また、記憶部(GWME)には名札型センサノードに搭載されるファームウェア(GWTF)を一時的に格納する。
 記憶部(GWME)には、さらに、制御部(GWCO)中の中央処理部CPU(図示省略)によって実行されるプログラムが格納されてもよい。
 時計(GWCK)は時刻情報を保持するために、一定の周期にて、NTP(Network Time Protocol)サーバ(TS)から取得した時刻情報によって、自身の時刻情報を修正する。
 送受信部(GWSR)は、名札型センサノード(TR)からの無線を受信し、ローカルネットワーク2(LNW2)を通じて、サービスゲートウェイ(SVG)への送信を行う。
 次に、図1-bに示すサービスゲートウェイ(SVG)の上り側処理について説明を行う。サービスゲートウェイ(SVG)は、全ての基地局(GW)から収集されたデータを、インターネット(NET)を通じて、サービス事業者(SV)に対して送信する。また、センサデータのバックアップを行うために、基地局(GW)から取得したデータを、ローカルデータバックアップ(LDBK)の制御によってローカルデータストレージ(LDST)に格納する。基地局からのデータの送受信、および、インターネット側とのデータの送受信は、送受信部(SVGSR)によって行われる。サービスゲートウェイ(SVG)の下り側処理およびローカルネットワーク(LNW2)に接続されるクライアントPC(CL)の機能については後述する。
 次に、図1-aに示すセンサネットサーバ(SS)について説明を行う。サービス事業者(SV)サイトに設置されるセンサネットサーバ(SS)は、顧客サイト(CS)にて稼動している全ての名札型センサノード(TR)にて収集されたデータの管理を行う。具体的には、センサネットサーバ(SS)は、インターネット(NET)経由で送られてくるデータをデータベースに格納し、また、アプリケーションサーバ(AS)及び、クライアントPC(CL)からの要求に基づいてセンサデータを送信する。さらに、センサネットサーバ(SS)は、基地局(GW)からの制御コマンドを受信し、その制御コマンドから得られた結果を基地局(GW)に返信する。
 センサネットサーバ(SS)は、送受信部(SSSR)、記憶部(SSME)及び制御部(SSCO)を備える。時刻同期管理(GWCD)がセンサネットサーバ(SS)で実行される場合、センサネットサーバ(SS)は時計も必要とする。
 送受信部(SSSR)は、基地局(GW)、アプリケーションサーバ(AS)及びサービスゲートウェイ(SVG)との間で、データの送信及び受信を行う。具体的には、送受信部(SSSR)は、サービスゲートウェイ(SVG)から送られてきたセンシングデータを受信し、アプリケーションサーバ(AS)へセンシングデータを送信する。
 記憶部(SSME)は、ハードディスクやフラッシュメモリなどの不揮発記憶装置によって構成され、少なくとも、パフォーマンステーブル(BB)、データ形式情報(SSMF)、データテーブル(BA)及び端末管理テーブル(SSTT)を格納する。さらに、記憶部(SSME)は、制御部(SSCO)のCPU(図示省略)によって実行されるプログラムを格納してもよい。更に、記憶部(SSME)には、端末ファームウェア登録部(TFI)において格納された名札型センサノードの更新されたファームウェア(SSTF)を一時的に格納する。
 パフォーマンステーブル(BB)は、名札型センサノード(TR)から又は既存のデータから入力された、組織や個人に関する評価(パフォーマンス)を、時刻データと共に記録するためのデータベースである。
 データ形式情報(SSMF)には、通信のためのデータ形式、基地局(GW)でタグ付けされたセンシングデータを切り分けてデータベースに記録する方法、及び、データの要求に対する対応方法等が記録されている。後で説明するように、データ受信の後、データ送信の前には必ずこのデータ形式情報(SSMF)が通信制御部(SSCC)によって参照され、データ形式変換(SSMF)とデータ管理(SSDA)が行われる。
 データテーブル(BA)は、各名札型センサノード(TR)が取得したセンシングデータ、名札型センサノード(TR)の情報、及び、各名札型センサノード(TR)から送信されたセンシングデータが通過した基地局(GW)の情報等を記録しておくためのデータベースである。加速度、温度等、データの要素ごとにカラムが作成され、データが管理される。また、データの要素ごとにテーブルが作成されてもよい。どちらの場合にも、全てのデータは、取得された名札型センサノード(TR)のIDである端末情報(TRMT)と、取得された時刻に関する情報とが関連付けて管理される。
 端末管理テーブル(SSTT)は、どの名札型センサノード(TR)が現在どの基地局(GW)の管理下にあるかを記録しているテーブルである。基地局(GW)の管理下に新たに名札型センサノード(TR)が加わった場合、端末管理テーブル(SSTT)は更新される。
 制御部(SSCO)は、中央処理部CPU(図示省略)を備え、センシングデータの送受信やデータベースへの記録・取り出しを制御する。具体的には、CPUが記憶部(SSME)に格納されたプログラムを実行することによって、通信制御(SSCC)、端末管理情報修正(SSTF)及びデータ管理(SSDA)等の処理を実行する。
 通信制御部(SSCC)は、サービスゲートウェイ(SVG)、アプリケーションサーバ(AS)及びクライアント(CL)との通信のタイミングを制御する。また、通信制御部(SSCC)は、上述の通り、送受信するデータの形式を、記憶部(SSME)内に記録されたデータ形式情報(SSMF)に基づいて、センサネットサーバ(SS)内におけるデータ形式、又は、各通信相手に特化したデータ形式に変換する。さらに、通信制御(SSCC)は、データの種類を示すヘッダ部分を読み取って、対応する処理部へデータを振り分ける。具体的には、受信されたデータはデータ管理(SSDA)へ、端末管理情報を修正するコマンドは端末管理情報修正(SSTF)へ振り分けられる。送信されるデータの宛先は、基地局(GW)、サービスゲートウェイ(SVG)、アプリケーションサーバ(AS)又はクライアント(CL)に決定される。
 端末管理情報修正(SSTF)は、基地局(GW)から端末管理情報を修正するコマンドを受け取った際に、端末管理テーブル(SSTT)を更新する。
 データ管理(SSDA)は、記憶部(SSME)内のデータの修正・取得及び追加を管理する。例えば、データ管理(SSDA)によって、センシングデータは、タグ情報に基づいてデータの要素別にデータベースの適切なカラムに記録される。センシングデータがデータベースから読み出される際にも、時刻情報及び端末情報に基づいて必要なデータを選別し、時刻順に並べ替える等の処理が行われる。
 センサネットサーバ(SS)が、サービスゲートウェイ(SVG)を介して受け取ったデータは、データ管理(SSDA)によってパフォーマンステーブル(BB)及びデータテーブル(BA)に整理して記録される。
 最後に、図1-aに示すアプリケーションサーバ(AS)について説明行う。アプリケーションサーバ(AS)は、顧客サイト(CS)内のクライアントPC(CL)からの依頼を受けて、又は、設定された時刻に自動的にセンシングデータの解析処理を行うために、センサネットサーバ(SS)に依頼を送って、必要なセンシングデータを取得し、取得したデータを解析し、解析されたデータをクライアントPC(CL)に送信する。解析されたデータをそのまま解析データベースに記録しておいてもよい。 アプリケーションサーバ(AS)は、送受信部(ASSR)、記憶部(ASME)及び制御部(ASCO)を備えている。
 送受信部(ASSR)は、センサネットサーバ(SS)及びサービスゲートウェイ(SVG)との間でデータの送信及び受信を行う。具体的には、送受信部(ASSR)は、クライアントPC(CL)サービスゲートウェイ(SVG)経由で送られてきたコマンドを受信し、センサネットサーバ(SS)にデータ取得依頼を送信する。さらに、送受信部(ASSR)は、サービスゲートウェイ(SVG)を経由して、解析したデータをクライアントPC(CL)に送信する。
 記憶部(ASME)は、ハードディスク、メモリ又はSDカードのような外部記録装置で構成される。記憶部(ASME)は、解析のための設定条件及び解析したデータを格納する。具体的には、記憶部(ASME)は、解析条件(ASMJ)、解析アルゴリズム(ASMA)、解析パラメータ(ASMP)、端末情報-ID対応表(ASMT)、解析結果テーブル(E)、解析済範囲テーブル(ASJCA)、一般情報テーブル(ASIP)を格納する。
 解析条件(ASMJ)は、クライアントPC(CL)から依頼された表示のための解析条件を一時的に記憶しておく。
 解析アルゴリズム(ASMA)は、解析を行うプログラムを記録する。クライアントPC(CL)からの依頼に従って、適切なプログラムが選択され、そのプログラムによって解析が実行される。
 解析パラメータ(ASMP)は、例えば、特徴量抽出のためのパラメータ等を記録する。クライアントPC(CL)の依頼によってパラメータを変更する際には、解析パラメータ(ASMP)が書き換えられる。
 端末情報-ID対応表(ASMT)は、端末のIDと、その端末に関連付けられる別のIDおよび属性情報等との対照表である。
 解析結果テーブル(E)は、個人・組織ダイナミクス解析(D)によって、解析されたデータを格納するためのデータベースである。
 解析済範囲テーブル(ASJCA)は、個人・組織ダイナミクス解析(D)にて行った解析範囲とその処理をした時間が記載されている。
 一般情報テーブル(ASIP)は、個人・組織ダイナミクス解析(D)を行う際に、指標として用いるためのテーブルである。
 制御部(ASCO)は、中央処理部CPU(図示省略)を備え、データの送受信の制御及びセンシングデータの解析を実行する。具体的には、CPU(図示省略)が記憶部(ASME)に格納されたプログラムを実行することによって、通信制御(ASCC)、個人・組織ダイナミクス解析(D)、Webサービス(WEB)が実行される。
 通信制御(ASCC)は、有線又は無線によるセンサネットサーバ(SS)との通信のタイミングを制御する。さらに、通信制御(ASCC)は、データの形式変換、及び、データの種類別に行き先の振り分けを実行する。
 個人・組織ダイナミクス解析(D)は、センサデータを使用して、解析アルゴリズム(ASMA)に記載されている解析処理を実行し、解析した結果を解析結果テーブル(E)に格納する。さらに、解析した範囲を示す解析済範囲テーブル(ASJCA)を更新する。
 Webサービス(WEB)は、顧客サイト(CS)のクライアントPC(CL)より依頼を受けた場合には、解析結果テーブル(E)に格納されている解析結果を、ビジュアルデータ生成部(VDGN)にて、表示に必要なデータに変換した後に、クライアントPC(CL)に対してインターネット(NET)を通じて送信するためのサーバの機能を有する。具体的には、表示のコンテンツや描画位置情報等の情報がHTML(Hyper Text Makeup Language)などの形式にて送信される。
 なお、本実施例では、収集されたセンサデータの格納・管理、組織ダイナミクスの分析、などセンサネットサーバとアプリケーションサーバそれぞれが有する機能により実行される説明をしたが、両機能を有する1のサーバによりそれらを実行できることはいうまでもない。
 以上、名札型センサノード(TR)から所得されたセンサデータが、アプリケーションサーバ(AS)に到達して組織ダイナミクスの分析が行われるまでの一連の流れを示した。
 次に、顧客サイト(CS)のクライアントPC(CL)が組織ダイナミクスの分析結果を、サービス事業者から要求する処理について述べる。
 クライアントPC(CL)が要求した組織ダイナミクス分析結果は、インターネット(NET)を通じて、サービスゲートウェイ(SVG)に到達する。ここでは、サービスゲートウェイ(SVG)の下り側処理について述べる。サービスゲートウェイ(SVG)の下り側処理は、ID-NAME変換(IDCV)、ID-NAME変換表(IDNM)、フィルタリングポリシ(FLPL)、フィルタリング設定IF(FLIF)、および、ID-NAME登録IF(RGIF)にて実行される。
 送受信部(SVGSR)を通じて入力された組織ダイナミクス分析結果は、ID-NAME変換(IDCV)に到達すると、組織ダイナミクス分析結果に含まれているIDをID-NAME変換表(IDNM)に登録されている個人名に変換を行う。
 また、組織ダイナミクス分析結果に関して、部分的にID-NAME変換(IDCV)を行いたい場合には、そのポリシを予めフィルタリングポリシ(FLPL)に登録しておく。ここで、ポリシとは、組織ダイナミクス分析結果のクライアントPCへの表示方法を決定する条件である。具体的には、組織ダイナミクス分析結果に含まれるIDを名前に変換するか否かを決定する条件、あるいは、組織に存在しない未知のIDに関する構成情報を消去するか否かを決定する条件などである。このフィルタリングポリシに記録されたポリシに基づいて、組織ダイナミクス分析結果を表示する例は、図6-b~図6-dを用いて後述する。なお、フィルタリングポリシ(FLPL)および、ID-NAME変換表(IDNM)は、それぞれ、フィルタリング設定IF(FLIF)、および、ID-NAME登録IF(RGIF)にて管理者より設定・登録作業が行われる。
 ID-NAME変換(IDCV)によって、個人名が表記できる形に変換された組織ダイナミクス結果は、クライアントPC(CL)のWebブラウザ(WEBB)を通じて、ユーザ対して理解しやすい形式で表示される。
次に、センサデータやパフォーマンス入力(C)を格納するデータテーブル(BA)の構成例について図2を用いて説明する。図2では、センサデータ及びパフォーマンスが、センサデータを取得した時間及びセンサノードの端末識別情報と対応づけられていることを特徴とする。これにより、組織を構成するメンバの関係、例えば接続関係やコミュニケーションの中心性などの組織ダイナミクス情報を求めることができる。さらには、センサデータとパフォーマンスを組み合わせた分析が可能となる。
 データテーブル(BA)の、ユーザID(BAA)は、ユーザの識別子であり、具体的には、ユーザが装着する端末(TR)の端末識別情報(TRMT)が格納される。
 取得時間(BAB)は名札型センサノード(TR)がセンサデータを取得した時刻、基地局(BAC)は名札型センサノード(TR)からデータを受信した基地局、加速度センサ(BAD)は加速度センサ(AC)のセンサデータ、IRセンサ(BAE)は赤外線送受信器(AB)のセンサデータ、音センサ(BAF)はマイク(AD)のセンサデータ、温度(BAG)は温度(AE)のセンサデータである。
 気づき(BAH)、感謝(BAI)、正味(BAJ)は、パフォーマンス入力(C)もしくは、名札型センサノード(TR)のボタン(BTN1~3)の押下の有無より得られるデータである。
 ここで、パフォーマンス入力(C)とは、パフォーマンスを示す値を入力する処理である。パフォーマンスとは、何らかの基準に基づいて判定される主観的又は客観的な評価である。例えば、所定のタイミングで、名札型センサノード(TR)を装着した人物は、その時点における業務の達成度、組織に対する貢献度及び満足度等、何らかの基準に基づく主観的な評価(パフォーマンス)の値を入力する。所定のタイミングとは、例えば、数時間に一度、一日に一度、又は、会議等のイベントが終了した時点であってもよい。名札型センサノード(TR)を装着した人物は、その名札型センサノード(TR)を操作して、又は、クライアントPC(CL)のようなパーソナルコンピュータを操作して、パフォーマンスの値を入力することができる。あるいは、手書きで記入された値が後にまとめてPCで入力してもよい。入力されたパフォーマンス値は、解析処理に用いられる。組織に関するパフォーマンスは、個人のパフォーマンスから算出されてもよい。売上高又はコスト等の客観的なデータ、及び、顧客のアンケート結果等の既に数値化されているデータが、パフォーマンスとして別システムより入力されてもよい。生産管理等におけるエラー発生率等のように、自動で数値が得られる場合、得られた数値が自動的にパフォーマンスの値として入力されてもよい。
 以上、図1-a、図1-b、図1-c、図2で示した機能構成により実現されるビジネス顕微鏡サービスの全体図を図3に示す。図3では、顧客サイトからセンサノードのIDと関連付けをされたセンサデータを受信して、サービス事業者側にて組織分析を行った後、IDをベースに行った組織分析データを顧客サイトにフィードバックすることを特徴とする。組織分析データに対しては、顧客がこれらを閲覧する際に、顧客サイトに設置したサービスゲートウェイにて、IDと個人情報(氏名)の変換を行い、わかりやすい情報として顧客に提示することを特徴とする。
 図3に示すビジネス顕微鏡サービスにおいては、複数の顧客サイト(CA-A、CS-B、CS-C)より送信されたセンサデータ(SDAT)を、インターネット(NET)経由にてサービス事業者(SV)にて受信し、これを組織分析システム(OAS)にて、分析する。
 センサデータ(SDAT)として主なものは、加速度データ(ACC)や赤外線より得られる対面データ(IR)等である。これらはそれぞれ、図2に示すデータテーブル(BA)に格納されているものの一部である。組織分析システム(OAS)では、前述のセンサネットサーバ(SS)、アプリケーションサーバ(AS)にて、対象組織のダイナミクスが分析され、結果として得られた組織のダイナミクス指標等を組織分析結果(OASV)として、該当する顧客サイト(CS)に対してフィードバックする。組織分析結果(OASV)はインターネット(NET)を通じて顧客サイト(CS)に到着すると、サービスゲートウェイ(SVG)にて、IDを使って表現された組織分析結果(RNET-ID)から、その組織の個人名を使用した分析結果(RNET-NAME)に変換される。
 次に、組織分析サービスを提供するためのデータの表現方法について、説明する。本発明の課題のひとつとなっている個人情報問題を解決するため、サービス事業者(SV)では、個人情報は扱わず、ID情報のみを扱い、顧客サイト(CS)側にて、このID情報を個人名に変換する必要がある。
 ここで、組織ダイナミクスを表現するための具体的な構成情報の例として、例えば、図4の左図に示すようなネットワーク図(NETE)の表現を考える。この図においては、組織の4人(A、B、C、および、D)の関係性の分析結果が示されている。この分析結果の表示に必要となる構成情報の例(NETS)を図4の右図に示す。具体的には、4つのノード(0~3)の座標情報(POS)、座標の属性情報(ATT)、さらには、4つのノードの接続関係を示すリンク接続マトリクス(LMAT)より構成される。ここで、属性(ATT)は、表示名、所属、ノードの表示色より構成される。
 座標情報(POS)については、ノード数によって、その座標位置が固定的に決定されるようなアルゴリズムや、接続ノード数の大きいものが中心に、また、接続ノード数の小さいものがその周辺に表示されるようなアルゴリズム等を用いることができる。
 リンク接続マトリクス(LMAT)は、データテーブル(BA)のIRセンサ(BAE)のデータを集計することによって作成される。具体的には、一定期間の中で、どのユーザIDがどのユーザIDと対面したのかの情報を、対象ユーザIDの全ての組み合わせについて集計する。その結果、対面履歴のある場合には、ユーザIDの組合せを表すマトリクス上に、これを“1”で表記し、対面履歴の無い場合には、これを、0”で表記する。この“0”および“1”は、ネットワーク図で表した場合のノード間の、接続関係を示す(“1”および“0”は、それぞれ、ノード間の接続関係の有り、無し、を示す)。本例では、ノード接続の方向(例えば、ノード0からノード1への方向と、ノード1からノード0への方向)の区別を、考慮していないが、リンク接続マトリクスにて、方向性を考慮した表記方法を用いることも可能である。
 このように、センサネットサーバ(SS)、アプリケーションサーバ(AS)にてユーザ名を含まないネットワーク図の構成情報(NETS)を構成し、顧客サイトのサービスゲートウェイにてユーザ名に変換することにより、個人情報保護を図ることが可能となる。
 さらに、ネットワーク図の構成情報(NETS)を、文字列表記の構成情報とすることによって、文字列の抽出が容易となるために、顧客サイトのサービスゲートウェイ(SVG)にて、属性(ATT)の表示名を抽出し、ID情報を個人名に変換することが可能となる。ID情報から個人名への変換については、既存の文字列変換アルゴリズムを使用すれば良い。具体的な変換の例については後述する。なお、ここでは、組織ダイナミクスを表現するための構成情報の例としてネットワーク図を例に挙げたが、必ずしもネットワーク図である必要は無く、単純なタイムチャートなどの表現方法であっても、表示名を抽出できる構成となっていれば、個人名に変換可能となる。
 また、本例では、ネットワーク図の構成情報を、文字列を容易に検索・置換できるものとして説明したが、ネットワーク図を画像情報とすることも可能である。この場合には、画像情報に対して文字認識アルゴリズムを適用することで文字列を抽出し、抽出された文字列に対して、上述の文字列変換アルゴリズムを適用し、再度、画像情報に変換すれば良い。
 次に、組織のメンバへの名札型センサノード(TR)の割り当て方法について、図5を用いて説明する。図5においては、組織の3人のメンバ(個人名がそれぞれ、トーマス、ジェームス、エミリー)に対して、それぞれ、名札型センサノードを割り当てる場合を考える。ビジネス顕微鏡サービスの運営に関わる顧客サイト(CS)側の管理者(以降、サービス管理者と呼ぶ)は、トーマスに名札側センサノードTR-Aを、ジェームスに名札側センサノードTR-Bを、また、エミリーに名札側センサノードTR-Cを割り当てる。ここで、名札側センサノードTR-AのノードIDは“A”、名札側センサノードTR-BのノードIDは“B”、名札側センサノードTR-CのノードIDは“C”が割り当てられるものとする。このノードIDの割り当ては、予め、サービス事業者(SV)側で物理的な名札型センサノード(TR)に設定されているものを用いる場合(具体的には、端末情報(TRMT))と、顧客サイト(CS)側で決定したものを名札型センサノード(TR)に設定する場合がある。顧客サイト(CS)側でノードIDを決定する場合には、その顧客の組織における社員番号等、組織内でユニークとなるようなIDを割り当てることができる。サービス管理者は、この情報をベースにID-NAME変換表(IDNM)を作成する。ID-NAME変換表(IDNM)は、組織のメンバへの名札型センサノード(TR)の割り当て結果に基づいて、全ての物理的な名札型センサノード(TR)を識別可能な識別子であるMACアドレス(MCAD)、論理的な名札型センサノード(TRの識別子であるノードID(NDID)、これを使用する使用者(USER)、使用者の所属等(TMNM)情報の対応関係を管理するものである。ここで、MACアドレス(MCAD)には、端末情報(TRMT)と同一、もしくは、この一部を含むものが使用される。
 以降、図6-a~図6-dに、顧客サイト(CS)のサービスゲートウェイ(SVG)において、組織分析サービス結果のノードID情報を個人名に変換する例を具体的な手順と共に説明する。変換処理は、サービスゲートウェイ(SVG)内のID-NAME変換(IDCV)にて行われる。なお、本実施例では、ID情報を個人名に変換する例について説明するが、個人のメールアドレスや画像等の個人情報にも変換できることはいうまでもない。
 まず、図6-aを用いて、ノードID情報を用いた組織ネットワーク図(NET-0)を、個人名を用いた組織ネットワーク図(NET-1)に変換を行う処理について説明する。ここで用いる組織ネットワーク図(NET-0、NET-1)は、メンバ間の対面情報(データテーブル(BA)のIRセンサ(BAE)のデータ)を用いた一定期間のコミュニケーション状態を示しているものとする。
 図6-aでは2つのチーム(チーム1、チーム2)の7人のメンバのノードID情報(A、B、C、D、E、F、G)を、それぞれ個人名(トーマス、ジェームス、エミリー、パーシー、トビー、サム、ピーター)に変換を行う。この処理を行うには、サービスゲートウェイ(SVG)にて図6-aの処理フローに従って処理が行われる。
 まず、ID-NAME変換部(IDCV)にて、分析結果よりIDを逐次抽出し、(STEP01)、次に、抽出IDをID-NAME変換表(IDNM)に送付する(STEP02)。次に、ID-NAME変換表(IDNM)に、抽出されたIDが存在するかどうかをチェックする(STEP03)。IDが存在する場合には、ID-NAME変換表(IDNM)に示されている該当個人名(例えば、図5において、ノードIDがAの場合にはトーマス)を、ID-NAME変換部(IDCV)に送付して、変換処理を行う(STEP04)。
 具体的には、図4に示すようなネットワーク図構成情報の該当ID部分が個人名に変換される。この結果、変換後のネットワーク図構成情報をクライアントPC(CL)のブラウザで閲覧すると、組織ネットワーク図(NET-1)が表示される。また、STEP03にてID-NAME変換表(IDNM)に、抽出されたIDが存在しない場合には、変換処理を行わずにそのまま処理を終了する。以上の処理により、ノードID情報を用いた組織ネットワーク図(NET-0)を、個人名を用いた組織ネットワーク図(NET-1)に変換を行うことができる。
 次に、図6-bを用いて、ノードID情報を用いた組織ネットワーク図(NET-0)を、個人名を用いた組織ネットワーク図(NET-2)に変換を行う処理について説明する。図6-bでは2つのチーム(チーム1、チーム2)の7人のメンバのノードID情報(A、B、C、D、E、F、G)を、それぞれ個人名(トーマス、ジェームス、エミリー、パーシー、トビー、サム、ピーター)に変換を行う際に、その組織に存在しない未知のノードIDに関する構成情報の消去を行う。この処理を行うには、サービスゲートウェイ(SVG)にて図6-bに示すような処理フローに従って処理が行われる。
 図6-aの処理との差分としては、STEP03にてID-NAME変換表(IDNM)に、抽出されたIDが存在しない場合(NET-0のID情報“X”)には、これをID-NAME変換(IDCV)に通知して、ID情報“X”に該当する構成情報(座標情報(POS)、属性(ATT)およびリンク接続マトリクス(LMAT)の情報)を消去する(STEP05)。
  名札型センサノードを多数の組織のメンバが装着する場合、分析・表示対象となる組織以外のメンバと対面する場合が想定される。そのような場合であっても、上記処理を行うことで、該当組織のメンバが未知の名札センサノード(TR)と対面した場合の影響を除去することができ、該当組織にのみフォーカスして、ユーザにとってわかりやすい情報を提供することができる。さらに、ノイズ等の影響による誤対面情報の影響を取り除くことが可能となる。
 次に、図6-cを用いて、ノードID情報を用いた組織ネットワーク図(NET-0)を、個人名を用いた組織ネットワーク図(NET-3)に変換を行う処理について説明する。図6-cでは2つのチーム(チーム1、チーム2)の7人のメンバのノードID情報(A、B、C、D、E、F、G)のうちをチーム1のメンバのみに対して、個人名への変換を行う。この処理を行うには、サービスゲートウェイ(SVG)にて図6-cに示すような処理フローに従って処理が行われる。図6-aの処理との差分としては、STEP03にてID-NAME変換表(IDNM)にて、抽出されたIDが存在した場合に、次の処理として、このIDがフィルタリング対象部署に設定されているか否かを判定して(STEP06)フィルタリング対象の部署に該当する場合には、変換処理を行わない。このような処理を行うことで、他チームや他組織の詳細情報の閲覧を制限するような柔軟な運用が可能となる。さらに、他チームや他組織の個人情報を保護しつつ、対象部署のメンバと他チームや他組織とのネットワークを把握することが可能となる。
 最後に、図6-dを用いて、ノードID情報を用いた組織ネットワーク図(NET-0)を、個人名を用いた組織ネットワーク図(NET-4)に変換を行う処理について説明する。図6-dでは2つのチーム(チーム1、チーム2)の7人のメンバのノードID情報(A、B、C、D、E、F、G)のうちをチーム1のメンバのみに対して、個人名への変換を行い、チーム1以外のメンバに関する情報を表示しないような処理を行う。この処理を行うには、サービスゲートウェイ(SVG)にて図6-dに示すような処理フローに従って処理が行われる。図6-cの処理との差分としては、STEP06にてIDがフィルタリング対象部署に設定されているか否かを判定して、フィルタリング対象の部署に該当する場合には、該当するIDに関連する構成情報を消去する(STEP05)。このような処理を行うことで、メンバが、特定のチームや組織の情報のみにフォーカスし、余計な情報を表示無しに、閲覧可能とするような柔軟な運用が可能となる。
 なお、上述したような、構成情報を削除する機能、フィルタリング対象部署に該当するか否かを判定する機能をアプリケーションサーバに持たせることもできる。この場合、アプリケーションサーバでそれらの機能を実行して組織ダイナミクス分析結果をサービスゲートウェイに送信し、サービスゲートウェイは、IDを名前に変換する処理のみすればよい。
 以上、図6-a~図6-dに示したように、ノードID情報の変換処理を行うことで、サービス事業者(SV)では個人情報は扱わず、ID情報のみを扱うことで、個人情報漏洩などの危険を防止することが可能となる。
 また、顧客サイト(CS)側では、変換された個人名による組織ダイナミクス情報を用いることで組織の状態をわかりやすく把握することができる。
 また、IDから個人情報への変換処理をサービスゲートウェイ(SVG)にて行うため、この結果を閲覧するクライアントPC(CL)においては、特殊なプログラムのインストールやデータの配布処理を行うことなく、一般的なブラウザによって結果を閲覧することができる。そのため、クライアントPC(CL)の数量が多い場合においても、ビジネス顕微鏡サービスのスムースな導入と運用が可能となる。
 さらに、また、特定のチームや組織の情報のみを、メンバに開示するような柔軟な運用を行うことも可能となる。
 (実施の形態2)
 本発明の第2の実施形態を、図面を参照して説明する。第2の実施例では、組織ダイナミクス分析の価値を高めるためにホワイトカラー業務の特徴に合致した有効な指標作成方法を特徴とする。生産性の高いホワイトカラー業務の特徴としては、メンバ自身の業務能力を高めることと、メンバ間でコミュニケーションによって、さらなる知識創造を促すことの双方が必要である。そこで、知識労働者を中心としたホワイトカラー業務の特性として、個人業務を、インタラプトされずに集中して行う時間および環境の確保、さらには、会議や議論の場においては積極的に参加すること、の2つの観点があげられる。
 そこで、対面情報と加速度情報とのコンビネーションにより、その組織の業務クオリティを測定する。具体的には、あるメンバが他のメンバと対面している時に、動きの大きさが一定のしきい値を超えた場合に、積極的なコミュニケーションを行っていると判断し、動きの大きさがしきい値以下の場合には、コミュニケーションに消極的に関与していると判断する。また、非対面時においては、動きの大きさが一定のしきい値以下の時には、インタラプト(電話や会話)が無く、集中して業務に取り組める状態にあると判断し、逆に、動きの大きさがしきい値を超えた場合には、集中できていないと判断する。
 これを、センサデータを使用して表に整理したものを図7-aに示す。図7-aでは、加速度データおよび対面データを用いて、メンバがその他のメンバとの対面している時、つまり、議論やコミュニケーションの場において、動きが少ない場合(加速度センサによる測定結果が静止状態に近い場合)には、受動的対話をしていると判定し、動きが多い場合(加速度センサによる測定の結果、うなずいている、発言している、に相当する動きの大きさが検出された場合)には、積極的に対話に参加している、ということを判別する。
 また、メンバがその他のメンバとの対面していない時、つまり、個人での作業をしていると思われる状況において、動きが少ない場合(加速度センサによる測定結果が静止状態に近い場合)には、集中状態にある、もしくは、集中できる環境にあると判定し、動きが多い場合(加速度センサによる測定の結果、うなずいている、発言している、に相当する動きの大きさが検出された場合)には、電話などの様々なインタラプト要因によって、個人業務に集中できていない状態にある、と判別する。
 動きの少なさ・多さ、を識別するために、所定の加速度(例えば、加速度2Hz)を動きの大きさをしきい値として用いることで、以下、業務品質判定フローの説明を図7-bを用いて行う。
 まず、それぞれのメンバの就業時間内を一定の時間スロットに分割して、各時間スロットにおいて、その時間に、名札ノードを装着しているかどうかを判定する(STEP11)。装着しているかどうかは、センサノードが照度センサ(LS1F、LS1B)により取得する照度により判定できる。名札ノードを装着していない場合には、オフィス外で業務を行っていたと判定する(STEP12)。名札ノードを装着していた場合、その時間に対面判定を行う(STEP13)。
 対面と判定された場合、加速度の大きさが2Hzより大きい状態が一定時間継続しているか判定する(STEP14)。加速度の大きさが2Hzより大きい状態が一定時間継続していた場合には、積極的対話を行っていたと判定し(STEP14)、2Hz以下の場合には、受動的対話を行っていたと判定する(STEP15)。
 また、STEP13にて、対面していないと判定された場合、加速度の大きさが2Hzより大きい状態が一定時間継続しているかを判定する(STEP17)。加速度の大きさが2Hzより大きい状態が一定時間継続していた場合には、個人業務がインタラプトされていると判定し(STEP18)、2Hz以下の場合には、個人業務に集中していると判定する(STEP19)。
 このように、対面情報と加速度情報とのコンビネーションにより、個人の業務クオリティを測定する。具体的には、会議や議論の場で積極的な対話を行っているか、個人業務に集中しているか否かを判定する。これにより、メンバ自身の業務能力を高めること、メンバ間のコミュニケーションを促すことによってさらなる知識創造を促進することが可能となる。
 図8は、これらの判定結果を時系列のチャートとして示したものである。メンバAの結果(CHT01)については、個人業務への集中時間が多いが、コミュニケーションは受動的である、といった特徴が現れている例であり、メンバBの結果(CHT02)については、積極的対話が多いが、個人業務への集中時間があまり取れていない、といった特徴が現れている例を示したものである。このように、対話の積極性、個人業務の集中度を時間軸でみることにより、個人業務と相互作業(他とのコミュニケーション)のバランスを把握することができる。
 さらに、図9-aには、2つのチームの各メンバの業務品質について、横軸に集中時間を、縦軸に対話時の積極性とってマッピングした業務バランスチャートの例(CHT03)を示す。この例においては、チーム1のメンバについては、活発なコミュニケーションが取られているが、集中の継続が行われていない傾向が現れており、また、チーム2のメンバについては、集中の継続は多いが、コミュニケーションが活発でない、といった傾向が現れている。
 このような組織表現の方法によって、個人としてのみならず組織としての働き方のバランスの見直しや、働き方を理想に近づけて業務の質を高めるための施策を実施すること、さらには、その施策実施後のフォローアップを適切に行うことが可能となる。
 また、一定期間での、積極的対話、受動的対話の量を組織のメンバ間で測定し、メンバ毎の関係として表すこともできる。例えば図13-aに示すように、メンバAとメンバBとの間のコミュニケーションにおいて、メンバAがメンバBに対して積極度が高い場合に、2者間のリンク上にて、積極的なメンバAに「+」を、受動的なメンバBに「-」を表記するものとする。この表記を、その他のメンバも含むネットワーク図上に示すことで、積極的会話をする傾向があるメンバ(「+」が集まっている)と受動的な会話をする傾向があるメンバ(「-」が集まっている)を分類することが可能となる。さらに、別の表現として、図13-bに示すように、「+」が集まっているメンバに対してパターンAのハッチング(PTNA)を付与し、「-」が集まっているメンバに対して、別のパターンBのハッチング(PTNB)を付与することで、例えば、パターンAのメンバをピッチャー型、パターンBのメンバをキャッチャー型と判定し、コミュニケーションの流れのダイナミクスをよりわかりやすく表示することも可能となる。
 図9-aでは、組織、チームとしての働き方の傾向を可視化する例を示したが、具体的に組織の業務品質を指標として定義して、時系列的にモニタを行う例について、図9-bおよび図10を用いて説明する。図9-bにおいては、チームの業務品質を、対話時積極性と個人業務集中継続時間を共に高めることを理想とした指標定義方法について示している(CHT04)。例えば、対話時積極性と個人業務集中継続時間の両方を考慮する指標作成の簡易な方法のひとつとして、チーム内のメンバの対話時積極性と個人業務集中継続時間のそれぞれの平均値を求め、双方の平均値の積を業務品質指標として用いる。図9-bの例ではチーム1の積極性の平均が0.57、業務集中継続の平均が18であった場合、これらの積による10.26がチーム1の指標となる。また、同様にチーム2の業務品質指標は16.8となる。これらを時系列的にプロットしたものを図10に示す(CHT05)。
 この表示方法により、各チームの業務品質をモニタすることが可能となり、例えば、業務改善施策を実施した場合の効果を測定する、チーム間の比較を行うなど、従来は可視化することのできなかったホワイトカラー業務の特徴となる指標を時系列的に可視化することで、業務の生産性向上に寄与することが可能となる。
 ホワイトカラー業務においては、組織のメンバが能力を発揮するための空間作りも重要となる。そこで業務を行うワークプレースが組織のメンバの活動にどのように寄与しているのかを明確にすることが、ワークプレースの設計や運用に必要な情報となる。そこで、図11に、図8に示したメンバの業務チャートに対して、業務を行った場所の情報(例として、自席、実験室、会議室、打合せスペース)に応じたアイコンをマッピングした業務チャート(CHT06)を示す。なお、メンバが活動する場所の特定方法としては、メンバ間の対面と同様に、空間側に赤外線の送信を行うノードを設置し、使用者の変わりに空間を識別できる名称を割り当てておけば良い。また、センサノードが通信を行う基地局の位置によって特定することもでき、メンバが活動する場所の特定方法は上述した方法に限定されない。
 このような可視化結果によって、業務集中や積極的なコミュニケーションが起こりやすい空間要因を明確化することが可能となり、その組織のメンバが能力を発揮しやすい状況を作ることが可能となり、ホワイトカラー業務の生産性向上を実現することが可能となる。
 (実施の形態3)
 本発明の第3の実施形態を、図面を参照して説明する。第3の実施例では、ホワイトカラー業務の生産性を示す指標作成方法について説明する。具体的にはセンサデータと個人の主観評価の双方を用いて個人のパフォーマンス分析を行う例について説明する。
 パフォーマンス入力(C)には、前述のように、何らかの基準に基づいて判定される主観的又は客観的な評価が格納されている。例えば、本実施の形態では、人(Social)、行(Intellectual)、心(Spiritual)、体(Physical)、知(Executive)のパフォーマンスについての個人の主観評価が、一定の間隔にて、入力されているものとする。ここで、人については「豊かな人間関係(協力・共感)をつくれましたか」、行は「やるべきことを実行できましたか」、心は「仕事にやりがい、充実感を感じましたか」、体は「体に配慮(休養・栄養・運動)できましたか」、知は「新しい知(気づき、知識)を得ましたか」といった質問に対して、10段階程度のレーティングを周期的に行うものとする。
 組織に関するパフォーマンスは、個人のパフォーマンスから算出されてもよい。売上高又はコスト等の客観的なデータ、及び、顧客のアンケート結果等の既に数値化されているデータが、パフォーマンスとして定期的に入力されてもよい。生産管理等におけるエラー発生率等のように、自動で数値が得られる場合、得られた数値が自動的にパフォーマンスの値として入力されてもよい。これらパフォーマンスの結果は、パフォーマンステーブル(BB)に格納される。
 図12-aに示すように、パフォーマンステーブル(BB)に格納されているパフォーマンスデータ(PFM)および、データテーブル(BA)に格納されている加速度センサ(BAD)のデータを使用して、個人のパフォーマンス分析を行う例を示す。これら、パフォーマンスデータ(PFM)および、加速度センサ(BAD)のデータは、個人・組織ダイナミクス解析(D)に入力されると、それぞれ、項目選択(ISEL)、リズム抽出(REXT)の処理が行われる。ここで、項目選択とは、複数のパフォーマンスの中で解析対象となるパフォーマンスを選択するものである。また、リズム抽出とは、加速度データから得られる所定範囲内の周波数(例えば1~2Hz)などの特徴量(リズム)を抽出するものである。これらの、時系列のパフォーマンス変化(人(Social)、行(Intellectual)、心(Spiritual)、体(Physical)、知(Executive))および、それぞれのリズム(例えば、T1~T4の4種類のリズム)の時系列変化に関して、統計相関処理(STAT)が行われ、どのパフォーマンスがどのリズムと相関しているかについて計算される。
 計算結果をレーダーチャートとして示したものを図12-bに示す(RDAT)。この表示方法では、それぞれのパフォーマンス項目と相関の強いリズムが五角形の外側に、相関がないリズムが五角形の周辺に、また、負に相関しているリズムが、五角形の内側に表示される。
 なお、上記の例は、パフォーマンスについて、個人の主観評価を用いたが、売上高、コスト、処理遅延、等の客観的なデータと行動要因との相関を計算することも可能となる。
 このように、センサデータとパフォーマンスを組み合わせてホワイトカラー業務の生産性を示す指標を作成することにより、各個人は、自分のパフォーマンスに影響を及ぼしている行動要因(リズム)を知ることができ、パフォーマンス向上のための行動改善などに結果を役立てることができる。
 実施例2及び3では、ホワイトカラー業務の生産性を示す有効な指標作成方法について説明した。実施例1で説明したように、センサネットサーバ(SS)、アプリケーションサーバ(AS)にて、これらの指標を個人情報を含まない組織ダイナミクス情報として構成し、顧客サイトのサービスゲートウェイにて個人情報に変換することにより、組織ダイナミクス情報をわかりやすく提供することも可能である。
 以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものでなく、種々変形実施可能であり、上述した各実施形態を適宜組み合わせることが可能であることは、当業者に理解されよう。
 組織に属する各人物に装着したセンサからその人物のコミュニケーションデータを取得し、当該コミュニケーションデータから組織ダイナミクスを分析することにより、その組織に分析結果を提供するサービスが実現できる。
 TR 名札型センサノード
 GW 基地局
 SVG サービスゲートウェイ
 SS センサネットサーバ
 AS アプリケーションサーバ
 CL クライアントPC
 
 

Claims (13)

  1.   複数の端末と、サービスゲートウェイと、上記サービスゲートウェイを介して上記複数の端末から送信されるセンサデータを処理するサーバと、からなる人間行動分析システムであって、
      上記端末は、上記センサデータを取得するセンサと、上記センサデータと端末識別情報とを上記サービスゲートウェイへ送信する第1の送受信部とを有し、
      上記サーバは、上記センサデータに基づいて、各端末のユーザが属する組織の組織分析データを算出する制御部と、上記組織分析データを上記サービスゲートウェイへ送信する第2の送受信部とを有し、
      上記サービスゲートウェイは、インターネットを介して上記サーバと接続され、上記組織分析データから抽出される上記端末識別情報を上記ユーザの個人情報に変換する変換部と、上記個人情報を含む上記組織分析データを接続される表示装置に出力する第3の送受信部と、を有することを特徴とする人間行動分析システム。
  2.  請求項1に記載の人間行動分析システムであって、
     上記第3の送受信部は、上記表示装置から要求があった場合に、上記個人情報を含む上記組織分析データを送信することを特徴とする人間行動分析システム。
  3.  請求項1に記載の人間行動分析システムであって、
     上記サービスゲートウェイは、上記端末識別情報と上記個人情報とを対応づける変換表をさらに有することを特徴とする人間行動分析システム。
  4.  請求項1に記載の人間行動分析システムであって、
     上記制御部により算出された組織分析データは上記個人情報を含まない文字列を含むことを特徴とする人間行動分析システム。
  5.  請求項4に記載の人間行動分析システムであって、
     上記サービスゲートウェイは、上記個人情報への変換対象となる端末識別情報を記録するフィルタリングポリシを有し、
     上記変換部は、上記組織分析データから抽出される端末識別情報が上記フィルタリングポリシへの登録内容に従って、上記個人情報への変換を制御することを特徴とする人間行動分析システム。
  6.  複数の端末と、上記複数の端末から送信されるデータを処理するサーバと、からなる人間行動分析システムであって、
      上記端末は、他の端末との対面データを取得する赤外線センサと、加速度データを取得する上記加速度センサと、上記対面データと上記加速度データとをサーバに送信する第1の送受信部と、を有し、
     上記サーバは、上記対面データ及び上記加速度データを受信する第2の送受信部と、上記対面データ及び上記加速度データに基づいて上記端末のユーザの業務の質を測定する制御部と、を有することを特徴とする人間行動分析システム。
  7.   請求項6に記載の人間行動分析システムであって、
      上記制御部は、上記対面データから上記ユーザが他のユーザと対面している判定した場合、上記加速度データから上記ユーザの対話積極性を測定することを特徴とする人間行動分析システム。
  8.   請求項7に記載の人間行動分析システムであって、
     上記制御部は、上記対面データから上記ユーザが他のユーザと対面していないと判定した場合、上記加速度データから上記ユーザの個人業務集中度を測定することを特徴とする人間行動分析システム。
  9.  請求項8に記載の人間行動分析システムであって、
     上記対話積極性及び上記個人業務集中度を時系列に表示することを特徴とする人間行動分析システム。
  10.  請求項8に記載の人間行動分析システムであって、
     上記対話積極性と上記個人業務の集中継続時間とを二軸とする座標平面上に、上記ユーザに対応する記号をプロットして表示することを特徴とする人間行動分析システム。
  11.  請求項8に記載の人間行動分析システムであって、
     上記制御部は、複数の上記対話積極性及び複数の上記個人業務集中度を用いて、複数の上記ユーザが属する組織の業務品質指標を算出することを特徴とする人間行動分析システム。
  12.  請求項7に記載の人間行動分析システムであって、
     上記制御部は、所定期間内における複数の上記ユーザ間の対話積極性を測定し、上記複数のユーザが属する組織の中で、上記対話積極性が高いユーザと上記対話積極性が少ないユーザの分類を行うことを特徴とする人間行動分析システム。
  13.  請求項12に記載の人間行動分析システムであって、
     上記複数のユーザを対面ネットワーク上のノードとし、上記分類の結果に対応する記号を上記ノードに付して表示することを特徴とする人間行動分析システム。
PCT/JP2009/059601 2008-05-26 2009-05-26 人間行動分析システム WO2009145187A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/993,551 US20110099054A1 (en) 2008-05-26 2009-05-26 Human behavior analysis system
JP2010514492A JP5153871B2 (ja) 2008-05-26 2009-05-26 人間行動分析システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-136187 2008-05-26
JP2008136187 2008-05-26

Publications (1)

Publication Number Publication Date
WO2009145187A1 true WO2009145187A1 (ja) 2009-12-03

Family

ID=41377060

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/059601 WO2009145187A1 (ja) 2008-05-26 2009-05-26 人間行動分析システム

Country Status (3)

Country Link
US (1) US20110099054A1 (ja)
JP (2) JP5153871B2 (ja)
WO (1) WO2009145187A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011102047A1 (ja) * 2010-02-22 2011-08-25 株式会社日立製作所 情報処理システム、およびサーバ
WO2011145312A1 (ja) * 2010-05-21 2011-11-24 株式会社日立製作所 情報処理システム、サーバ、及び情報処理方法
JP2012083676A (ja) * 2010-10-15 2012-04-26 Hitachi Ltd センシングデータ表示装置および表示システム
WO2013008673A1 (ja) * 2011-07-08 2013-01-17 株式会社日立製作所 センサ端末装置、対面状態検出装置及び対面状態検出方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10049336B2 (en) 2013-02-14 2018-08-14 Sociometric Solutions, Inc. Social sensing and behavioral analysis system
US10423646B2 (en) 2016-12-23 2019-09-24 Nokia Of America Corporation Method and apparatus for data-driven face-to-face interaction detection
CN111985186A (zh) * 2020-08-26 2020-11-24 平安国际智慧城市科技股份有限公司 一种字典项转换方法、api网关系统、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252003A (ja) * 1998-03-04 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> モバイルユーザ向け情報案内における個人情報案内方法および装置と個人情報案内プログラムを記録した記録媒体
JP2004348179A (ja) * 2003-05-19 2004-12-09 National Institute Of Advanced Industrial & Technology 人間関係データの作成方法、人間関係データの作成プログラム及び人間関係データの作成プログラムを記録したコンピュータ読取可能な記録媒体
JP2005131748A (ja) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International 関係検知システム
JP2005327156A (ja) * 2004-05-17 2005-11-24 Advanced Telecommunication Research Institute International 関係検知システム
JP2007026419A (ja) * 2005-06-17 2007-02-01 Hitachi Ltd ソーシャルネットワーク情報の管理方法およびそのシステム
JP2007193685A (ja) * 2006-01-20 2007-08-02 Fujitsu Ltd 人脈情報表示プログラム、該プログラムを記録した記録媒体、人脈情報表示装置、および人脈情報表示方法
JP2007317238A (ja) * 2007-08-31 2007-12-06 National Institute Of Advanced Industrial & Technology 人間関係データの作成方法、人間関係データの作成プログラム及び人間関係データの作成プログラムを記録したコンピュータ読取可能な記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3846844B2 (ja) * 2000-03-14 2006-11-15 株式会社東芝 身体装着型生活支援装置
US20040103139A1 (en) * 2000-03-30 2004-05-27 United Devices, Inc. Distributed processing system having sensor based data collection and associated method
JP2005102773A (ja) * 2003-09-29 2005-04-21 Microstone Corp 学生の行動管理システム
JP4633373B2 (ja) * 2004-03-10 2011-02-16 公立大学法人会津大学 生体情報処理システム
JP4808409B2 (ja) * 2005-01-14 2011-11-02 株式会社日立製作所 センサネットワークシステム、センサデータの検索方法及びプログラム
US20080183525A1 (en) * 2007-01-31 2008-07-31 Tsuji Satomi Business microscope system
US20080263080A1 (en) * 2007-04-20 2008-10-23 Fukuma Shinichi Group visualization system and sensor-network system
JP5010985B2 (ja) * 2007-05-30 2012-08-29 株式会社日立製作所 センサノード

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252003A (ja) * 1998-03-04 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> モバイルユーザ向け情報案内における個人情報案内方法および装置と個人情報案内プログラムを記録した記録媒体
JP2004348179A (ja) * 2003-05-19 2004-12-09 National Institute Of Advanced Industrial & Technology 人間関係データの作成方法、人間関係データの作成プログラム及び人間関係データの作成プログラムを記録したコンピュータ読取可能な記録媒体
JP2005131748A (ja) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International 関係検知システム
JP2005327156A (ja) * 2004-05-17 2005-11-24 Advanced Telecommunication Research Institute International 関係検知システム
JP2007026419A (ja) * 2005-06-17 2007-02-01 Hitachi Ltd ソーシャルネットワーク情報の管理方法およびそのシステム
JP2007193685A (ja) * 2006-01-20 2007-08-02 Fujitsu Ltd 人脈情報表示プログラム、該プログラムを記録した記録媒体、人脈情報表示装置、および人脈情報表示方法
JP2007317238A (ja) * 2007-08-31 2007-12-06 National Institute Of Advanced Industrial & Technology 人間関係データの作成方法、人間関係データの作成プログラム及び人間関係データの作成プログラムを記録したコンピュータ読取可能な記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NORIHIKO MORIWAKI ET AL.: "Soshiki Katsudo Kashika System 'Business Kenbikyol", ITE TECHNICAL REPORT, vol. 31, no. 44, 30 September 2007 (2007-09-30), pages 31 - 36 *
SATOMI TSUJI ET AL.: "'Business Kenbikyo' o Mochiita Communication Style Kashika Hoho", ITE TECHNICAL REPORT, vol. 31, no. 44, 30 September 2007 (2007-09-30), pages 37 - 42 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011102047A1 (ja) * 2010-02-22 2011-08-25 株式会社日立製作所 情報処理システム、およびサーバ
JPWO2011102047A1 (ja) * 2010-02-22 2013-06-17 株式会社日立製作所 情報処理システム、およびサーバ
JP5662993B2 (ja) * 2010-02-22 2015-02-04 株式会社日立製作所 情報処理システム、およびサーバ
WO2011145312A1 (ja) * 2010-05-21 2011-11-24 株式会社日立製作所 情報処理システム、サーバ、及び情報処理方法
JP5396537B2 (ja) * 2010-05-21 2014-01-22 株式会社日立製作所 情報処理システム、サーバ、及び情報処理方法
JP2012083676A (ja) * 2010-10-15 2012-04-26 Hitachi Ltd センシングデータ表示装置および表示システム
WO2013008673A1 (ja) * 2011-07-08 2013-01-17 株式会社日立製作所 センサ端末装置、対面状態検出装置及び対面状態検出方法
JP2013020338A (ja) * 2011-07-08 2013-01-31 Hitachi Ltd 対面検出方式

Also Published As

Publication number Publication date
JP5503719B2 (ja) 2014-05-28
US20110099054A1 (en) 2011-04-28
JPWO2009145187A1 (ja) 2011-10-13
JP5153871B2 (ja) 2013-02-27
JP2013061975A (ja) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5503719B2 (ja) パフォーマンス分析システム
JP5372588B2 (ja) 組織評価装置および組織評価システム
JP5764473B2 (ja) イベントデータ処理装置
JP5010985B2 (ja) センサノード
JP5160818B2 (ja) ビジネス顕微鏡システム
Olguín et al. Sensible organizations: Technology and methodology for automatically measuring organizational behavior
JP5055153B2 (ja) 解析システムおよび解析サーバ
US20080263080A1 (en) Group visualization system and sensor-network system
JP2009211574A (ja) 作業品質を測定するサーバ及び作業品質を測定するセンサネットワークシステム
US20080183525A1 (en) Business microscope system
US20170337842A1 (en) Sensor data analysis system and sensor data analysis method
US20220000405A1 (en) System That Measures Different States of a Subject
JP5400895B2 (ja) 組織行動分析装置及び組織行動分析システム
Waber et al. Organizational engineering using sociometric badges
JP2010198261A (ja) 組織連携表示システム及び処理装置
JP2018097459A (ja) 行動推薦システム及び行動推薦方法
WO2019049356A1 (ja) 情報処理システム
JP5591725B2 (ja) センサ情報処理分析システム及び解析サーバ
JP2010217939A (ja) 知識創造行動分析システム、及び、処理装置
JP5506593B2 (ja) センサデータ収集システム
JP5879352B2 (ja) コミュニケーション解析装置、コミュニケーション解析システム、およびコミュニケーション解析方法
JP5025800B2 (ja) グループ可視化システム及びセンサネットワークシステム
JP2013008149A (ja) 業務上対面データ生成装置およびシステム
JP6594512B2 (ja) 心理状態計測システム
WO2011102047A1 (ja) 情報処理システム、およびサーバ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09754695

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010514492

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12993551

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09754695

Country of ref document: EP

Kind code of ref document: A1