WO2021191941A1 - プラント運転支援装置、プラント運転支援方法 - Google Patents

プラント運転支援装置、プラント運転支援方法 Download PDF

Info

Publication number
WO2021191941A1
WO2021191941A1 PCT/JP2020/012602 JP2020012602W WO2021191941A1 WO 2021191941 A1 WO2021191941 A1 WO 2021191941A1 JP 2020012602 W JP2020012602 W JP 2020012602W WO 2021191941 A1 WO2021191941 A1 WO 2021191941A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
teamwork
support
index value
user
Prior art date
Application number
PCT/JP2020/012602
Other languages
English (en)
French (fr)
Inventor
健太 深見
麻美 成瀬
光伸 吉永
南美 山本
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US17/789,553 priority Critical patent/US11934986B2/en
Priority to JP2022509758A priority patent/JP7305030B2/ja
Priority to PCT/JP2020/012602 priority patent/WO2021191941A1/ja
Priority to CA3171492A priority patent/CA3171492A1/en
Publication of WO2021191941A1 publication Critical patent/WO2021191941A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Definitions

  • This application relates to a plant operation support device and a plant operation support method.
  • GUI graphical user interface
  • plant operation management is performed by an operation team consisting of multiple people who monitor and operate the central control panel of the monitoring and control room.
  • an evaluation method has been proposed in which teamwork during driving training is evaluated and appropriate advice is presented in the case of malfunction (see, for example, Patent Documents 1 and 2). .).
  • Japanese Unexamined Patent Publication No. 2003-271048 paragraphs 0027 to 0031, FIG. 2
  • Japanese Unexamined Patent Publication No. 2019-36205 paragraphs 0022 to 0023, 0049 to 0051, FIG. 1
  • the purpose of this application is to disclose the technology for solving the above-mentioned problems, and to evaluate teamwork and support appropriate plant operation without preparing fixed correct answer data. And.
  • the plant operation support device disclosed in the present application is provided corresponding to each of a plurality of members constituting the team, and is an output device that presents information for performing plant operation as the team, and each of the plurality of members.
  • an index value obtained by quantifying the degree of each evaluation item is used for a plurality of evaluation items for evaluating any of the state, the communication state between the members, and the workload state of each of the plurality of members.
  • An index value calculation unit to be calculated, a teamwork evaluation unit that evaluates the teamwork of the team based on the index value, and a support target person including a member of the team are selected based on the evaluation result of the teamwork.
  • the teamwork evaluation unit is provided with a presentation information generation unit that generates , The feature is to evaluate the teamwork.
  • the plant operation support method disclosed in the present application is one of a state of each of a plurality of members who operate the plant as a team, a state of communication between the members, and a workload state of each of the plurality of members.
  • an index value calculation step for calculating an index value quantified for each evaluation item
  • a teamwork evaluation step for evaluating the teamwork of the team based on the calculated index value
  • the support target person including the members of the team is selected, and the support content determination step for determining the support content according to the selected support target person, and each of the selected support target people
  • the teamwork evaluation step includes a support content presentation step for presenting the determined support content, and is a combination of logical expressions for comparing the threshold value set for each of the plurality of evaluation items and the calculated index value. It is characterized in that the teamwork is evaluated by using the constructed evaluation logic.
  • teamwork is evaluated using an evaluation logic composed of a combination of logical expressions, so a fixed correct answer data should be prepared. It is possible to evaluate teamwork and support appropriate plant operation.
  • FIG. 1 It is a block diagram for demonstrating the structure of the plant operation support apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the hardware configuration of the plant operation support apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the data structure stored in the procedure database in the plant operation support apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which visualized a part of the index value calculated for a certain user in the plant operation support apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the data structure of the index prediction value of the workload calculated by the index prediction value calculation unit in the plant operation support apparatus which concerns on Embodiment 1.
  • FIG. 5 is a flowchart showing an evaluation logic for determining whether or not the authority gradient stored in the evaluation logic database is high in the plant operation support device according to the first embodiment. It is a figure which shows the data structure of the teamwork evaluation data evaluated by the teamwork evaluation part in the plant operation support apparatus which concerns on Embodiment 1. FIG. It is a figure which shows the data structure of the support content determination table which the support content determination part has in the plant operation support apparatus which concerns on Embodiment 1. FIG. It is a figure which shows the screen display example of the operation support information when it is evaluated that the team performance has deteriorated in the plant operation support device which concerns on Embodiment 1. FIG.
  • FIG. 1 It is a flowchart for demonstrating the operation of updating the evaluation logic in the plant operation support apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the screen display example at the time of editing the evaluation logic by the screen operation in the plant operation support apparatus which concerns on Embodiment 1.
  • FIG. It is a figure for demonstrating the data at the time of determining the start of change at the time of automatically changing the evaluation logic in the plant operation support apparatus which concerns on Embodiment 1.
  • Embodiment 1. 1 to 13 are for explaining the plant operation support device or the plant operation support method according to the first embodiment
  • FIG. 1 is a block diagram for explaining a plant operation support device configuration
  • FIG. 2 is a block diagram.
  • FIG. 3 is a flowchart for explaining the operation of the plant operation support device, that is, the plant operation support method.
  • FIG. 4 is a diagram showing a data structure stored in the procedure database constituting the plant operation support device.
  • FIG. 5 is a time-series visualization of a part of the index value calculated for a certain user calculated by the index prediction value calculation unit
  • FIG. 6 is the workload calculated for each user by the index prediction value calculation unit. It is a figure which shows the data structure of the index predicted value.
  • FIG. 7 is a flowchart showing the structure of the evaluation logic stored in the evaluation logic database to determine whether or not the authority gradient is high
  • FIG. 8 is a diagram showing the data structure of the teamwork evaluation data evaluated by the teamwork evaluation unit.
  • FIG. 9 is a diagram showing a data structure of a support content determination table possessed by the support content determination unit.
  • FIG. 10 is a diagram showing an example of screen display of driving support information when it is evaluated that team performance has deteriorated from the viewpoint of the authority of the supervisor
  • FIG. 11 is a flowchart for explaining an operation of updating the evaluation logic
  • FIG. 12 is a flowchart.
  • FIG. 13 is a diagram showing a screen display example when the evaluation logic is edited by screen operation
  • FIG. 13 is a diagram for explaining data when determining the start of change when the evaluation logic is automatically changed.
  • the operation of the plant by the prerequisite operation team will be described.
  • the operation of a plant is performed by an operation team consisting of a plurality of people who monitor and operate the central control panel of the monitoring control room.
  • the team consists of multiple operators who monitor and operate, and supervisors who monitor the work instructions and actions of the operators. Operators and supervisors are provided with their own input / output devices and output devices (input / output devices) for monitoring and control, and use the input / output devices given to them to monitor and control the plant. implement.
  • the supervisor first instructs the operator on the work contents.
  • the operator carries out the work using the given input / output device.
  • the operator reports the completion to the supervisor, and the supervisor uses his / her own input / output device to confirm the work performed by the operator.
  • the operation mode of the plant in addition to the case where all the members of the operation team are in the monitoring and control room and the operation is performed while performing oral communication, the operator of the monitoring and control room and the supervisor in a remote place are remote. It is also assumed that you will communicate with.
  • each operator executes the task assigned to him / her according to the instructions from the supervisor according to the procedure.
  • a situation where the workload is high for the operator such as a situation where task execution is required within a limited time, human errors such as deterioration of work efficiency, operation error, and situational awareness error may occur.
  • the plant operation support device 10 of the present application includes a plant status determination processing unit 20 that determines the status of a plant (not shown) and a user information collection processing unit 30 that collects and processes user information. Then, based on the evaluation logic L4, the teamwork evaluation processing unit 40 that evaluates the teamwork state from the information on the situation of the plant and the user, and the support information that presents the support information based on the evaluation result (teamwork evaluation data E4).
  • the presentation processing unit 50 is provided. Further, it includes an evaluation logic update processing unit 60 that updates the evaluation logic L4 used for evaluating the teamwork state, which is a characteristic configuration of the present application.
  • the plant status determination processing unit 20 identifies the plant information collection unit 21 that collects plant information, the plant information database 22 that stores the collected data, the procedure database 23 that stores the operation procedure data, and the current work step. It has a procedure determination unit 24.
  • the database is abbreviated as "DB”.
  • the user information collection processing unit 30 includes a user information collection unit 31 that collects data of supervisors and operators (collectively referred to as users) forming a driving team, and a user information database 32 that stores the collected user information. Have.
  • the teamwork evaluation processing unit 40 includes an index value calculation unit 41 that calculates an index value (index data D41) required for teamwork evaluation, an index prediction value calculation unit 42 that calculates a time-series index prediction value P42 for each user, and It has a teamwork evaluation unit 43 that evaluates teamwork. It also has an evaluation logic database 44 that stores the evaluation logic L4 used for teamwork evaluation.
  • the support information presentation processing unit 50 determines the support content based on the teamwork evaluation result (teamwork evaluation data E4), the support content determination unit 51, the support result database 52 that accumulates the determined support content, and the support content. It has a presentation information generation unit 53 that generates presentation data. Then, it has a plurality of output devices 54 that are assigned to each of the operators and supervisors constituting the team and present the generated presentation information to the necessary users.
  • the evaluation logic update processing unit 60 has an evaluation logic update unit 61 that updates the evaluation logic L4 based on the support content data stored in the support result database 52 and the data stored in the evaluation logic database 44. .. Further, it has an input device 62 that receives input of necessary data by the user when updating the evaluation logic L4.
  • the plant operation support device 10 is configured by a combination of a plurality of functions, and is configured by combining independent hardware such as an execution procedure determination unit 24 and an index value calculation unit 41. It does not mean to do.
  • the processor 11, the memory 12, the hard disk 13, the input device 14, the output device 15, and the system bus 16 connecting them are configured, and each function is realized by the installed software. It may be one.
  • the memory 12 and the hard disk 13 function as storage devices, and are provided with a volatile storage device such as a random access memory and a non-volatile auxiliary storage device such as a flash memory, although not shown. Further, a hard disk may be provided as an auxiliary storage device instead of the flash memory.
  • the processor 11 executes the program input from the storage device. In this case, a program is input from the auxiliary storage device to the processor 11 via the volatile storage device. Further, the processor 11 may output data such as a calculation result to the volatile storage device of the storage device, or may store the data in the auxiliary storage device via the volatile storage device.
  • the plant operation support device 10 evaluates teamwork based on the plant status and the user status (user information), and when support is required, the support information is output to the output device 54. The operation up to the presentation will be described.
  • the plant status determination processing unit 20 determines the procedure and work step performed by the user based on the plant information and the operation procedure information, and transmits the result to the teamwork evaluation processing unit 40. ST101 will be described.
  • the plant information collection unit 21 periodically collects the plant data D22 from the plant information database 22 and transmits it to the implementation procedure determination unit 24 together with the acquired time.
  • the plant information database 22 stores, for example, plant state information including alarms of various plant equipment such as pumps and valves, plant state information including parameter values, and operation log information which is operation log information of operators and supervisors. There is. Further, the operation log information is composed of work contents (including work identification information D233 described later), user identification information D321 indicating a user ID, and time data.
  • the data in the plant information database 22 may be real-time data generated by the plant or data recorded in the past plant operation.
  • the procedure database 23 stores information on the response procedure for each event and the work steps constituting the procedure.
  • the procedure information D23 defines a procedure consisting of one or more for each event, and the procedure is composed of work steps consisting of one or more.
  • Event identification information D231 indicating an event ID is assigned to an event
  • procedure identification information D232 indicating a procedure ID is assigned to a procedure
  • work identification information D233 indicating a work ID is assigned to each work step.
  • standard work time information D235 indicating the standard work time
  • workload value information D236 indicating the work load value
  • work start condition information D237 indicating the work start condition
  • work end condition information D238 indicating the work end condition
  • the standard work time is the time normally required to execute each work step (work time including waiting time due to plant behavior).
  • the workload value is a load (work load) applied to human work (confirmation of an object, operation, etc.) in performing a work step.
  • the workload value includes, for example, the time required for human action.
  • a workload value can be calculated by adding up human perception, cognitive brain processing time, and physical body movement time when performing work steps using a method based on a known human information processing model. ..
  • the work start condition and the work end condition are conditions for starting or ending the work step. Examples of work start conditions include operation logs (determined that operation has started), plant equipment parameter values that are operation start conditions, alarm issuance, and work end conditions are, for example, plant equipment parameter value conditions and alarm stop. It is stipulated.
  • the implementation procedure determination unit 24 receives the plant status information and the operation log information from the plant information collection unit 21, identifies the event that has occurred, the response procedure associated with the event, and the current work step. Inside the implementation procedure determination unit 24, there is a knowledge base that stores data necessary for determining an event, such as the relationship between the cause of a defect and the ripple of an event. An event is specified using the acquired plant state information, and the event identification information D231 corresponding to the event is obtained by referring to the procedure database 23.
  • the procedure ID and the work ID being executed are specified with reference to the work start condition information D237 and the work end condition information D238.
  • the work start time and the work end time are recorded as the work start time information D2391 and the work end time information D2392, respectively.
  • Teamwork with the specified procedure ID, work ID, and information about the user ID being executed (procedure identification information D232, work identification information D233, user identification information D321) together with work start time information D2391 and work end time information D2392. It is transmitted to the evaluation processing unit 40. As a result, step ST101 is completed and the process proceeds to step ST102.
  • the user information collection step ST102 that collects the user's time-series information by the user information collection processing unit 30 and transmits the collected information to the teamwork evaluation processing unit 40 will be described.
  • the user information database 32 stores time-series sensor data (for example, biometric data) of each user acquired by a contact-type or non-contact-type sensor.
  • the user information collecting unit 31 periodically collects biometric data stored in the user information database 32.
  • the user information database 32 stores user identification information D321 that identifies each user and time-series data (sensor data D322) of various sensors in a form that is associated with each other.
  • the supervisor is User-A
  • the operators are User-B and User-C.
  • the sensor data D322 is a combination of the acquired time data and the sensor value, and examples thereof include heart rate, voice, respiration, electrocardiographic waveform, blood pressure, and body temperature.
  • the user information collecting unit 31 transmits the user identification information D321 and various sensor data D322 to the index value calculation unit 41 of the teamwork evaluation processing unit 40 at a predetermined cycle.
  • step ST102 is completed and the process proceeds to step ST103.
  • the plant status determination step ST101 and the user information collection step ST102 may be processed in parallel.
  • the teamwork evaluation processing unit 40 calculates index values and index prediction values required for teamwork evaluation based on the input data from the plant status determination processing unit 20 and the user information collection processing unit 30 (step ST103), and they are used.
  • the teamwork status is evaluated comprehensively (step ST104). Then, when it is evaluated that the team state is not sound (“No” in step ST105), the evaluation result is transmitted to the support information presentation processing unit 50.
  • the index value calculation unit 41 calculates the index value required for teamwork evaluation.
  • indicators include those calculated for each individual user, teamwork indicators between multiple users such as between operators and supervisors, and between operators.
  • Examples of individual indicators include those related to speech, those related to tone, emotions, and those related to workload. Twice
  • the volume of voice, utterance speed, wording (number of times a specific word is spoken, word content, etc.) are used as indicators, and in the case of tone, "spoken in a strong command tone".
  • the number of times "spoken in an intimidating tone” and the number of times "spoken in an intimidating tone” are indicators.
  • the onset time, onset time, and onset time of emotions such as normality, excitement, joy, stress, irritability, depression, fatigue, tension, calmness, and relaxation are indicators.
  • the work load the increase / decrease in the actual work time with respect to the standard work time, the number of work steps performed in parallel, and the like are indicators.
  • an index among a plurality of users for example, how much the conversation pattern matches a series of patterns such as the degree of matching of the conversation pattern (instruction from the supervisor to the operator, repetition of the instruction content of the operator, report of the result of the operator, etc.). ), Interval (time) between conversations, and other indicators related to communication.
  • the index value calculation unit 41 there is an analysis logic for calculating each index value.
  • the individual index is calculated for each individual user in the driving team, and the index between multiple users is calculated by combining the input data of multiple users.
  • the index related to utterance which is an individual index, is calculated by analyzing time-series voice data. For example, the loudness of the voice is calculated from the sound pressure level of the voice data, and the utterance speed, wording, and tone are calculated from the result of voice recognition and text conversion. It is calculated how much the sound pressure level or the utterance speed increases or decreases with respect to the standard value (index value measured in advance in normal times, etc.) for each user.
  • Emotional indicators can be calculated based on voice data and biological data such as heart rate and respiration.
  • the work information corresponding to the work ID obtained from the execution procedure determination unit 24 is referred to from the procedure database 23.
  • the time from the time when the work start condition is satisfied and the work is started to the time when the work end condition is satisfied is measured as the work actual time, and the standard work is performed.
  • the difference from time For example, when the obtained work ID is AI-2, if there is work end time information D2392 in the output data of the execution procedure determination unit 24, it is considered that the step execution is completed.
  • the difference from the work start time information D2391 (for example, 12:23:41) from the work end time (for example, 12:23:50) is calculated (0 hour 0 minute 9 seconds). Further, the time (-0 hours 0 minutes 1 second) obtained by subtracting the standard working time shown in the standard working time information D235 is obtained.
  • the number of work steps being performed in parallel is determined from the user ID, procedure ID, and work ID received from the execution procedure determination unit 24.
  • the degree of matching of conversation patterns which is an index between a plurality of users, is calculated by converting voice data into text through voice recognition, extracting words and phrases indicating instructions, repetitions, result reports, and the like, and calculating the degree of matching with conversation patterns. For example, the instruction is extracted as a phrase indicating "Please XX XX", the repeat is "XX XX", and the result report is "XX XX”.
  • the above-mentioned analysis method is an example, and the implementation method is not limited to this.
  • the index value calculation unit 41 stores the index value of each index, the data used for the index calculation, the user ID, and the processing time data in the database held in the index value calculation unit 41 as time series data.
  • the data used for index calculation voice data, biological data, conversation text data, etc. are accumulated, and as the user ID, one user ID is used for an individual index, and a plurality of related data are used for an index among a plurality of users. Accumulate user ID.
  • the processing time data for example, the time when the index value is calculated is accumulated.
  • the actual work time obtained at the time of calculating the index value of the workload described above is stored as the index data D41 in the database held in the index value calculation unit 41 together with the procedure ID, the work ID, the standard work time, and the user ID.
  • the current time data (work record recording time) and data indicating whether or not the work step is completed (work completed / work in progress) (work step execution status information) are also accumulated as index data D41.
  • the process of calculating the index value in step ST103 is completed.
  • the index prediction value calculation unit 42 calculates the time-series index prediction value of each user by predicting the future movement of the index value as the calculation process of the index prediction value in step ST103, and teamwork the result. It is transmitted to the evaluation unit 43.
  • the index prediction value calculation unit 42 includes a function of simulating future plant operation and a function of predicting the index value, and based on these functions, predicts the workload value of the work step to be implemented in the future for each user.
  • the procedure ID, work ID, work record time, work step execution status information, and standard work time of the latest work record recording time performed by a specific user are obtained. get.
  • the procedure information D23 stored in the procedure database 23 the predicted values of the start time and the end time of each procedure step that occur after the work ID of the procedure ID are calculated.
  • the time that satisfies the work start condition is calculated as the start time by performing plant simulation, and the end time is calculated by adding the standard work time to it.
  • the work start time is the same method.
  • An example is a method in which the end time is set to a time that satisfies the work end condition by calculation and plant simulation.
  • the end time of the work step is predicted, and the plant simulation is performed in consideration of it.
  • the prediction of the end time is calculated as, for example, the time obtained by adding the difference of the actual work time from the standard work time required to complete the work step to the actual work record time.
  • the processing up to this point is performed at a predetermined time (for example, 30 minutes) until the end time of the procedure step is exceeded or until all the work steps in the event are processed. Further, if the user is performing other work steps in parallel, the same processing is performed for that as well.
  • FIG. 5 a part of the index value is visualized in chronological order for a certain user.
  • the user ID is User-B
  • the horizontal axis represents time
  • the length of the rectangle indicating the work W421 to W423 indicates the standard work time
  • the left end and the right end indicate the start time and the end time, respectively.
  • the overlapping parts along the vertical axis indicate the work to be performed in parallel.
  • the ratio of the workload value (actual time related to human behavior) included in the standard working time is used.
  • the work W421 is a work whose work ID is AI-3, and the work load value is 75,000 milliseconds (see FIG. 4) with respect to the standard work time of 2 minutes and 30 seconds (150 seconds). Is 0.5.
  • the index value of the time zone in which the work does not occur is 0, and the index value is the sum of the index values of the respective works W421 to W423 in the time zone in which the plurality of works are performed in parallel. In this way, the time series data of the index value is calculated at predetermined intervals (for example, in units of 1 second).
  • step ST103 is completed and the process proceeds to step ST104.
  • the teamwork evaluation unit 43 based on the time series data of various index values accumulated in the index value calculation unit 41 and the index prediction value P42 output from the index prediction value calculation unit 42. Evaluate teamwork within the team (step ST104). If the teamwork is not sound as a result of the evaluation (“No” in step ST105), the evaluation result is transmitted to the support content determination unit 51 of the support information presentation processing unit 50, and the process proceeds to the support steps (steps ST106 to ST107). .. On the other hand, when the teamwork is sound (“Yes” in step ST105), the process ends without shifting to the support process.
  • the teamwork evaluation unit 43 executes the evaluation process based on the evaluation logic L4 stored in the evaluation logic database 44. Inside the evaluation logic L4, it is determined whether or not there is a state that causes poor teamwork (for example, the authority gradient between the supervisor and the operator is abnormally high / low, the performance of a specific user in the team deteriorates, etc.). There is one or more quantitative criteria for this.
  • the evaluation logic L4 for determining whether or not the teamwork failure corresponds to “high authority gradient” will be described.
  • the high authority gradient means that the authority of the supervisor is abnormally high with respect to the operator, and the operator is atrophied and it is difficult to communicate appropriately with the supervisor.
  • User-A indicates the supervisor
  • User-B and User-C indicate the operator
  • evaluation steps ST4401 and ST4402 in the evaluation logic L4 are for the supervisor
  • evaluation steps ST4403 to ST4407 are for the operator. Represents a step.
  • step ST4410 it is determined whether the authority gradient indicating soundness is high "not applicable” (step ST4410) or the authority gradient indicating unhealthy is high “applicable” (step ST4408 or ST4409). Will be done.
  • the level is set so that the degree can be discriminated in two stages.
  • evaluation is performed in evaluation step ST4407 from the viewpoint of the degree of urgency of countermeasures against this teamwork defect with an eye on the future plant operation situation. Is divided into two levels (level 2 is the one with higher urgency).
  • level 2 is the one with higher urgency.
  • step ST4401 to ST4407 various index values (index data D41) accumulated in the index value calculation unit 41 and the index prediction value P42 calculated by the index prediction value calculation unit 42 are referred to, and the evaluation criteria are set in each evaluation step. Determine if it meets. For example, regarding the evaluation of the emotion index in the evaluation steps ST4401 and ST4403, it is determined whether or not the emotion that causes a problem in teamwork continues for 30 seconds or more by the latest processing time data. For example, in step ST4401 for evaluating the supervisor (User-A), irritability and stress are regarded as problem emotions, and if the problem emotions continue for 30 seconds or more, it is determined that the next evaluation item should be further advanced. If not, a screening evaluation is performed to determine that it is not applicable.
  • the supervisor User-A
  • the evaluation step ST4402 it is determined whether or not the index value related to the tone has one or more "spoken in a strong command tone", and if there is one or more strong command tone, it is determined whether the authority gradient is high. Judge that it should be in a state that should be done, and if not, judge that it is not applicable. That is, a secondary screening evaluation is performed to evaluate whether or not the authority gradient is high. In this way, by screening evaluation according to the state of the supervisor, it is determined in the subsequent evaluation steps whether or not the authority gradient is high, that is, whether or not the driver side is affected.
  • step ST4402 the driver (User-B, User-C) is targeted, and if the problem emotion continues for 30 seconds or more with depression, fatigue, tension, etc. as problem emotions, it is judged that the authority gradient is high. If not, move on to the next evaluation item.
  • preprocessing such as removal of noise (such as a small break in the emotion expression period) of the time-series index value may be executed.
  • the type of emotion held by the user can be determined by whether or not the combination of waveforms such as brain waves and heartbeats matches a pattern stored in advance. Furthermore, the duration of the problem emotion can be measured by the duration of the state. That is, it is possible to quantitatively determine whether it is "Yes” or "No” by using the time-series biometric data collected in the user information database 32.
  • the evaluation step ST4404 compares the standard work time of the work step at the latest time stored in the index value calculation unit 41 with the actual work time, and for example, the actual work time is 10% or more longer than the standard work time (D235 ⁇ ). It is judged by whether or not it is 1.1 or more). It should be noted that the method is not limited to this, such as calculating and judging not only the work step at the latest time but also the work steps before that.
  • the response time (conversation response time) in the conversation in the evaluation step ST4406 is determined based on the index value of the utterance interval in the conversation in the latest processing time data in the index value calculation unit 41. For example, if the conversation response time is 10% or more longer than the standard (standard x 1.1 or more), it is determined that the driver is atrophied and the interval is long, that is, the authority gradient is high.
  • the evaluation step ST4407 is based on the index prediction value P42 for the time-series workload output from the index prediction value calculation unit 42. Determine the level of the gradient. For example, if the predicted workload value is 0.8 or more (“Yes”), it is judged to be level 2 indicating a high level, and if it is less than 0.8 (“No”), it indicates a low level. Judged as level 1. That is, each step is a logical expression that compares the threshold value with the index value and outputs whether or not it is correct, and the evaluation logic L4 outputs a plurality of types of evaluation results by connecting a plurality of logical expressions. Can be done.
  • evaluation is performed for each supervisor and operator, and after reaching any of steps ST4408 to ST4410, if the evaluation result and the authority gradient are determined to be high, the user ID of the related user is determined.
  • the user who is "Yes" in the evaluation item is assumed.
  • step ST4412 it is determined whether or not there is another user who is not the evaluation processing target (step ST4412), and if there is a user who is not the processing target, the process returns to step ST4401, and the other users move to the next determination logic (step). ST4413).
  • the process of evaluating the teamwork of the supervisor (User-A) and the operator (User-B) is given. It is assumed that the operator is carrying out the work whose work ID is AI-1. If the irritability continues for 35 seconds and the stress continues for 33 seconds as a result of the emotion index value of the supervisor (User-A) in step ST4401, the process proceeds to step ST4402. If the supervisor (User-A) tone index includes one "speaking of a strong command tone" in step ST4402, the process proceeds to step ST4403 for evaluating the situation of the operator.
  • step ST4404 determines whether the duration of depression, fatigue, and tension of the operator (User-B) is 28 seconds, 25 seconds, and 20 seconds, respectively. If the duration of depression, fatigue, and tension of the operator (User-B) is 28 seconds, 25 seconds, and 20 seconds, respectively, the process proceeds to step ST4404 to execute the next evaluation item.
  • step ST4404 when the difference in the actual work time from the standard work time of the operator (User-B) is "-0 hours: 0 minutes: 6 seconds", it is 40% shorter than the standard work time (15 seconds). , The process proceeds to step ST4405 for executing the next evaluation item. If the voice volume of User-B is 17% smaller than the reference in step ST4405 (reference x 0.83), the process proceeds to step ST4406 in which the next evaluation item is executed.
  • step ST4406 If the conversation response time between the supervisor (User-A) and the operator (User-B) is 50% higher than the standard (standard x 1.5) in step ST4406, it is determined that the authority gradient is high. Then, the process proceeds to step ST4407.
  • the index predicted value P42 of the workload is the data shown in FIG. 6, in step ST4407, the maximum value of the index predicted value P42 of the workload with respect to User-B is 0.71, which is a reference value. There is no time when it becomes 8 or more. Therefore, although the authority gradient is high, the level is judged to be level 1 indicating a low level (step ST4408).
  • the teamwork evaluation data E4 as shown in FIG. 8 is created. do.
  • the data generated as the team status information D441 indicates the team status that identifies each teamwork defect.
  • Evaluation result information D442 is data showing the evaluation result for each team state, and the result for "authority gradient: high” indicates that "authority gradient of level 1 corresponds to high", and "authority gradient: low”. The result for is "not applicable”.
  • the evaluation result for the team status of "healthy” is "applicable” only when all the evaluation results of poor teamwork are “not applicable”.
  • a mark that identifies the user ID that was applied when determining teamwork failure and the degree of contribution to the failure factor (“ ⁇ ” for the user of the main factor, “ ⁇ ” for the user of the secondary factor).
  • the index value is created as the index value information D444 by collecting the names and values of all the index values used for the determination in the evaluation logic and the user IDs of one or more related users.
  • the teamwork evaluation unit 43 uses a different evaluation logic L4 and uses other items.
  • Can evaluate poor teamwork For example, items such as low authority gradient, poor user performance due to inappropriate workload, poor user performance due to low alertness, excessive trust / dependence on supervisors or operators, team withdrawal due to lack of responsibility, etc. Can be mentioned.
  • the support information presentation processing unit 50 determines the support content based on the teamwork evaluation data E4 output from the teamwork evaluation unit 43, generates presentation information, and presents the support information to the output device 54 of an appropriate user. (Steps ST106 to ST107).
  • the support content determination unit 51 executes the support content determination step ST106 for determining what kind of support is to be provided to which user from the teamwork evaluation data E4 transmitted from the teamwork evaluation unit 43.
  • the support content determination unit 51 has a support content determination table T51 for selecting the support content, the user who provides the support, and the presentation method.
  • the support content determination table T51 stores data for each item of support name information D511, determination condition information D512, information presentation destination user information D513, presentation method information D514, and support content information D515 indicating the type of support content. ..
  • the support name information D511 stores a support name that distinguishes the support contents such as "authority gradient: high level 1" and "authority gradient: high level 2".
  • the decision condition information D512 stores conditional expressions (decision conditions) necessary for determination, such as "authority gradient: high level 1" and "authority gradient: high level 2”.
  • Logical formulas (AND, OR, etc.) according to the team status (team status information D441: FIG. 8) can be stored here, and even if a plurality of team statuses are applicable, the support contents can be comprehensively described. can.
  • Information presentation destination user information D513 describes one or more user IDs of support target persons (information presentation destinations) who directly present support information.
  • the support name is "authority gradient: high level 1"
  • "User-B” and "User-C” both are operators
  • the user in the operation team is the information presentation destination user, but the user IDs of the worker outside the plant central control room, other operators, and the worker who is the supervisor's boss are stored as the information presentation destination user. You may.
  • the presentation method information D514 stores one of the types of information presentation methods, such as "operation screen message display” and "voice presentation”, as the presentation method.
  • the support content information D515 stores, for example, support content such as advice and recommendations for problems with poor teamwork.
  • the support content determination unit 51 uses the support content determination table T51 to determine one support item corresponding to the team status and evaluation result of the extracted teamwork evaluation data E4.
  • the team status extracted in this example is "authority gradient: high” and the evaluation result is "corresponding: level 1”
  • the support name information D511 of the support content determination table T51 "authority gradient: high level 1” Items are extracted.
  • the related user information D443 includes "User-A” and "User-B”, and the "User-B" in the information presentation destination user information D513 matches in the support content determination table T51, so that the information The presentation destination user is determined to User-B.
  • the presentation method the method described in the presentation method information D514 is adopted.
  • the signal data S51 for instructing the generation of the presentation information including the support name, the information presentation destination user, the presentation method, and the support content information determined in this way is created and transmitted to the presentation information generation unit 53.
  • the support result database 52 stores the time data in which the support content determination process is completed, and the data D51 including the finally determined support name, information presentation destination user, presentation method, and support content.
  • the data D44 including the team status, the evaluation result, the related user, and the index value of the teamwork evaluation data E4 linked to the support content data is also accumulated in the support result database 52.
  • the presentation information generation unit 53 performs a process of generating presentation data D53 to be transmitted to the output device 54 based on the received signal data S51 and outputting it to the output device 54 (step ST107). Specifically, the presentation data D53 according to the presentation method information D514 is created and output to the output device 54 used by the information presentation destination user.
  • FIG. 10 shows an example in which the support information whose support name is "authoritative gradient: high level 1" is output on the operation screen G5. Since the information presentation destination user is "User-B" and the presentation method is "message display on the operation screen", the message Gm5 described in the support content is drawn on the operation screen G5 of the operator of User-B.
  • the evaluation logic update processing unit 60 plays a role of changing the evaluation logic L4 for the teamwork evaluation processing unit 40 to evaluate the teamwork state. First, a method of manually changing the evaluation logic L4 will be described.
  • the evaluation logic update unit 61 visualizes the actual data of the support results currently registered based on the data D44, the data D51, and the evaluation logic L4 accumulated in the support result database 52. Then, the user selects a change target, accepts edit inputs such as a threshold value for each evaluation item, and a logical expression, and performs a process of storing the updated evaluation logic L4 in the evaluation logic database 44. The user operates using an input device 62 such as a mouse and a keyboard. Further, the information necessary for the change is output to the output device of the evaluation logic update unit 61.
  • FIG. 11 shows the processing flow of the evaluation logic update unit 61.
  • the evaluation logic L4 to be changed is selected (step ST611).
  • the names of all evaluation logics L4 registered in the evaluation logic database 44 for example, "authoritative gradient: high”, “authoritative gradient: low”, etc.
  • the data D44 and the data D51 are linked and output in a table format as reference information when selecting the change target. If there are multiple evaluation results in one evaluation logic L4, all of them are output in order from the latest time data.
  • an edit screen for editing the selected evaluation logic L4 is output (step ST612).
  • the edit screen G6 is a visualization of the evaluation logic L4 of the “authority gradient: high” described in the title Gt6 described in FIG. 7 in a flowchart format.
  • An editable area Ge6 indicated by a rectangle is arranged in each evaluation step display field Gf6 drawn in the edit screen G6, and in this example, the currently set judgment criterion is set in the editable area Ge6.
  • the threshold is displayed.
  • the threshold value can be changed, but also changes such as the target user in the evaluation step, the index value, the branching condition (Yes / No), the branching destination, the order of the evaluation step, and the addition of a new evaluation step can be made. good.
  • candidates may be displayed on the screen and selected from them to be changed, or new additions / deletions may be possible.
  • the evaluation logic L4 may be edited graphically. By preparing evaluation step parts, connection line parts, etc. as evaluation logic parts, arranging them on the edit screen G6, setting branch conditions, and performing processing to judge the consistency of logic, the evaluation step can be edited. It will be possible.
  • the evaluation logic update unit 61 calculates a more suitable value for the threshold value of the evaluation logic L4 based on the index value (index value information D444) accumulated in the past, and uses it as a candidate near the editable area Ge6. You may present it. For example, in the index value (duration of problem emotion) in the evaluation step Gf6 at the top of FIG. 12, if a value exceeding the current threshold value (30 seconds) is recorded more than a certain number of times, that value is presented as a candidate. do.
  • the evaluation result corresponds to "healthy” in the teamwork evaluation unit 43 ("Yes" in step ST105)
  • the teamwork evaluation data E4 including the index value calculated by each evaluation logic is transmitted to the support information presentation processing unit 50, and the support content determination unit 51 accumulates the data D44 in the support result database 52. May be good.
  • a more suitable value may be calculated and set, including the index value when the value becomes “not applicable”, and the candidate value may be presented.
  • step ST612 the user first selects whether to increase or decrease the number of detections. Then, a more suitable value is calculated and set for the threshold value set to be a certain amount or more surplus or lower than the representative value (for example, the average value) of the accumulated index value, and the candidate value is set. It may be presented.
  • the above-mentioned process shows an example in which candidates are presented and the user is made to input the threshold value, the user may be made to select whether or not to set the candidate values in a batch, and the values may be automatically input.
  • the evaluation logic update unit 61 described above outputs and presents the edited contents, the processes of steps ST611 to ST613 may be performed without outputting based on the input setting data.
  • the evaluation logic update unit 61 changes the evaluation logic L4 based on the accumulated index value.
  • FIG. 13 is a histogram showing the accumulation results of the duration of feelings of irritability or stress (problem feelings) among the index values.
  • the case where the emotion duration lasts for 10 seconds or more is accumulated as data, and the data for 20 times in total is accumulated.
  • the user specifies in advance the probability of the occurrence frequency of the number of detections using the input device 62. Assuming that the user has set the probability of the occurrence frequency of the number of detections to 20%, in the data of FIG. 13, the portion corresponding to the dotted line Th6 on the graph is 20%, that is, the threshold value for detecting four times. Therefore, the threshold value of the duration of the problem emotion is automatically updated as 45 seconds.
  • the method of inputting the probability of occurrence frequency by the user has been described, but the present invention is not limited to this.
  • a method of automatically changing the evaluation logic L4 using machine learning such as learning a data pattern using the Mahalanobis distance and setting a threshold value with data significantly deviated from the data as an abnormal value, may be used. good.
  • an evaluation logic L4 configured by combining evaluation steps for quantitatively determining whether the value is “Yes” or “No” is provided. I tried to evaluate teamwork using it. That is, the evaluation is performed using the evaluation logic L4, which is a combination of a plurality of logical expressions that evaluate the numerical value as a threshold value and output whether it is correct or not. Therefore, the evaluation logic L4 can be easily updated according to the actual situation as described above without accumulating correct answer data or good cases, whether manually or automatically.
  • the evaluation result corresponds to "healthy" in the teamwork evaluation unit 43
  • an example of terminating the process is shown, but even in this case, the team state is sound.
  • the message may be created by the presentation information generation unit 53 and output to the output device 54.
  • the support content determination unit 51 has shown a method of determining one support content, but the present invention is not limited to this. Instead of the comprehensive support content determination table T51 that can be narrowed down to one, multiple decision conditions are matched, and multiple support contents are determined and presentation information is created using the prioritized data. , May be presented to the output device 54 in order.
  • an example of using the waveform of biometric data to grasp the mental state (type of emotion) of the user is shown, but the present invention is not limited to this. For example, if the combination of words that appears during a conversation matches an emotion, it is determined that the emotion is in that emotional state, and the emotional pattern is the duration of the biological data pattern such as heartbeat and brain waves when the determination is made. You may try to estimate the duration.
  • information is presented for performing plant operation as a team, which is provided corresponding to each of a plurality of members (users) constituting the team.
  • the state of each of the plurality of members (users) the state of communication between the members (users)
  • the workload state of each of the plurality of members users
  • the index value calculation unit 41 (including the index prediction value calculation unit 42) that calculates the index value (index data D41, index prediction value P42) that quantifies the degree of each evaluation item, and the index value Based on the teamwork evaluation unit 43, which evaluates the teamwork of the team based on the teamwork, and the teamwork evaluation result (teamwork evaluation data E4), the support target persons including the team members (users) are selected and selected support.
  • the teamwork evaluation unit 43 includes a presentation information generation unit 53 that generates data D53), and the teamwork evaluation unit 43 is an evaluation composed of a combination of logical expressions for comparing the threshold values set for each of a plurality of evaluation items and the calculated index values. Since the logic L4 is used and configured to evaluate the teamwork, it is possible to evaluate the teamwork and support appropriate plant operation without preparing fixed correct answer data.
  • the index value calculation unit 41 should calculate the measurement result of biometric data related to the emotions of each of the plurality of members (users) (for example, the time during which the emotions that are problematic for teamwork continue) as the index value. For example, it is possible to quantitatively evaluate whether or not the mental state is not good for teamwork (the user has a problem feeling), that is, the user's mental state can be quantitatively evaluated, and it can be incorporated into the above-mentioned logical formula of the evaluation logic L4. can.
  • the index value calculation unit 41 calculates any of the voice volume, the utterance interval, and the tone in the conversation between the members (users) as the index value, the communication state between the users can be quantitatively calculated. It can be evaluated and can be incorporated into the above-mentioned logical expression of the evaluation logic L4.
  • the evaluation logic update unit 61 for correcting either the threshold value or the connection relationship is provided, the evaluation logic L4 can be easily corrected even if there is no teacher data or correct answer data, which suits the actual situation. Appropriate teamwork evaluation becomes possible.
  • the evaluation logic update unit 61 automatically updates the threshold value of the evaluation items for which the abnormal value is set as the threshold value by using the probability of the occurrence frequency of the event or the statistical analysis method such as the Mahalanobis distance. By doing so, the evaluation logic L4 is automatically updated using the data in the actual plant operation, and an appropriate teamwork evaluation suitable for the actual situation becomes possible.
  • Support content determination step (step ST106) that selects support target persons including the members (users) of the above and determines the support content according to the selected support target person, and the support determined for each selected support target person.
  • the evaluation is composed of a combination of logical expressions for comparing the threshold value set for each of a plurality of evaluation items and the calculated index value. Since the logic L4 is used and configured to evaluate the teamwork, it is possible to evaluate the teamwork and support appropriate plant operation without preparing fixed correct answer data.
  • the evaluation logic L4 can be easily corrected even if there is no teacher data or correct answer data. Appropriate teamwork evaluation that suits the actual situation becomes possible.
  • 10 Plant operation support device
  • 20 Plant status determination processing unit
  • 30 User information collection processing unit
  • 40 Teamwork evaluation processing unit
  • 41 Index value calculation unit
  • 42 Index prediction value calculation unit (index value calculation unit) )
  • 43 Teamwork evaluation unit
  • 50 Support information presentation processing unit
  • 51 Support content determination unit
  • 53 Presentation information generation unit
  • 54 Output device
  • 60 Evaluation logic update processing unit
  • 61 Evaluation logic update unit
  • D41 Index data (index value)
  • D53 Presentation data
  • E4 Teamwork evaluation data
  • L4 Evaluation logic
  • P42 Index prediction value (index value).

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

複数のユーザそれぞれの状態、ユーザ間の意思の疎通状態、およびユーザそれぞれの作業負荷状態、のいずれかを評価する複数の評価項目に対し、評価項目ごとにその程度を数値化した指標値を算出する指標値算出部(41)、指標値に基づいてチームワークを評価するチームワーク評価部(43)、チームワークの評価結果に基づいて、チームの構成員を含む支援対象者を選定し、選定した支援対象者に応じた支援内容を決定する支援内容決定部(51)、および選定した支援対象者に対応した出力装置(54)ごとに、決定した支援内容を提示するための提示情報を生成する提示情報生成部(53)、を備え、チームワーク評価部(43)は、複数の評価項目ごとに設定された閾値と算出された指標値を比較する論理式の繋ぎ合わせで構成した評価ロジック(L4)を用い、チームワークを評価するようにした。

Description

プラント運転支援装置、プラント運転支援方法
 本願は、プラント運転支援装置、およびプラント運転支援方法に関するものである。
 近年、電力分野などの大規模プラントの監視制御装置は、従来のハードウェア型のアナログ監視制御盤に変わり、ソフトウェア型のデジタル監視制御盤(デジタル盤)の導入が進んでいる。デジタル盤では、監視制御の機能が集約されたグラフィカルユーザインタフェース(GUI)を用いて作業を行うため、装置の小型化、および運転員の操作負荷を軽減することができる。
 一般的に、プラントの運転管理は監視制御室の中央制御盤を監視・操作する複数名からなる運転チームにより行われる。その際、運転員のヒューマンエラー低減を目的として、運転訓練時のチームワークを評価して、不調の場合は適切なアドバイスを提示する評価方法が提案されている(例えば、特許文献1、2参照。)。
特開2003-271048号公報(段落0027~0031、図2) 特開2019-36205号公報(段落0022~0023、0049~0051、図1)
 しかしながら、上述した評価方法では、模範となる過去の良好事例データとの比較によりチームワークを評価しているため、比較対象のデータをあらかじめ用意する必要があり、状況に応じて容易に基準を変更することができないといった問題点があった。
 本願は、上記のような課題を解決するための技術を開示するものであり、決まった正解データを用意することなく、チームワークを評価し、適切なプラント運転の支援を可能とすることを目的とする。
 本願に開示されるプラント運転支援装置は、チームを構成する複数の構成員それぞれに対応して設けられ、前記チームとしてプラント運転を行うための情報提示を行う出力装置、前記複数の構成員それぞれの状態、前記構成員どうしの意思の疎通状態、および前記複数の構成員それぞれの作業負荷状態、のいずれかを評価する複数の評価項目に対し、評価項目ごとにその程度を数値化した指標値を算出する指標値算出部、前記指標値に基づいて前記チームのチームワークを評価するチームワーク評価部、前記チームワークの評価結果に基づいて、前記チームの構成員を含む支援対象者を選定し、選定した支援対象者に応じた支援内容を決定する支援内容決定部、および前記出力装置のうち、前記選定した支援対象者に対応した出力装置ごとに、決定した支援内容を提示するための提示情報を生成する提示情報生成部、を備え、前記チームワーク評価部は、前記複数の評価項目ごとに設定された閾値と算出された指標値を比較する論理式の繋ぎ合わせで構成した評価ロジックを用い、前記チームワークを評価することを特徴とする。
 本願に開示されるプラント運転支援方法は、チームとしてプラントを運転する複数の構成員それぞれの状態、前記構成員どうしの意思の疎通状態、および前記複数の構成員それぞれの作業負荷状態、のいずれかを評価する複数の評価項目に対し、評価項目ごとに数値化した指標値を算出する指標値算出ステップ、前記算出された指標値に基づいて前記チームのチームワークを評価するチームワーク評価ステップ、前記チームワークの評価結果に基づいて、前記チームの構成員を含む支援対象者を選定し、選定した支援対象者に応じた支援内容の決定を行う支援内容決定ステップ、および前記選定した支援対象者ごとに、決定した支援内容を提示する支援内容提示ステップ、を含み、前記チームワーク評価ステップでは、前記複数の評価項目ごとに設定された閾値と算出された指標値を比較する論理式の繋ぎ合わせで構成した評価ロジックを用い、前記チームワークを評価することを特徴とする。
 本願に開示されるプラント運転支援装置、あるいはプラント運転支援方法によれば、論理式の繋ぎ合わせで構成した評価ロジックを用いてチームワークを評価するようにしたので、決まった正解データを用意することなく、チームワークを評価し、適切なプラント運転の支援を行うことができる。
実施の形態1にかかるプラント運転支援装置の構成を説明するためのブロック図である。 実施の形態1にかかるプラント運転支援装置のハードウェア構成を示す図である。 実施の形態1にかかるプラント運転支援装置の動作について説明するためのフローチャートである。 実施の形態1にかかるプラント運転支援装置における手順データベースに格納されたデータ構造を示す図である。 実施の形態1にかかるプラント運転支援装置において、あるユーザに対して算出された指標値の一部を可視化した図である。 実施の形態1にかかるプラント運転支援装置において、指標予測値算出部が算出した作業負荷の指標予測値のデータ構造を示す図である。 実施の形態1にかかるプラント運転支援装置において、評価ロジックデータベースに格納された権威勾配が高いか否かを判別する評価ロジックを示すフローチャートである。 実施の形態1にかかるプラント運転支援装置において、チームワーク評価部が評価したチームワーク評価データのデータ構造を示す図である。 実施の形態1にかかるプラント運転支援装置において、支援内容決定部が有する支援内容決定テーブルのデータ構造を示す図である。 実施の形態1にかかるプラント運転支援装置において、チームパフォーマンスが低下したと評価した際の運転支援情報の画面表示例を示す図である。 実施の形態1にかかるプラント運転支援装置において、評価ロジックを更新する動作について説明するためのフローチャートである。 実施の形態1にかかるプラント運転支援装置において、評価ロジックを画面操作で編集する際の画面表示例を示す図である。 実施の形態1にかかるプラント運転支援装置において、評価ロジックを自動で変更する際の、変更開始を判定する際のデータについて説明するための図である。
実施の形態1.
 図1~図13は、実施の形態1にかかるプラント運転支援装置あるいはプラント運転支援方法について説明するためのものであり、図1はプラント運転支援装置構成を説明するためのブロック図、図2はプラント運転支援装置のハードウェア構成の例を示すブロック図、図3はプラント運転支援装置の動作、つまりプラント運転支援方法について説明するためのフローチャートである。また、図4はプラント運転支援装置を構成する手順データベースに格納されたデータ構造を示す図である。
 図5は指標予測値算出部が算出する、あるユーザに対して算出された指標値の一部を時系列で可視化した図、図6は指標予測値算出部がユーザごとに算出した作業負荷の指標予測値のデータ構造を示す図である。そして、図7は評価ロジックデータベースに格納された権威勾配が高いか否かを判別する評価ロジックの構造を示すフローチャート、図8はチームワーク評価部が評価したチームワーク評価データのデータ構造を示す図、図9は支援内容決定部が有する支援内容決定テーブルのデータ構造を示す図である。
 図10は監督者の権威の観点でチームパフォーマンスが低下したと評価した際の運転支援情報の画面表示例を示す図、図11は評価ロジックを更新する動作について説明するためのフローチャート、図12は評価ロジックを画面操作で編集する際の画面表示例を示す図、図13は評価ロジックを自動で変更する際の、変更開始を判定する際のデータについて説明するための図である。
 本願の実施の形態1にかかるプラント運転支援装置、およびプラント運転支援方法についての詳細な説明の前に、前提となる運転チームによるプラントの運転について説明する。一般的に、プラントの運転は監視制御室の中央制御盤を監視・操作する複数名からなる運転チームにより行われる。チームは、監視・操作を実行する複数名の運転員と、運転員への作業指示およびその行動の監視を行う監督者から構成される。運転員と監督者には、それぞれ専用の監視制御用の入力装置および出力装置(入出力装置)が用意されており、各自に与えられた入出力装置を利用して、プラントの監視と制御を実施する。
 プラントの典型的な運転方法としては、まず監督者が運転員に作業内容を指示する。運転員は、与えられた入出力装置を利用して作業を実施する。作業の実施後、運転員は監督者に完了報告を行い、監督者は自身の入出力装置を利用して、運転員が実施した作業内容を確認する。なお、プラントの運転形態としては、監視制御室内に運転チーム構成員が全員揃った状態で口頭によるコミュニケーションを行いながら運転する場合のほか、監視制御室の運転員と遠隔地にいる監督者が遠隔でコミュニケーションする場合も想定される。
 とくに、大規模プラントの運転において、各運転員は手順に即した監督者からの指示に従い、各自に割り当てられたタスクを実行する。限られた時間内でのタスク実施が求められる状況など、運転員にとって作業負荷が高い状況下では、作業効率の低下、操作誤り、状況認識誤りなどのヒューマンエラーが発生する可能性がある。適切なプラント運転を実現するためには、チームワーク状況を把握した上で、例えば、運転員が委縮することなく意思の疎通を円滑化するなど、チームとしてのパフォーマンスを向上させる対策を行う必要がある。
 上述した前提を踏まえ、本願の実施の形態1にかかるプラント運転支援装置、およびプラント運転支援方法の詳細について説明する。本願のプラント運転支援装置10は、図1に示すように、図示しないプラントの状況を判別するプラント状況判別処理部20とユーザ情報を収集し処理するユーザ情報収集処理部30を備えている。そして、評価ロジックL4に基づいて、プラントとユーザの状況に関する情報からチームワーク状態を評価するチームワーク評価処理部40と、評価結果(チームワーク評価データE4)に基づいた支援情報を提示する支援情報提示処理部50を備えている。さらに、本願の特徴的な構成であるチームワーク状態の評価に用いる評価ロジックL4を更新する評価ロジック更新処理部60を備えている。
 プラント状況判別処理部20は、プラント情報を収集するプラント情報収集部21、収集したデータを格納するプラント情報データベース22、運転手順のデータを格納する手順データベース23、および現状の作業ステップを特定する実施手順判別部24を有している。なお、図では、データベースを「DB」と略称で表示している。
 ユーザ情報収集処理部30は、運転チームを構成する監督者と運転員(まとめてユーザと称する)のデータを収集するユーザ情報収集部31と、収集したユーザ情報を格納するユーザ情報データベース32とを有している。
 チームワーク評価処理部40は、チームワーク評価に必要な指標値(指標データD41)を算出する指標値算出部41、ユーザごとの時系列の指標予測値P42を算出する指標予測値算出部42、チームワークを評価するチームワーク評価部43を有している。そして、チームワーク評価に用いる評価ロジックL4を格納する評価ロジックデータベース44を有している。
 支援情報提示処理部50は、チームワークの評価結果(チームワーク評価データE4)に基づき、支援内容を決定する支援内容決定部51、決定した支援内容を蓄積する支援結果データベース52、支援内容に応じた提示データを生成する提示情報生成部53を有している。そして、チームを構成する運転員および監督者それぞれに割り当てられ、必要なユーザに対して生成した提示情報を提示する複数の出力装置54を有している。
 評価ロジック更新処理部60は、支援結果データベース52に蓄積された支援内容のデータと、評価ロジックデータベース44に格納されたデータに基づき、評価ロジックL4を更新する評価ロジック更新部61を有している。さらに、評価ロジックL4を更新する際に、ユーザによる必要なデータの入力を受け付ける入力装置62を有している。
 なお、上記説明は、プラント運転支援装置10が、複数の機能の組み合わせにより構成されていることを示すものであり、実施手順判別部24、指標値算出部41といった独立したハードウェアを組み合わせて構成することを意味するものではない。例えば、図2に示すように、プロセッサ11とメモリ12とハードディスク13と入力装置14と出力装置15と、これらを接続するシステムバス16とで構成し、インストールされたソフトウェアによって、各機能が実現されるものでもよい。
 メモリ12とハードディスク13は記憶装置として機能し、図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクを補助記憶装置として具備してもよい。プロセッサ11は、記憶装置から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ11にプログラムが入力される。また、プロセッサ11は、演算結果等のデータを記憶装置の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
 つぎに、図3のフローチャートを参考にして、プラント運転支援装置10がプラント状況およびユーザの状態(ユーザ情報)に基づいてチームワーク評価を行い、支援が必要な場合に支援情報を出力装置54に提示するまでの動作について説明する。
 なお、上述したように、実際のプラントの運転管理では、複数の構成員(ユーザ)と複数の作業とが、時系列を含めて関連しており、そのすべてについて説明すると、煩雑化して収集が困難になる。そこで、本実施の形態1では、チームの構成員(監督者、運転員)のうち、本願の技術思想を明らかにするのに必要な1名の監督者と2名の運転員による計3名のユーザで運転チームを構成する例について説明する。そのため、各データベース、あるいは処理部で扱うデータは、監督者をUser-A、運転員をUser-B、User-Cと設定し、役割を区別しない個人のことを単にユーザと称して説明する。
 はじめに、プラント状況判別処理部20による、プラント情報および運転手順の情報に基づいてユーザが実施している手順および作業ステップを判別し、結果をチームワーク評価処理部40へ送信する、プラント状況判別ステップST101について説明する。
 プラント情報収集部21は、プラント情報データベース22からプラントデータD22を周期的に収集し、取得した時刻とともに、実施手順判別部24に送信する。プラント情報データベース22には、例えばポンプ、弁など各種プラント機器の警報を含む運転状態およびパラメータ値を含むプラント状態情報、および運転員、監督者の操作ログの情報である操作ログ情報が格納されている。また、操作ログ情報は、作業内容(後述する作業識別情報D233を含む)と、ユーザIDを示すユーザ識別情報D321と、時刻データから構成される。プラント情報データベース22のデータは、プラントが生成するリアルタイムのデータでもよいし、過去のプラント運転にて記録したデータでもよい。
 手順データベース23には、図4に示すように、各事象に対する対応手順および、手順を構成する作業ステップに関する情報が格納されている。手順情報D23としては、事象ごとに1つ以上からなる手順が規定されており、手順は1つ以上からなる作業ステップから構成されている。事象には事象IDを示す事象識別情報D231、手順には手順IDを示す手順識別情報D232、各作業ステップには作業IDを示す作業識別情報D233が付与されている。作業ステップには、標準作業時間を示す標準作業時間情報D235、作業負荷値を示す作業負荷値情報D236、作業開始条件を示す作業開始条件情報D237、作業終了条件を示す作業終了条件情報D238がそれぞれ規定されている。
 標準作業時間は、各作業ステップの実施に標準的にかかる時間(プラント挙動による待ち時間なども含めた作業時間)である。作業負荷値は、作業ステップ実施において、人間の作業(対象物の確認、操作など)にかかる負荷(作業負荷)である。作業負荷値としては、例えば、人間の行動に必要な時間が挙げられる。例えば、既知の人間情報処理モデルに基づく方法で、作業ステップ実施に際する人間の知覚、認知の脳内処理時間、および物理的な身体の移動時間を合算することで、作業負荷値を算出できる。作業開始条件および作業終了条件は、当該作業ステップを開始または終了するための条件である。作業開始条件の例としては、操作ログ(操作開始されたと判断)、操作開始条件となるプラント機器のパラメータ値、警報発報、作業終了条件は例えばプラント機器のパラメータ値の条件、警報停止などが規定されている。
 実施手順判別部24は、プラント情報収集部21からプラント状態情報および操作ログ情報を受け取り、発生している事象の特定、および事象に紐づく対応手順と、現状の作業ステップの特定を行う。実施手順判別部24の内部には、不具合原因と事象波及の関係など、事象の判断に必要なデータを格納した知識ベースを有している。取得したプラント状態情報を用いて事象を特定し、手順データベース23を参照して当該事象に対応した事象識別情報D231を得る。
 その後、操作ログ情報を元に、実施中の手順IDおよび作業IDを、作業開始条件情報D237および作業終了条件情報D238を参照して特定する。作業開始条件および作業終了条件を満たしたと初めて判別した際は、作業開始時刻と作業終了時刻を、それぞれ作業開始時刻情報D2391、作業終了時刻情報D2392として記録する。特定した手順IDと作業ID、および実施しているユーザIDについての情報(手順識別情報D232、作業識別情報D233、ユーザ識別情報D321)を作業開始時刻情報D2391、作業終了時刻情報D2392とともに、チームワーク評価処理部40へ送信する。これにより、ステップST101を完了し、ステップST102に移行する。
 つぎに、ユーザ情報収集処理部30のよるユーザの時系列的な情報を収集し、収集した情報をチームワーク評価処理部40に送信するユーザ情報収集ステップST102について説明する。
 ユーザ情報データベース32には、接触型または非接触型のセンサにより取得された各ユーザの時系列のセンサデータ(例えば生体データ)が格納されている。ユーザ情報収集部31は、ユーザ情報データベース32に格納された生体データを周期的に収集する。ユーザ情報データベース32には、各ユーザを識別するユーザ識別情報D321と、各種センサの時系列データ(センサデータD322)が紐づけられる形で格納されている。
 本例のユーザIDの例は、上述したように監督者はUser-A、運転員はUser-B、User-Cである。センサデータD322は取得した時刻データとセンサ値の組み合わせであり、例としては、心拍数、音声、呼吸、心電波形、血圧、体温などが挙げられる。ユーザ情報収集部31は、ユーザ識別情報D321と各種センサデータD322を、定められた周期でチームワーク評価処理部40の指標値算出部41に送信する。
 これにより、ステップST102を完了し、ステップST103に移行する。なお、プラント状況判別ステップST101、およびユーザ情報収集ステップST102は並行して処理を実施しても構わない。
 続いて、チームワーク評価処理部40による指標値算出ステップST103とチームワーク評価ステップST104について説明する。チームワーク評価処理部40は、プラント状況判別処理部20およびユーザ情報収集処理部30からの入力データを元に、チームワーク評価に必要な指標値および指標予測値を算出し(ステップST103)、それらを総合してチームワーク状態を評価する(ステップST104)。そして、チーム状態が健全でないと評価した場合(ステップST105で「No」)、評価結果を支援情報提示処理部50へ送信する。
 指標値算出ステップST103として、指標値算出部41は、チームワーク評価に必要な指標値を算出する。指標の例としては、ユーザ個人ごとに算出するもの、運転員と監督者間、運転員間など複数ユーザ間のチームワーク指標が挙げられる。個人の指標の例は、発話に関するもの、口調、感情に関するもの、作業負荷に関するものなどが挙げられる。 
 例えば、発話であれば、声の大きさ、発話速度、言葉遣い(ある特定の単語が発話された回数、単語内容など)等が指標となり、口調であれば、“強い命令口調で発話された”回数、“威圧的な口調で発話された”回数などが指標となる。感情に関するものとして、平常、興奮、喜び、ストレス、いらつき、憂鬱、疲労、緊張、平穏、リラックスなどの感情の発現開始時刻、発現終了時間、発現時間などが指標となる。また、作業負荷に関するものとしては、標準作業時間に対する作業実績時間の増減、同時並行で実施している作業ステップ数などが指標となる。さらに、複数ユーザ間の指標としては、例えば、会話パターンの一致度(監督者から運転員への指示、運転員の指示内容復唱、運転員の結果報告など、一連のパターンにどれだけ一致するか)、会話間の間隔(時間)など、意思の疎通に関する指標が挙げられる。
 指標値算出部41の内部には、個々の指標値を算出する解析ロジックを有している。個人の指標は運転チーム内のユーザ個人ごとに、複数ユーザ間の指標は複数ユーザの入力データを併せて算出する。個人の指標である発話に関する指標は、時系列の音声データを解析することにより算出する。例えば声の大きさは、音声データの音圧レベルから、発話速度、言葉遣い、口調は音声認識を行いテキスト化した結果から算出する。音圧レベル、または発話速度は、ユーザごとに標準値(平常時にあらかじめ計測した指標値など)と比べどれだけ増減しているかを算出する。
 例えば声の大きさの場合、運転員(User-B)の大きさが50dBで、標準値が60dBであれば、-17%(=(50-60)/60)と算出される。感情に関する指標は、音声データおよび心拍数、呼吸などの生体データを元に算出することができる。作業負荷に関する指標のうち、作業実績時間については、実施手順判別部24から得た作業IDに合致する作業の情報を手順データベース23から参照する。
 そして、作業開始条件を満たして作業を開始した時点から、作業終了条件を満たした時点までの時間を(作業終了条件を満たしていない場合は現在時刻までを)作業実績時間として計測し、標準作業時間との差分を算出する。例えば、得た作業IDがA-I-2である場合、実施手順判別部24の出力データ内の作業終了時刻情報D2392があれば、当該ステップ実施は完了しているとみなす。そして、作業終了時刻(例えば12時23分50秒)からの作業開始時刻情報D2391(例えば12時23分41秒)との差分を算出する(0時間0分9秒)。さらに、それから標準作業時間情報D235に示された標準作業時間を差し引いた時間(-0時間0分1秒))を求める。
 一方、作業終了時刻情報D2392にデータがない場合は、当該ステップは実施途中であるとして、現在時刻(例えば12時23分45秒)から作業開始時刻との差分(-0時間0分4秒)を算出し、標準作業時間を差し引いた時間(-0時間0分6秒)を求める。
 同時並行で実施している作業ステップ数は、実施手順判別部24から受け取ったユーザIDと手順IDと作業IDから判断する。また複数ユーザ間の指標である会話パターンの一致度は、音声認識を通じて音声データをテキスト化し、指示、復唱、結果報告などを示す語句を抽出し、会話パターンへの合致度を算出する。例えば、指示は「XXをXXしてください」、復唱は「XXをXXします」、結果報告は「XXをXXしました」などを示す語句として抽出する。
 会話内の応答時間に関する指標は、会話パターンとして抽出できた会話内の発話の間隔を求め、解析ロジックが有する基準時間と比較した増減時間の割合を算出する。例えば、ある発話に対する応答との間に5秒の間があり、基準時間が2.5秒と設定していれば、100%(=(5-2.5)/2.5)増と算出する。なお、上述の解析方法は一例であり、実施方法はこの限りではない。
 指標値算出部41は、各指標の指標値、指標算出に使用したデータ、ユーザID、処理時刻データを指標値算出部41内に保有するデータベースに時系列データとして蓄積する。指標算出に使用したデータとしては、音声データ、生体データ、会話テキストデータなどを蓄積し、ユーザIDとしては、個人の指標であれば1つのユーザID、複数ユーザ間の指標であれば関係する複数ユーザIDを蓄積する。また、処理時刻データとしては、例えば、指標値を算出した時刻を蓄積する。
 また、前述した作業負荷の指標値算出時に求めた作業実績時間は、手順ID、作業ID、標準作業時間、ユーザID、とともに指標値算出部41内に保有するデータベースに指標データD41として蓄積する。その際、現在の時刻データ(作業実績記録時刻)、作業ステップが完了したか否か(作業完了/作業実施中)を示すデータ(作業ステップ実施状態情報)も併せて指標データD41として蓄積する。これにより、ステップST103のうち、指標値の算出工程が完了する。
 指標予測値算出部42は、ステップST103のうち指標予測値の算出工程として、将来の指標値の動きを予測することで、各ユーザの時系列の指標予測値を算出し、その結果をチームワーク評価部43に送信する。ここでは、将来の作業負荷の指標値を予測する例を説明する。指標予測値算出部42は、将来のプラント動作をシミュレーションする機能と、指標値を予測する機能から成り立ち、これらに基づいて、今後実施予定の作業ステップの作業負荷値をユーザごとに予測する。
 まず指標値算出部41から送信された指標データD41に基づき、ある特定のユーザが作業した最新の作業実績記録時刻の手順ID、作業ID、作業実績時間、作業ステップ実施状態情報、標準作業時間を取得する。そして、手順データベース23に格納された手順情報D23を参照し、当該手順IDの作業IDより後に発生する各手順ステップの開始時刻と終了時刻の予測値を算出する。予測方法の例としては、プラントシミュレーションを行うことで作業開始条件を満たす時刻を開始時刻として算出し、それに標準作業時間を加算することで終了時刻を算出する方法、作業開始時刻は同様の方法で算出し、プラントシミュレーションにより作業終了条件を満たす時刻を終了時刻とする方法が挙げられる。
 なお、当該作業IDの作業ステップ実施状態が「作業実施中」である場合は、当該作業ステップの終了時刻を予測し、それを加味してプラントシミュレーションを行う。終了時刻の予測は、例えば、作業ステップ完了までにかかる標準作業時間からの作業実績時間の差分を、作業実績記録時刻に加算した時刻として算出する。ここまでの処理は、あらかじめ定められた時刻(例えば30分)を、手順ステップの終了時刻が超えるまで、または当該事象内の作業ステップをすべて処理するまで実施する。さらに、当該ユーザが他の作業ステップを並行して実施していれば、それについても同様の処理を行う。
 つぎに、作業実績記録時刻より後に発生する作業負荷の指標値の算出について、あるユーザに対して指標値の一部を説明用に時系列で可視化した図5を用いて説明する。図5において、ユーザIDはUser-Bとし、横軸は時間を表し、作業W421~W423を示す長方形の長さは標準作業時間、左端と右端はそれぞれ開始時刻と終了時刻を示す。縦軸に沿って重なった部分は、並行して実施する作業を示す。
 指標値には、例として標準作業時間内に含まれる作業負荷値(人間の行動に係る実際の時間)の割合を用いる。例えば、作業W421は作業IDがA-I-3の作業であり、標準作業時間2分30秒(150秒)に対して作業負荷値が75000ミリ秒(図4参照)であるため、指標値は0.5となる。作業の発生しない時間帯の指標値は0となり、複数の作業を並行実施する時間帯は、各作業W421~W423の指標値を合計した数値を指標値とする。このような方法で、あらかじめ定められた間隔(例えば1秒単位)ごとに指標値の時系列データを算出する。
 上述の処理をすべてのユーザに対して算出し、図6に示す各ユーザの作業負荷の指標予測値P42をチームワーク評価部43に送信する。これにより、ステップST103を完了し、ステップST104に移行する。
 チームワーク評価ステップでは、チームワーク評価部43は、指標値算出部41に蓄積されている各種指標値の時系列データと、指標予測値算出部42から出力された指標予測値P42を元に、チーム内のチームワークを評価する(ステップST104)。評価の結果、チームワークが健全でない場合(ステップST105で「No」)は、評価結果を支援情報提示処理部50の支援内容決定部51に送信し、支援工程(ステップST106~ST107)に移行する。一方、チームワークが健全な場合(ステップST105で「Yes」)は、支援工程には移行せず終了する。
 チームワーク評価部43は、評価ロジックデータベース44に格納された評価ロジックL4に基づいて評価処理を実施する。評価ロジックL4の内部には、チームワーク不良を引き起こす状態(例えば、監督者と運転員の権威勾配が異常に高い/低い、チーム内の特定ユーザのパフォーマンス低下など)であるか否かを判別するための、1つ以上の定量的な判断基準が存在している。
 例えば、評価ロジックL4の一例として、図7に示すように、チームワーク不良のうち「権威勾配が高い」に該当するか否かを判別する評価ロジックL4を用いて説明する。なお、権威勾配が高いとは、監督者の権威が運転員に対して異常に高く、運転員が萎縮し監督者と適切なコミュニケーションを取りづらい状態を指す。上述したように、User-Aは監督者、User-B、User-Cは運転員を示し、評価ロジックL4中の評価ステップST4401とST4402は監督者に対する、評価ステップST4403~ST4407は運転員に対する判断ステップを表している。
 これらを経た結果、健全であることを示す権威勾配が高に「非該当」(ステップST4410)、または健全でないことを示す権威勾配が高に「該当」(ステップST4408またはST4409)のいずれかに判別される。なお本例では、権威勾配が高に「該当」する場合、その程度を2段階に判別できるようレベルが設定されている。指標予測値算出部42が算出した指標予測値(この例では作業負荷)を用い、評価ステップST4407にて、将来のプラント運転状況を見据えた本チームワーク不良に対する対策の緊急度合の観点から、評価を2段階のレベル(より緊急度合が高いほうがレベル2)のどちらかに振り分ける。これにより、後述する支援情報提示処理部50にて、レベル別に異なる支援内容を提示できるようになる。
 評価ステップST4401~ST4407では、指標値算出部41に蓄積される各種指標値(指標データD41)と指標予測値算出部42が算出した指標予測値P42を参照し、各評価ステップにて評価基準を満たすかどうかを判定する。例えば、評価ステップST4401、ST4403の感情の指標に関する評価については、最新の処理時刻データまでに連続してチームワーク上問題となる感情が30秒以上続いているかどうかを判断する。例えば、監督者(User-A)について評価するステップST4401では、いらつき、ストレスを問題感情とし、問題感情が30秒以上継続していれば、さらに、次の評価項目に進むべきと判断し、そうでなければ、非該当と判断するスクリーニング評価を行う。
 そして、評価ステップST4402では、口調に関する指標値に「強い命令口調で発話された」回数が1つ以上あるかどうかで判断し、強命令口調が1回以上あれば、権威勾配が高いかどうか判断すべき状態であると判断し、そうでなければ、非該当と判断する。つまり、権威勾配が高い状態にあるか否かの評価をするか否かの2次スクリーニング評価を行う。こうして、監督者の状態に応じたスクリーニング評価により、権威勾配が高い状態であるか否か、つまり、運転者側に影響が出ているか否かを、以降の評価ステップで判定する。
 ステップST4402では、運転者(User-B、User-C)を対象とし、憂鬱、疲労、緊張等を問題感情として、問題感情が30秒以上継続していれば、権威勾配が高いと判断し、そうでなければ、次の評価項目に移る。なお、当該ステップの判断において、時系列の指標値のノイズ(感情発現期間の細かな途切れなど)除去等の前処理を実行してもよい。
 なお、ステップST4401、ST4403それぞれにおいて、ユーザが抱いている感情の種類は、例えば、脳波、心拍等の波形の組み合わせをあらかじめ記憶しているパターンと一致するか否かで判別することができる。さらにその状態の継続時間によって、問題感情の継続時間を計測することができる。つまり、ユーザ情報データベース32で収集された時系列の生体データを用いて、「Yes」であるか「No」であるかを定量的に判断することができる。
 評価ステップST4404は、指標値算出部41に蓄積されている最新時刻の作業ステップの標準作業時間と作業実績時間を比較し、例えば、作業実績時間が標準作業時間よりも10%以上長い(D235×1.1以上)か、否かで判断する。なお、最新時刻の作業ステップだけではなく、それ以前の作業ステップを含めて算出し、判断するなど、方法はこの限りではない。
 評価ステップST4405での声の大きさ(声量)に関しては、指標値算出部41の最新の処理時刻での音圧レベルの音声指標値を基準に、例えば、基準の0.8以下であれば、運転者が委縮して声量が小さくなっている、つまり権威勾配が高いと判断する。評価ステップST4406の会話内での応答時間(会話応答時間)に関しては、指標値算出部41内の最新の処理時刻データでの会話内の発話の間隔についての指標値を基準に、判断する。例えば、会話応答時間が基準よりも10%以上長い(基準×1.1以上)ようであれば、運転者が委縮して間隔が長くなっている、つまり権威勾配が高いと判断する。
 ステップST4403~ST4406のいずれかで、権威勾配が高いと判定されると、評価ステップST4407は、指標予測値算出部42から出力された時系列の作業負荷についての指標予測値P42を元に、権威勾配のレベルを判断する。例えば、作業負荷予測値が0.8以上になるときがあれば(「Yes」)、高レベルを示すレベル2と判断し、0.8未満であれば(「No」)、低レベルを示すレベル1と判断する。つまり、各ステップは、閾値と指標値とを比較して是か非かを出力する論理式であり、評価ロジックL4は複数の論理式を繋ぎ合わせることで、複数種の評価結果を出力することができる。
 例示の評価ロジックL4では、監督者および運転員ごとに評価を行い、ステップST4408~ST4410のいずれかに到達したのち、評価結果、および権威勾配を高と判別した場合には、関係ユーザのユーザIDをともに記憶する(ST4411)。関係ユーザとしては、権威勾配が高いと判別した際、つまりチームワークが健全でないと判断した際の、主要因となるユーザ(「権威勾配」では、監督者)と、副要因のユーザ(同、運転員)のうち、評価項目で「Yes」となったユーザとする。その後、他に評価処理対象となっていないユーザがいるかどうかを判断し(ステップST4412)、処理対象となっていないユーザがいればステップST4401に戻り、それ以外は次の判定ロジックへ移行する(ステップST4413)。
 例として監督者(User-A)と運転員(User-B)のチームワークを評価する処理を挙げる。運転員は作業IDがA-I-1の作業を実施しているとする。ステップST4401にて監督者(User-A)の感情指標値の結果として、いらつきが35秒、ストレスが33秒継続した場合は、ステップST4402へ移行する。ステップST4402にて、監督者(User-A)の口調の指標に「強い命令口調の発話」が1つ含まれていた場合は、運転員の状況を評価するステップST4403に移行する。
 運転員(User-B)の憂鬱、疲労、緊張の継続時間が、それぞれ28秒、25秒、20秒であった場合、次の評価項目を実行するステップST4404へ移行する。ステップST4404にて、運転員(User-B)の標準作業時間からの作業実績時間の差分が「-0時間:0分:6秒」の場合、標準作業時間(15秒)より40%短いため、次の評価項目を実行するステップST4405に移行する。ステップST4405にてUser-Bの声量が基準より17%小さい(基準×0.83)場合、次の評価項目を実行するステップST4406へ移行する。
 ステップST4406にて監督者(User-A)と運転員(User-B)との会話応答時間が基準の50%増(基準×1.5)である場合、権威勾配が高くなっていると判別し、ステップST4407へ移行する。作業負荷の指標予測値P42が、図6に示すデータの場合、ステップST4407にて、User-Bに対する作業負荷の指標予測値P42の最大値は0.71であるので、基準値である0.8以上になるときはない。そのため、権威勾配は高いが、レベルは低レベルを示すレベル1と判断される(ステップST4408)。
 このようにして、図7で説明した権威勾配に応じた評価ロジックL4をはじめ、その他すべての評価対象に応じた評価ロジックL4について評価した結果、図8に示すようなチームワーク評価データE4を作成する。チーム状態情報D441として生成されたデータは各チームワーク不良を識別するチーム状態を示すものである。評価結果情報D442は各チーム状態に対する評価結果を示すデータであり、「権威勾配:高」に対する結果は「レベル1の権威勾配:高に該当」していることを示し、「権威勾配:低」に対する結果は「非該当」であることを示す。また、チーム状態が「健全」に対する評価結果については、チームワーク不良の評価結果がすべて「非該当」であった場合にのみ、「該当」となる。
 関係ユーザとしては、チームワーク不良の判断時に該当したユーザIDと、不良要因に寄与する度合(主要因のユーザの場合は「●」、副要因のユーザの場合は「○」)を識別するマークを紐づけて関係ユーザ情報D443として作成する。指標値は、当該評価ロジックにて判定に用いたすべての指標値の名称、値、1つ以上の関係ユーザのユーザIDをまとめて、指標値情報D444として作成する。作成後、評価結果が「健全」に該当しない場合は、チームワーク評価データE4を、支援情報提示処理部50の支援内容決定部51に送信し、該当する場合(ステップST105で「Yes」)は、処理を終了する。
 なお、本実施の形態では、監督者と運転員の権威勾配が異常に高い場合を例として説明したが、上述したようにチームワーク評価部43では、異なる評価ロジックL4を用い、他の項目でのチームワーク不良を評価することができる。例えば、権威勾配が低い、不適切なワークロードによるユーザのパフォーマンス低下、覚醒度低下によるユーザのパフォーマンス低下、監督者、または運転員への過度の信頼・依存、責任欠如によるチーム離脱などといった項目が挙げられる。
 支援情報提示処理部50は、チームワーク評価部43から出力されるチームワーク評価データE4を元に、支援内容を決定し、提示情報を生成し、しかるべきユーザの出力装置54に支援情報を提示する処理を行う(ステップST106~ST107)。
 支援内容決定部51は、チームワーク評価部43から送信されたチームワーク評価データE4から、どのユーザにどのような支援を行うかを決定する支援内容決定ステップST106を実行する。まず、チームワーク評価データE4の評価結果情報D442内で、「非該当」以外である項目を1つ以上抽出する。例えば、図8のチームワーク評価データE4の例では、チーム状態が「権威勾配:高」の項目のみが抽出される。
 その後、支援内容および支援を行うユーザ、提示方法を決定する。支援内容決定部51内には、図9に示すように、支援内容および支援を行うユーザ、提示方法を選択するための支援内容決定テーブルT51を有している。支援内容決定テーブルT51には、支援内容の種別を示す支援名称情報D511、決定条件情報D512、情報提示先ユーザ情報D513、提示方法情報D514、支援内容情報D515の項目ごとのデータが格納されている。
 支援名称情報D511には、例えば「権威勾配:高 レベル1」、「権威勾配:高 レベル2」などの支援内容を区別する支援名称が格納される。決定条件情報D512には、例えば、「権威勾配:高 レベル1に該当」、「権威勾配:高 レベル2に該当」など、決定に必要な条件式(決定条件)が格納されている。ここには、チーム状態(チーム状態情報D441:図8)に応じた論理式(AND、ORなど)を格納でき、複数のチーム状態に該当する場合でも、支援内容を網羅的に記述することができる。
 情報提示先ユーザ情報D513には、直接的に支援情報を提示する支援対象者(情報提示先)の1つ以上のユーザIDを記述する。例えば、支援名称が「権威勾配:高 レベル1」の場合、情報提示先ユーザ情報D513には「User-B」と「User-C」(どちらも運転員)が格納される。本実施の形態では、運転チーム内のユーザを情報提示先ユーザとしているが、プラント中央制御室外の作業者、他の運転員、監督者の上司にあたる作業者のユーザIDを情報提示先ユーザとして格納してもよい。
 提示方法情報D514には、提示方法として、情報提示方法の種別、例えば「運転画面メッセージ表示」、「音声提示」などのうち、1つが格納される。支援内容情報D515には、例えばチームワーク不良の課題に対するアドバイス、勧告などの支援内容が格納される。
 支援内容決定部51は、支援内容決定テーブルT51を用いて、抽出したチームワーク評価データE4のチーム状態、評価結果に該当する支援項目を1つ決定する。本例で抽出したチーム状態が「権威勾配:高」、評価結果が「該当:レベル1」の項目の場合、支援内容決定テーブルT51の支援名称情報D511のなかで、「権威勾配:高 レベル1」の項目が抽出される。そして、提示先のユーザを決定する。関係ユーザ情報D443には「User-A」と「User-B」が含まれており、支援内容決定テーブルT51のなかでは情報提示先ユーザ情報D513内の「User-B」が一致するため、情報提示先ユーザはUser-Bに決定する。提示方法は、提示方法情報D514内に記載の方法を採用する。
 その後、こうして決定した支援名称、情報提示先ユーザ、提示方法、および支援内容の情報を含んだ提示情報の生成を命令する信号データS51を作成し、提示情報生成部53に送信する。また、支援結果データベース52に、支援内容決定処理を完了した時刻データと、最終的に決定した支援名称、情報提示先ユーザ、提示方法、支援内容を含むデータD51を蓄積する。その際、支援内容データに紐づくチームワーク評価データE4の、チーム状態、評価結果、関連ユーザ、指標値を含むデータD44も支援結果データベース52に蓄積する。
 提示情報生成部53は、受信した信号データS51を元に、出力装置54に送信する提示データD53を生成し出力装置54に出力する処理を行う(ステップST107)。具体的には、提示方法情報D514に沿った提示データD53を作成し、情報提示先ユーザが使用する出力装置54に出力する。運転画面G5上に支援名称が「権威勾配:高 レベル1」の支援情報を出力した例を図10に示す。情報提示先ユーザは「User-B」、提示方法は「運転画面へのメッセージ表示」であるため、User-Bの運転員の運転画面G5に支援内容に記載のメッセージGm5を描画する。
 このようにして、周期的にプラントとユーザの情報を収集し、良好なチームワークで運転管理ができるように支援を継続する。
 つぎに、上述した支援を行うための評価ロジックL4の更新について説明する。評価ロジック更新処理部60は、チームワーク評価処理部40がチームワーク状態を評価するための評価ロジックL4を変更する役割を担う。はじめに、評価ロジックL4を手動で変更する方法について説明する。
 評価ロジック更新部61は、支援結果データベース52に蓄積されたデータD44、データD51、および評価ロジックL4のデータを元に、現在登録されている支援結果の実績データを可視化する。そして、ユーザによる変更対象の選択、評価項目ごとの閾値、論理式などの編集入力を受け付け、評価ロジックデータベース44に更新後の評価ロジックL4を格納する処理を行う。ユーザの操作は、マウス、キーボードなどの入力装置62を用いる。また評価ロジック更新部61が有する出力装置に、変更に必要な情報を出力する。
 評価ロジック更新部61の処理フローを図11に示す。まず、変更対象の評価ロジックL4を選択する(ステップST611)。ユーザに選択を促すために、評価ロジックデータベース44に登録されている全評価ロジックL4の名称(例えば「権威勾配:高」、「権威勾配:低」など)を表示する。その際、評価ロジックL4のそれぞれに評価実績がある場合は、変更対象を選択する際の参考情報としてデータD44、データD51とを紐づけて表形式で出力する。1つの評価ロジックL4に評価実績が複数存在する場合は、最新時刻のデータから順にすべて出力する
 画面操作により、1つの評価ロジックL4を選択すると、選択された評価ロジックL4を編集するための編集画面が出力される(ステップST612)。本実施の形態では、評価ロジックL4の変更のうち、評価項目ごとの閾値を変更する例を説明する。図12に示すように、編集画面G6は、タイトルGt6に記載の、図7で説明した「権威勾配:高」の評価ロジックL4をフローチャート形式で可視化したものである。編集画面G6内に描画される各評価ステップ表示欄Gf6内には、矩形で示された編集可能領域Ge6が配置され、本例では、編集可能領域Ge6中に、現状設定されている判断基準の閾値が表示されている。
 そこで、入力装置62を介して、所望の編集可能領域Ge6を選択し、新たな閾値を入力後、保存ボタンGb6を押下すると、評価ロジックデータベース44の当該評価ロジックL4に変更後の評価ロジックL4を上書きして格納する(ST613)。
 なお閾値の変更にとどまらず、評価ステップ内の対象ユーザ、指標値、分岐条件(Yes/No)、分岐先、評価ステップの順序変更、評価ステップの新規追加など、変更を加えられるようにしてもよい。対象ユーザ、指標値については、画面上で候補を表示し、そのなかから選択して変更するようにしてもよく、新たに追加・削除を行えるようにしてもよい。分岐先、評価ステップの順序、あるいは新規追加に関しては、例えばグラフィカルに評価ロジックL4を編集できるようにしてもよい。評価ロジック部品として評価ステップ部品、接続線部品など用意しておき、それを編集画面G6に配置して分岐条件を設定し、ロジックの整合性を判定する処理を行うことで、評価ステップの編集が可能となる。
 なお、評価ロジック更新部61は、評価ロジックL4の閾値に関して、過去に蓄積した指標値(指標値情報D444)に基づき、より適した値を算出し、それを候補として編集可能領域Ge6の近くに提示しても良い。例えば、図12の最上段の評価ステップGf6における指標値(問題感情の継続時間)において、ある回数以上、現在の閾値(30秒)を超える値を記録していれば、その値を候補として提示する。
 また、本実施の形態では、チームワーク評価部43にて評価結果が「健全」に該当する場合(ステップST105で「Yes」)は、そこで処理を終了する例を示したが、これに限ることはない。この場合にも、各評価ロジックで算出した指標値を含むチームワーク評価データE4を支援情報提示処理部50に送信し、支援内容決定部51が支援結果データベース52にデータD44を蓄積するようにしてもよい。さらに、評価した結果、「非該当」になった場合の指標値も含めて、より適した値を算出して設定し、候補値を提示するようにしてもよい。
 加えて、ステップST612において、まずユーザに検知回数を増加させたいか、または減少させたいかを選択させる。そして、蓄積した指標値の代表値(例えば平均値)よりも一定以上余剰に設定されている、または低く設定されている閾値に対して、より適した値を算出して設定し、候補値を提示するようにしてもよい。上述の処理は候補を提示し、ユーザに閾値を入力させる例を示しているが、候補値を一括で設定するかどうかをユーザに選択させ、自動的に値を入力するようにしてもよい。さらに、上述の評価ロジック更新部61は編集内容を出力して提示しているが、入力される設定データに基づき、出力を行わずにステップST611~ST613の処理を行っても良い。
 つぎに、評価ロジックL4を自動で変更する方法について説明する。本実施の形態では、評価ロジック更新部61が、蓄積した指標値に基づいて、評価ロジックL4を変更する。図12で示した「権威勾配:高」の評価ロジックL4の閾値を自動で変更する例、つまり、図11におけるステップST611~ST613までを自動で実行する例を示す。
 図13は、指標値のうち、いらつきまたはストレスの感情(問題感情)の継続時間についての蓄積結果をヒストグラムで示したものである。感情の継続時間が10秒以上続いた場合をデータとして蓄積しており、合計で20回分のデータが蓄積されている。本例では、あらかじめユーザが、入力装置62を用いて、検知回数の発生頻度の確率を指定しておく。ユーザが検知回数の発生頻度の確率を20%に設定していたと仮定した場合、図13のデータでは、グラフ上の点線Th6に対応する部分が20%、すなわち4回検知する閾値となる。そこで、問題感情の継続時間の閾値を45秒として自動的に更新する。
 なお、上記例では、発生頻度の確率をユーザが入力する方法にて説明したが、これに限ることはない。例えば、マハラノビス距離を用いて、データのパターンを学習し、データから著しく外れたデータを異常値として閾値を設定するなど、機械学習を用いて、評価ロジックL4を自動で変更する方法を用いてもよい。
 なお、従来の、教師データを用いた学習、あるいはデータが蓄積するごとに法則に従って報酬を増減して学習させる場合では、評価のために、教師データ、あるいは良好事例の蓄積を必要としていた。さらには、学習結果で得られた評価基準もブラックボックス化しており、何が基準となっているかがわからなかった。そのため、実態に合わせた評価手法の更新には、新たな教師データ、あるいは良好事例の蓄積が必要であり、評価基準の更新が困難であった。
 一方、本実施の形態にかかるプラント運転支援装置10、およびプラント運転支援方法では、「Yes」であるか「No」であるかを定量的に判断する評価ステップを組み合わせて構成した評価ロジックL4を用いてチームワークを評価するようにした。つまり、数値を閾値と評価して是か非かを出力する複数の論理式を繋ぎ合わせた評価ロジックL4を用いて評価を行うようにした。そのため、手動であれ、自動であれ、正解データ、あるいは良好事例の蓄積なしに、評価ロジックL4を上述したように実態に合わせて容易に更新することができる。
 なお、本願は、様々な例示的な実施の形態および実施例が記載されているが実施の形態に記載された様々な特徴、態様、および機能は例示に限られるのではなく、単独で、または様々な組み合わせで適用可能である。従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の構成要素と組み合わせる場合が含まれるものとする。
 例えば、本実施の形態では、チームワーク評価部43にて評価結果が「健全」に該当する場合は、そこで処理を終了する例を示したが、この場合においてもチーム状態が健全である旨のメッセージを提示情報生成部53が作成し、出力装置54に出力しても構わない。また、支援内容決定部51にて、1つの支援内容を決定する方法を示したが、これに限ることはない。1つに絞り込めるような網羅的な支援内容決定テーブルT51ではなく、複数の決定条件に合致するようにし、優先順位を定めたデータを用いて、複数の支援内容を決定、提示情報を作成し、出力装置54に順に提示するようにしてもよい。
 また、例えば、ユーザの精神状態(感情の種類)を把握するために、生体データの波形を用いる例を示したがこれに限ることはない。例えば、会話中に出てきた単語の組み合わせが、ある感情に適合する場合、その感情状態にあると判定し、判定した際の心拍、脳波等の生体データのパターンが継続する時間でその感情の継続する時間を推定するようにしてもよい。
 以上のように、本実施の形態1にかかるプラント運転支援装置10によれば、チームを構成する複数の構成員(ユーザ)それぞれに対応して設けられ、チームとしてプラント運転を行うための情報提示を行う出力装置54、複数の構成員(ユーザ)それぞれの状態、構成員(ユーザ)どうしの意思の疎通状態、および複数の構成員(ユーザ)それぞれの作業負荷状態、のいずれかを評価する複数の評価項目に対し、評価項目ごとにその程度を数値化した指標値(指標データD41、指標予測値P42)を算出する指標値算出部41(指標予測値算出部42を含む)、指標値に基づいてチームのチームワークを評価するチームワーク評価部43、チームワークの評価結果(チームワーク評価データE4)に基づいて、チームの構成員(ユーザ)を含む支援対象者を選定し、選定した支援対象者に応じた支援内容を決定する支援内容決定部51、および出力装置54のうち、選定した支援対象者に対応した出力装置54ごとに、決定した支援内容を提示するための提示情報(提示データD53)を生成する提示情報生成部53、を備え、チームワーク評価部43は、複数の評価項目ごとに設定された閾値と算出された指標値を比較する論理式の繋ぎ合わせで構成した評価ロジックL4を用い、チームワークを評価するように構成したので、決まった正解データを用意することなく、チームワークを評価し、適切なプラント運転の支援を行うことができる。
 指標値算出部41は、複数の構成員(ユーザ)それぞれの感情に関連する生体データの測定結果(例えば、チームワークにとって問題となる感情が継続する時間等)を指標値として算出するようにすれば、チームワークにとって良くない精神状態である(問題感情をユーザが抱いている)か否か、つまりユーザの精神状態を定量的に評価できるとともに、上述した評価ロジックL4の論理式に組み込むことができる。
 指標値算出部41は、構成員(ユーザ)どうしの会話における声量、発話の間隔、および口調のいずれかを、指標値として算出するようにすれば、ユーザ間の意思の疎通状態を定量的に評価できるとともに、上述した評価ロジックL4の論理式に組み込むことができる。
 閾値、および繋ぎ合わせの関係のいずれかを修正する評価ロジック更新部61を備えるようにしたので、教師データあるいは正解データがなくても、評価ロジックL4を容易に修正することができ、実情に合った適切なチームワーク評価が可能になる。
 評価ロジック更新部61は、評価項目のうち、異常値を閾値として設定するものに対して、事象の発生頻度の確率、またはマハラノビス距離等の統計的分析手法を用いて、当該閾値を自動更新するようにすれば、実際のプラント運転でのデータを用いて自動的に評価ロジックL4が更新され、実情に合った適切なチームワーク評価が可能になる。
 また、以上のように、本実施の形態1にかかるプラント運転支援方法によれば、チームとしてプラントを運転する複数の構成員(ユーザ)それぞれの状態、構成員(ユーザ)どうしの意思の疎通状態、および複数の構成員(ユーザ)それぞれの作業負荷状態、のいずれかを評価する複数の評価項目に対し、評価項目ごとに数値化した指標値(指標データD41、指標予測値P42)を算出する指標値算出ステップ(ステップST103)、算出された指標値に基づいてチームのチームワークを評価するチームワーク評価ステップ(ステップST104)、チームワークの評価結果(チームワーク評価データE4)に基づいて、チームの構成員(ユーザ)を含む支援対象者を選定し、選定した支援対象者に応じた支援内容の決定を行う支援内容決定ステップ(ステップST106)、および選定した支援対象者ごとに、決定した支援内容を提示する支援内容提示ステップ(ステップST107)、を含み、チームワーク評価ステップでは、複数の評価項目ごとに設定された閾値と算出された指標値を比較する論理式の繋ぎ合わせで構成した評価ロジックL4を用い、チームワークを評価するように構成したので、決まった正解データを用意することなく、チームワークを評価し、適切なプラント運転の支援を行うことができる。
 閾値、および繋ぎ合わせの関係のいずれかを修正する評価ロジック更新ステップ(ステップST612)を含むようにすれば、教師データあるいは正解データがなくても、評価ロジックL4を容易に修正することができ、実情に合った適切なチームワーク評価が可能になる。
 10:プラント運転支援装置、 20:プラント状況判別処理部、 30:ユーザ情報収集処理部、 40:チームワーク評価処理部、 41:指標値算出部、 42:指標予測値算出部(指標値算出部)、 43:チームワーク評価部、 50:支援情報提示処理部、 51:支援内容決定部、 53:提示情報生成部、 54:出力装置、 60:評価ロジック更新処理部、 61:評価ロジック更新部、 D41:指標データ(指標値)、 D53:提示データ、 E4:チームワーク評価データ、 L4:評価ロジック、 P42:指標予測値(指標値)。

Claims (7)

  1.  チームを構成する複数の構成員それぞれに対応して設けられ、前記チームとしてプラント運転を行うための情報提示を行う出力装置、
     前記複数の構成員それぞれの状態、前記構成員どうしの意思の疎通状態、および前記複数の構成員それぞれの作業負荷状態、のいずれかを評価する複数の評価項目に対し、評価項目ごとにその程度を数値化した指標値を算出する指標値算出部、
     前記指標値に基づいて前記チームのチームワークを評価するチームワーク評価部、
     前記チームワークの評価結果に基づいて、前記チームの構成員を含む支援対象者を選定し、選定した支援対象者に応じた支援内容を決定する支援内容決定部、および
     前記出力装置のうち、前記選定した支援対象者に対応した出力装置ごとに、決定した支援内容を提示するための提示情報を生成する提示情報生成部、を備え、
     前記チームワーク評価部は、前記複数の評価項目ごとに設定された閾値と算出された指標値を比較する論理式の繋ぎ合わせで構成した評価ロジックを用い、前記チームワークを評価することを特徴とするプラント運転支援装置。
  2.  前記指標値算出部は、前記複数の構成員それぞれの感情に関連する生体データの測定結果を、前記指標値として算出することを特徴とする請求項1に記載のプラント運転支援装置。
  3.  前記指標値算出部は、前記構成員どうしの会話における声量、発話の間隔、および口調のいずれかを、前記指標値として算出することを特徴とする請求項1または2に記載のプラント運転支援装置。
  4.  前記閾値、および前記繋ぎ合わせの関係のいずれかを修正する評価ロジック更新部を備えたことを特徴とする請求項1から3のいずれか1項に記載のプラント運転支援装置。
  5.  前記評価ロジック更新部は、前記評価項目のうち、異常値を前記閾値として設定するものに対して、統計的分析手法を用いて、当該閾値を自動更新することを特徴とする請求項4に記載のプラント運転支援装置。
  6.  チームとしてプラントを運転する複数の構成員それぞれの状態、前記構成員どうしの意思の疎通状態、および前記複数の構成員それぞれの作業負荷状態、のいずれかを評価する複数の評価項目に対し、評価項目ごとに数値化した指標値を算出する指標値算出ステップ、
     前記指標値に基づいて前記チームのチームワークを評価するチームワーク評価ステップ、
     前記チームワークの評価結果に基づいて、前記チームの構成員を含む支援対象者を選定し、選定した支援対象者に応じた支援内容の決定を行う支援内容決定ステップ、および
     前記選定した支援対象者ごとに、決定した支援内容を提示する支援内容提示ステップ、を含み、
     前記チームワーク評価ステップでは、前記複数の評価項目ごとに設定された閾値と算出された指標値を比較する論理式の繋ぎ合わせで構成した評価ロジックを用い、前記チームワークを評価することを特徴とするプラント運転支援方法。
  7.  前記閾値、および前記繋ぎ合わせの関係のいずれかを修正する評価ロジック更新ステップを含むことを特徴とする請求項6に記載のプラント運転支援方法。
PCT/JP2020/012602 2020-03-23 2020-03-23 プラント運転支援装置、プラント運転支援方法 WO2021191941A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/789,553 US11934986B2 (en) 2020-03-23 2020-03-23 Plant operation support apparatus and plant operation support method
JP2022509758A JP7305030B2 (ja) 2020-03-23 2020-03-23 プラント運転支援装置、プラント運転支援方法
PCT/JP2020/012602 WO2021191941A1 (ja) 2020-03-23 2020-03-23 プラント運転支援装置、プラント運転支援方法
CA3171492A CA3171492A1 (en) 2020-03-23 2020-03-23 Plant operation support apparatus and plant operation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/012602 WO2021191941A1 (ja) 2020-03-23 2020-03-23 プラント運転支援装置、プラント運転支援方法

Publications (1)

Publication Number Publication Date
WO2021191941A1 true WO2021191941A1 (ja) 2021-09-30

Family

ID=77891126

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/012602 WO2021191941A1 (ja) 2020-03-23 2020-03-23 プラント運転支援装置、プラント運転支援方法

Country Status (4)

Country Link
US (1) US11934986B2 (ja)
JP (1) JP7305030B2 (ja)
CA (1) CA3171492A1 (ja)
WO (1) WO2021191941A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269770A (ja) * 2000-03-24 2001-10-02 Kawasaki Steel Corp 溶融金属取扱い設備の異常自動検出方法
JP2004054954A (ja) * 2002-07-17 2004-02-19 Tokio Marine & Fire Insurance Co Ltd リスク診断システム、リスクマップデータ生成方法及びプログラム
JP2007272564A (ja) * 2006-03-31 2007-10-18 Railway Technical Res Inst チームによる業務の活性度の評価システムおよびそれを用いた業務雰囲気の活性化システム
JP2011175479A (ja) * 2010-02-24 2011-09-08 Nec Corp 知的生産性評価装置、知的生産性評価方法およびプログラム
JP2012217518A (ja) * 2011-04-05 2012-11-12 Hitachi Ltd 人間行動分析システム及び方法
JP2016007363A (ja) * 2014-06-25 2016-01-18 日本電信電話株式会社 集団感情推定装置、集団感情推定方法及び集団感情推定プログラム
JP2018207650A (ja) * 2017-06-02 2018-12-27 三菱日立パワーシステムズ株式会社 回転電機の特徴量評価システムおよび回転電機の特徴量評価方法
JP2019036205A (ja) * 2017-08-18 2019-03-07 三菱重工業株式会社 評価システム、評価方法及びプログラム
WO2019049356A1 (ja) * 2017-09-11 2019-03-14 株式会社日立製作所 情報処理システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01123304A (ja) 1987-11-07 1989-05-16 Toshiba Corp プラント監視制御装置
CA2374578C (en) * 2000-03-17 2016-01-12 Siemens Aktiengesellschaft Plant maintenance technology architecture
JP2003271048A (ja) 2002-03-14 2003-09-25 Mitsubishi Heavy Ind Ltd 訓練評価装置及び訓練評価方法
US20040153355A1 (en) * 2003-01-31 2004-08-05 Deering Anne M. Method and system for assessing leadership skills
JP4693758B2 (ja) 2006-12-05 2011-06-01 株式会社東芝 プラント監視制御装置
CN101119365B (zh) * 2007-09-13 2012-09-05 复旦大学 大规模协同环境下的协同交互优化方法
WO2009076203A1 (en) * 2007-12-05 2009-06-18 Florida Gulf Coast University System and methods for facilitating collaboration of a group
US20100010879A1 (en) * 2008-07-08 2010-01-14 Ford Motor Company Productivity operations system and methodology for improving manufacturing productivity
US20110246340A1 (en) * 2010-04-02 2011-10-06 Tracelink, Inc. Method and system for collaborative execution of business processes
US9983670B2 (en) * 2012-09-14 2018-05-29 Interaxon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
WO2014059191A2 (en) * 2012-10-10 2014-04-17 Daniel Wartel Daniel Productivity assessment and rewards systems and processes therefor
US9325591B1 (en) * 2012-12-28 2016-04-26 Google Inc. Automatic analysis and quality detection of media
US20140278241A1 (en) * 2013-03-15 2014-09-18 General Electric Company Performance monitoring and analysis for power plants
KR20160089152A (ko) * 2015-01-19 2016-07-27 주식회사 엔씨소프트 화행 분석을 통한 스티커 추천 방법 및 시스템
WO2018005656A1 (en) * 2016-06-29 2018-01-04 ITY Labs Corp. System and method for determining user metrics
US20180101776A1 (en) * 2016-10-12 2018-04-12 Microsoft Technology Licensing, Llc Extracting An Emotional State From Device Data
US20200401977A1 (en) * 2019-06-18 2020-12-24 Didi Research America, Llc System and method for evaluation
US20210150485A1 (en) * 2019-11-20 2021-05-20 International Business Machines Corporation Dynamic determination of job requirements and candidate assessment
US20210304107A1 (en) * 2020-03-26 2021-09-30 SalesRT LLC Employee performance monitoring and analysis

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269770A (ja) * 2000-03-24 2001-10-02 Kawasaki Steel Corp 溶融金属取扱い設備の異常自動検出方法
JP2004054954A (ja) * 2002-07-17 2004-02-19 Tokio Marine & Fire Insurance Co Ltd リスク診断システム、リスクマップデータ生成方法及びプログラム
JP2007272564A (ja) * 2006-03-31 2007-10-18 Railway Technical Res Inst チームによる業務の活性度の評価システムおよびそれを用いた業務雰囲気の活性化システム
JP2011175479A (ja) * 2010-02-24 2011-09-08 Nec Corp 知的生産性評価装置、知的生産性評価方法およびプログラム
JP2012217518A (ja) * 2011-04-05 2012-11-12 Hitachi Ltd 人間行動分析システム及び方法
JP2016007363A (ja) * 2014-06-25 2016-01-18 日本電信電話株式会社 集団感情推定装置、集団感情推定方法及び集団感情推定プログラム
JP2018207650A (ja) * 2017-06-02 2018-12-27 三菱日立パワーシステムズ株式会社 回転電機の特徴量評価システムおよび回転電機の特徴量評価方法
JP2019036205A (ja) * 2017-08-18 2019-03-07 三菱重工業株式会社 評価システム、評価方法及びプログラム
WO2019049356A1 (ja) * 2017-09-11 2019-03-14 株式会社日立製作所 情報処理システム

Also Published As

Publication number Publication date
US20230037720A1 (en) 2023-02-09
JP7305030B2 (ja) 2023-07-07
CA3171492A1 (en) 2021-09-30
US11934986B2 (en) 2024-03-19
JPWO2021191941A1 (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
US8032372B1 (en) Dictation selection
US9700218B2 (en) Systems and methods for reducing nuisance alarms in medical devices
Havlikova et al. Human reliability in man-machine systems
Harte et al. Process models of decision making
US11923094B2 (en) Monitoring predictive models
RU2619644C2 (ru) Клиническая система поддержки принятия решений для прогнозирующего планирования выписки
US10052056B2 (en) System for configuring collective emotional architecture of individual and methods thereof
JP5302911B2 (ja) 疲労度評価システムおよびそれを用いた企業内疲労度評価システム並びに疲労度評価方法
CN112908481B (zh) 一种自动化个人健康评估及管理方法及系统
US20220128974A1 (en) Plant monitoring and control apparatus and plant monitoring and control method
JP4631464B2 (ja) 体調判定装置およびそのプログラム
KR102659616B1 (ko) 음성 특성 기반 알츠하이머병 예측 방법 및 장치
WO2021191941A1 (ja) プラント運転支援装置、プラント運転支援方法
Lund et al. Sentence-based experience logging in new hearing aid users
CN114496224A (zh) 一种记忆认知障碍筛查评估方法
KR102496412B1 (ko) 청지각능력 훈련 시스템의 동작 방법
JP7270187B2 (ja) 就労支援装置、就労支援方法及び就労支援プログラム
Azzini et al. Automated spoken dialog system for home care and data acquisition from chronic patients
CN118136270B (zh) 一种基于数据分析慢病健康监测与预警系统与方法
US11630943B2 (en) Systems and methods to briefly deviate from and resume back to amending a section of a note
Anjou et al. A computer system for occupational health epidemiology
US20210068751A1 (en) Autism support system, wearable device, and methods of use
RU2813438C1 (ru) Система и способ выявления и использования эталонного эмоционально-интеллектуального профиля (эи-профиля) по группам анализа
CN118136270A (zh) 一种基于数据分析慢病健康监测与预警系统与方法
KR20230078569A (ko) 기계학습을 기반으로 하는 covid-19 환자의 정신건강 평가 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20926824

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022509758

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3171492

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20926824

Country of ref document: EP

Kind code of ref document: A1