DE112018004216T5 - Evaluierungssystem, Evaluierungsverfahren und Programm - Google Patents

Evaluierungssystem, Evaluierungsverfahren und Programm Download PDF

Info

Publication number
DE112018004216T5
DE112018004216T5 DE112018004216.2T DE112018004216T DE112018004216T5 DE 112018004216 T5 DE112018004216 T5 DE 112018004216T5 DE 112018004216 T DE112018004216 T DE 112018004216T DE 112018004216 T5 DE112018004216 T5 DE 112018004216T5
Authority
DE
Germany
Prior art keywords
data
task
entertainment
speech
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018004216.2T
Other languages
English (en)
Inventor
Yoshiki Ishikawa
Yasuhiko Fukuyama
Kohei Masuda
Keiko Ishikawa
Tomohiro Komine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Publication of DE112018004216T5 publication Critical patent/DE112018004216T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/64Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Primary Health Care (AREA)
  • Manufacturing & Machinery (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Ein Evaluierungssystem beinhaltet eine Sprachdaten-Erfassungseinheit, die konfiguriert ist, Sprachdaten aus einem Gesprochenem eines in einer Aufgabe engagierten Mitglieds zu erfassen, eine Spracherkennungseinheit, die konfiguriert ist, Inhalt des Gesprochenen aus den Sprachdaten zu erkennen und den Inhalt in Textdaten umzuwandeln, eine Aufgaben-Erfassungseinheit, die konfiguriert ist, Daten zu erfassen, die eine Aktion angeben, die sich auf die Aufgabe des Mitglieds bezieht, und Daten, die einen Aufgabenstatus angeben, eine Extraktionseinheit, die konfiguriert ist, Unterhaltungsdaten, die sich auf die Aufgabe beziehen, aus den Textdaten zu extrahieren, basierend auf dem Inhalt des durch die Spracherkennungseinheit erkannten Gesprochenen, und eine Analyseeinheit, die konfiguriert ist, Korrelation zwischen den Umwandlungsdaten zu analysieren, wobei die Daten die Aktion angeben und die Daten den Aufgabenstatus angeben.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf ein Evaluierungssystem, ein Evaluierungsverfahren und ein Programm.
  • Es wird die Priorität der japanischen Patentanmeldung JP 2017-158021 A , eingereicht am 18. August 2017, beansprucht, deren Inhalt hierin durch Bezugnahme inkorporiert sei.
  • Operationen in Kraftwerken werden durch Kommunikation über Unterhaltungen zwischen Mitgliedern (einschließlich Schicht-Managern, Hilfs-Managern, Operatoren etc.) innerhalb eines Betriebsteams durchgeführt, das die Überwachung und Operationsprozeduren in einem Steuerraum durchführt, und Mitgliedern (Managern, Bereichsmitgliedern, etc.) außerhalb des Steuerraums. In solch einer Aufgabe, für welche Kooperation einer Vielzahl von Mitgliedern erforderlich ist, ist es wichtig, Information vor und nach Aktionen zu senden. Beispielsweise im Falle von Anlagenoperationen tendieren die Aktionen eines Operationen durchführenden Teams dazu, evaluiert zu werden, und nicht nur für Individuen, die angemessen Operationen zum Betreiben des Werks korrekt ausführen, sondern auch für Personal für eine Rolle, die angemessen anzuweisen ist, ist ein Verhaltensmuster erforderlich, in welchem Personal in einer Rolle, die Anweisungen empfängt, Operationen durchführen, während sie angemessen antworten.
  • Hier beschreibt als verwandte Technik Patentliteratur 1 einen Werkbetriebs-Trainingssimulator, der eine Funktion des Aufnehmens von Audio- und Video-Aufzeichnungen der Operationen eines zu Trainierenden während Betriebstraining aufweist, um zu gestatten, dass die Unterhaltungen und Operationen während des Betriebstrainings später überprüft werden.
  • Zitateliste
  • Patentliteratur
  • Patentliteratur 1
  • Japanische ungeprüfte Patentanmeldung, Erstveröffentlichungs-Nr. H9-69008 A.
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Wie oben beschrieben, obwohl in dem Werkbetrieb die Übertragung von Information während Operationen wichtig ist, ist bis jetzt keine verfügbare Technologie zum Evaluieren von Betriebskompetenzen einschließlich Unterhaltungen und Operationen gegeben gewesen und Informationsübertragung über Unterhaltungen während des Werkbetriebs. Beispielsweise wird in Patentliteratur 1 das Aufzeichnen von Sprache und Videos beschrieben, aber die Evaluierung der aufgezeichneten Sprachdaten und Videodaten in Assoziierung mit den Betriebsprozeduren wird nicht beschrieben.
  • Die vorliegende Erfindung stellt ein Evaluierungssystem, ein Evaluierungsverfahren und ein Programm bereit, durch welche die obigen Probleme adressiert werden können.
  • Problemlösung
  • Gemäß einem Aspekt der vorliegenden Erfindung beinhaltet ein Evaluierungssystem eine Sprachdaten-Erfassungseinheit, die konfiguriert ist, Sprachdaten aus Gesprochenem eines in einer Aufgabe engagierten Mitglieds zu erfassen, eine Spracherkennungseinheit, die konfiguriert ist, einen Inhalt des Gesprochenen aus den Sprachdaten zu erkennen und den Inhalt in Textdaten umzuwandeln, eine Aufgaben-Datenerfassungseinheit, die konfiguriert ist, Daten zu erfassen, die eine sich auf die Aufgabe des Mitglieds beziehende Aktion angeben und Daten, die einen Aufgabenstatus angeben, eine Extraktionseinheit, die konfiguriert ist, Unterhaltungsdaten, die sich auf die Aufgabe beziehen, aus den Textdaten zu extrahieren, basierend auf dem Inhalt des durch die Spracherkennungseinheit erkannten Gesprochenen, und eine Analyseeinheit, die konfiguriert ist, die Korrelation zwischen den Unterhaltungsdaten, welche durch die Extraktionseinheit extrahiert werden, den die Aktion angebenden Daten und den, den Aufgabenstatus angebenden Daten zu analysieren.
  • Gemäß einem Aspekt der vorliegenden Erfindung evaluiert die Analyseeinheit Korrelationen zwischen den analysierten Unterhaltungsdaten, den, die Aktion angebenden Daten und den den Aufgabenstatus angebenden Daten, basierend auf Daten, die eine starke Korrelation zwischen der Unterhaltung, der Aktion und dem Aufgabenstatus angeben.
  • Gemäß einem Aspekt der vorliegenden Erfindung, beinhaltet das Evaluierungssystem weiter eine Evaluierungsergebnis-Ausgabeeinheit, die konfiguriert ist, Information auszugeben, die eine Beziehung zwischen den Zeiten, zu welchen sich auf eine Aufgabe beziehende Unterhaltungen durchgeführt worden sind, und Ergebnissen der Aufgabe für das Evaluierungsergebnis aus der Analyseeinheit angeben.
  • Gemäß einem Aspekt der vorliegenden Erfindung analysiert die Analyseeinheit zeitliche Beziehungen zwischen Zeiten, zu welchen Unterhaltungen, die sich auf eine Aufgabe beziehen, durchgeführt worden sind, und Zeiten, zu welchen Aktionen durchgeführt worden sind, und Beziehungen zwischen Zeiten, zu welchen Unterhaltungen, die sich auf die Aufgabe beziehen, durchgeführt worden sind, und Ergebnisse der Aufgabe.
  • Gemäß einem Aspekt der vorliegenden Erfindung analysiert die Analyseeinheit, ob Inhalt der Unterhaltungsdaten und der Aktion die richtige Beziehung aufweisen.
  • Gemäß einem Aspekt der vorliegenden Erfindung bestimmt die Extraktionseinheit, ob ein vorbestimmter Typ von Unterhaltung für die Unterhaltungsdaten etabliert wird.
  • Gemäß einem Aspekt der vorliegenden Erfindung beinhaltet das Evaluierungssystem weiter eine Textdaten-Ausgabeeinheit, die konfiguriert ist, Inhalt der durch die Spracherkennungseinheit erkannten Sprache zusammen mit Identifikationsinformationen des Mitglieds, der die Sprache getätigt hat, und Information zu einer Zeit, zu welcher das Sprechen durchgeführt wurde, auszugeben.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist das Evaluierungssystem ein System zum Evaluieren von Werkbetriebskenntnissen, erfasst die Sprachdaten-Erfassungseinheit Sprachdaten von Unterhaltungen, die während Operationen durch eine Vielzahl vom Mitgliedern durchgeführt worden sind, die Operationen im Werk durchgeführt haben, erfasst die Aufgabendaten-Erfassungseinheit Information über Operationen, die durch die Mitglieder während der Operation des Werks durchgeführt werden, und Information, die einen Werkstatus während des Betriebs angibt und analysiert die Analyseeinheit, Korrelationen zwischen den Unterhaltungen und den Operationen, die sich auf ein Ereignis bezogen, das beim Betrieb des Werks gehandhabt wurde, und dem Werkstatus.
  • Gemäß einem Aspekt der vorliegenden Erfindung beinhaltet ein Evaluierungsverfahren einen Schritt des Erfassens von Sprachdaten aus dem Gesprochenen eines in einer Aufgabe eingebundenen Mitglieds, einen Schritt des Erkennens von Inhalt des Gesprochenen aus den Sprachdaten und Umwandeln des Inhalts in Textdaten, einen Schritt des Erfassens von Daten, die eine Aktion angeben, die sich auf die Aufgabe des Mitglieds bezieht, und Daten, die den Aufgabenstatus angeben, einen Schritt des Extrahierens von Unterhaltungsdaten, die sich auf die Aufgabe beziehen, aus den Textdaten, basierend auf dem erkannten Inhalt des Gesprochenen, und einen Schritt des Analysierens von Korrelation zwischen extrahierten Unterhaltungsdaten, den die Aktion angebenden Daten, und den den Aufgabenstatus angebenden Daten.
  • Gemäß einem Aspekt der vorliegenden Erfindung veranlasst ein Programm einen Computer eines Evaluierungssystems, durchzuführen: eine Funktion des Erfassens von Sprachdaten aus Gesprochenem eines in einer Ausgabe engagierten Mitglieds; eine Funktion des Erkennens von Inhalt des Gesprochenen aus den Sprachdaten und Umwandeln des Inhalts in Textdaten; eine Funktion des Erfassens von Daten, die eine sich auf die Aufgabe des Mitglieds beziehende Aktion angeben, und einen Aufgabenstatus angebende Daten; eine Funktion des Extrahierens von Unterhaltungsdaten, welche sich auf die Aufgabe beziehen, aus den Textdaten, basierend auf dem erkannten Inhalt des Sprechens; und eine Funktion des Analysierens von Korrelationen zwischen den extrahierten Unterhaltungsdaten, den die Aktion angebenden Daten und den den Aufgabenstatus angebenden Daten.
  • Vorteilhafte Effekte der Erfindung
  • Gemäß dem Evaluierungssystem, Evaluierungsverfahren und Programm, die oben beschrieben sind, ist es möglich, die Beziehung zwischen dem Betrieb und Unterhaltung des Betreibers in dem Werk darzustellen und zu evaluieren, ob eine angemessene Unterhaltung durchgeführt worden ist.
  • Figurenliste
    • 1 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel eines Betriebs-Trainingssystems in einer Ausführungsform der vorliegenden Erfindung zeigt.
    • 2 ist ein Diagramm, das ein Beispiel von Textdaten zeigt, in welchem eine Unterhaltung in einer Ausführungsform der vorliegenden Erfindung visualisiert wird.
    • 3 ist ein Diagramm, das ein Beispiel von Betriebs-/Werkdaten in einer Ausführungsform der vorliegenden Erfindung zeigt.
    • 4 ist ein Diagramm zum Erläutern der Analyse von Korrelationen in einer Ausführungsform der vorliegenden Erfindung.
    • 5 ist ein Diagramm, das ein Beispiel eines Betriebs-Evaluierungsergebnisses in einer Ausführungsform der vorliegenden Erfindung zeigt.
    • 6 ist ein Flussdiagramm, das ein Beispiel eines Betriebs-Evaluierungsverfahrens in einer Ausführungsform der vorliegenden Erfindung zeigt.
    • 7 ist ein Diagramm, das ein Beispiel einer Hardware-Konfiguration eines Betriebs-Evaluierungssystems in einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Beschreibung von Ausführungsformen
  • <Ausführungsform>
  • Ein Betriebs-Trainingssystem gemäß einer Ausführungsform der vorliegenden Erfindung wird unten unter Bezugnahme auf 1 bis 7 beschrieben.
  • 1 ist ein Funktionsblockdiagramm, das ein Konfigurationsbeispiel eines Betriebs-Trainingssystems in einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Ein in 1 gezeigtes Betriebs-Trainingssystem 1 ist ein System für einen Betreiber wie etwa ein Atomkraftwerk, Betriebstraining durchzuführen. Wenn das Betriebs-Trainingssystem 1 der vorliegenden Ausführungsform verwendet wird, werden in einem Betriebstrainings-Steuerraum eines Werks geführte Unterhaltungen und Unterhaltungen außerhalb des Steuerraums als Zeitreihendaten zusammen mit Daten wie etwa Werkparametern, Operationen und Alarmen aufgezeichnet und es ist möglich, zu überprüfen, ob eine Informationsübertragung mittels Unterhaltung angemessen durchgeführt worden ist. Zusätzlich, wenn eine vorab bei der Vorbereitung für Trainingsoperationen geführte Unterhaltung (Wasserquellenumschaltung, Vorrichtungsisolation etc.) extrahiert und analysiert wird, ist es möglich, eine Unterhaltungsleistungszeit und einen Unterhaltungsinhalt während des Trainings zu visualisieren. Das Betriebs-Trainingssystem 1 weist eine Funktion des Simulierens des Zustands eines Werks auf, welches Training unterliegt, eine Funktion des Aufzeichnens von Inhalt eines durch einen Bediener durchgeführten Betriebs gemäß dem Werkstatus und eine Funktion des Evaluierens einer durch einen Bediener durchgeführten Betriebsprozedur. Das Betriebs-Trainingssystem 1 beinhaltet die Mikrofone 2a und 2b, eine Simulatorvorrichtung 3, eine Betriebsevaluierungsergebnis-Verwaltungseinheit 4 und ein Betriebsevaluierungssystem 10.
  • Die Mikrofone 2a und 2b sammeln gesprochenen Ton während des Betriebstrainings. Beispielsweise trägt ein Dienst-Manager (ein Mitglied, der für das Anweisen verantwortlich ist) das Mikrofon 2a während des Betriebstrainings und gibt eine Tonanweisung zum Durchführen einer Operation gemäß den Bedingungen des Werks. Andererseits trägt ein Bediener (ein Mitglied, das verantwortlich ist für das Durchführen einer Operation unter dem Dienst-Manager) das Mikrofon 2b und führt Sprechen der Wiederholung einer Anweisung von Dienst-Manager und dergleichen durch. Auf diese Weise kommunizieren in dem Betriebstraining, das das Betriebs-Trainingssystem 1 verwendet, der Dienst-Manager und der Bediener oder kommunizieren die Bediener miteinander über Unterhaltungen und führen eine Operation durch, während überprüft wird, ob Information genau gesendet worden ist. Das Mikrofon 2a sammelt gesprochenen Ton durch den Dienst-Manager und das Mikrofon 2b sammelt gesprochenen Ton durch den Bediener. Hier sind die Anzahl von Mikrofonen nicht auf zwei beschränkt und Mikrofone werden anhand der Anzahl von Leuten, die am Training teilnehmen, bereitgestellt.
  • Die Simulatorvorrichtung 3 simuliert den Werkstatus anhand eines vorbestimmten Trainings-Szenarios und zeichnet eine durch den Bediener durchgeführte Operation und die Zeit, zu welcher die Operation durchgeführt ist, entsprechend auf. Zusätzlich berechnet die Simulatorvorrichtung 3 eine Änderung im Werkstatus über die Zeit während des Betriebstrainings und zeichnet das Ergebnis auf. Danach werden Daten, in welchen die durch den Bediener durchgeführte Operation und die Zeit, zu welcher die Operation durchgeführt wird, aufgezeichnet werden, als Betriebsdaten beschrieben und werden Daten, in welchen der Werkzustand zu entsprechenden Zeiten während des Betriebstrainings aufgezeichnet wird (verschiedene physische Größen wie etwa Temperatur, verschiedene Steuerwerte wie etwa ein Grad einer Bedienöffnung und Drehzahl einer Pumpe und Mitteilungsinformation wie etwa ein Alarm) als Werkdaten beschrieben.
  • Betriebsdaten, Werkdaten und Sprachdaten während des Trainings, die während des Betriebstrainings aufgezeichnet worden sind, das in der Vergangenheit durchgeführt wurde, werden zusammen mit einer Evaluierung derselben in der Betriebsevaluierungsergebnis-Verwaltungseinheit 4 aufgezeichnet. Insbesondere werden in einer guten Training-Daten-DB (Datenbank) 5 Betriebsdaten, Werkdaten und Sprachdaten, die aufgezeichnet werden, wenn ein beispielhaftes gutes Training durchgeführt wird, für jedes Ereignis, das in dem Werk auftritt, gespeichert.
  • Das Betriebsevaluierungssystem 10 erfasst durch das Mikrofon 2a gesammelte Sprachdaten und dergleichen während des Betriebstrainings und Betriebsdaten und Werkdaten, die in der Simulatorvorrichtung 3 aufgezeichnet sind, und evaluiert die Kenntnisse des Dienst-Managers, des Bedieners und dergleichen, die am Betriebstraining teilnahmen. Das Betriebsevaluierungssystem 10 evaluiert die Bedienerkenntnis anhand nicht nur ob er oder sie eine angemessene Bedienung durchführt, die zu einem gewünschten Werkzustand führt, sondern auch, ob er oder sie angemessen eine vorbestimmte Unterhaltung spricht, die vor und nach der Operation benötigt wird. Entsprechend einer solchen Evaluierung ist es möglich, das Nachfolgende zu reviewen, nachdem das Betriebstraining zwischen Operatoren einschließlich dem Dienst-Manager (nachfolgend, wenn Jemand als ein Bediener beschrieben wird, sind ein Dienst-Manager und ein Assistenz-Manager beinhaltet, wenn nicht anders spezifiziert) endet: (1) zu kommunizierendes Material, (2) richtige Zeiten, (3) einen Partner, dem das Material mitgeteilt werden sollte, (4) ob zu liefernder Inhalt gesprochen wurde, (5) ob Inhalt einem Partner zu liefern ist, und (6) ob es möglich ist, das Werk in einem erforderlichen Zustand zu betreiben, als Ergebnis der Lieferung und es möglich ist, einen Verbesserungsplan, der aus dem Evaluierungsergebnis sichergestellt werden kann, mit anderen Bedienern zu teilen.
  • Das Betriebsevaluierungssystem 10 beinhaltet eine Eingabeeinheit 101, eine Spracherkennungseinheit 102, eine Textdatenausgabeeinheit 103, eine Konversationsanalyse-Wörterbuch-DB 104, eine Unterhaltungsextraktionseinheit 105, eine Unterhaltungsextraktionsergebnis-DB 106, eine Betriebs-/Werkdaten-Aufzeichnungseinheit 107, eine Betriebs-/Werkdaten-DB 108, eine Korrelations-Analyseeinheit 109, eine Analyseergebnis-DB 110 und eine Evaluierungsausgabeeinheit 111.
  • Die Eingabeeinheit 101 erfasst Sprachdaten, welche durch die Mikrofone 2a und 2b gesammelt werden, und in ein elektrisches Signal umgewandelt sind, und gibt die Sprachdaten an die Spracherkennungseinheit 102 für jeden Eingangsport aus, mit welchem die Mikrofone 2a und 2b verbunden sind. Zusätzlich erfasst die Eingabeeinheit 101 Betriebsdaten und Werkdaten aus der Simulatorvorrichtung 3 und gibt diese Daten an die Betriebs-/Werkdaten-Aufzeichnungseinheit 107 aus.
  • Die Spracherkennungseinheit 102 weist eine Spracherkennungsfunktion des Erkennens von Inhalt von Sprachdaten, die aus der Eingabeeinheit 101 erfasst sind, und ihre Umwandlung in Textdaten auf. Eine übliche Spracherkennungsmaschine (Engine) kann für die Spracherkennungsfunktion verwendet werden. Zusätzlich weist die Spracherkennungseinheit 102 eine Funktion des Assoziierens jedes in den konvertierten Textdaten enthaltenen Sprechens mit einer Zeit, zu welcher das Sprechen durchgeführt wurde, und Sprech-Identifikationsinformation auf. Spezifisch assoziiert beispielsweise die Spracherkennungseinheit 102 eine Zeit, zu welcher die Eingabeeinheit 101 Sprachdaten erfasste, mit Textdaten als eine Sprechzeit. Zusätzlich assoziiert beispielsweise die Spracherkennungseinheit 102 Sprecher-Identifikationsinformation mit Textdaten, basierend auf für jeden Eingangsanschluss bestimmten Sprecher-Identifikationsinformation als einem Eingangsanschluss des Mikrofons 2a und des Dienst-Managers und einen Eingangsanschluss des Mikrofons 2b und des Bedieners, und Information zu einem Eingabeanschluss, aus welchem die Eingabeeinheit 101 Sprachdaten erfasste. Die Spracherkennungseinheit 102 gibt Textdaten, in welchen eine Sprechzeit mit Sprecher-Identifikationsinformation assoziiert ist, an die Textdatenausgabeeinheit 103 und die Unterhaltungsextraktionseinheit 105 aus.
  • Falls nur Gesprochenes in einem Steuerraum aufgezeichnet wird, kann eine Unterhaltung beispielsweise durch einen Alarmton übertönt werden und somit kann es sein, dass es nicht möglich ist, den Inhalt der Unterhaltung sicherzustellen, selbst falls die aufgezeichneten Sprachdaten später regeneriert werden. Andererseits kann in der vorliegenden Ausführungsform, da durch Anbringen des Mikrofons 2a oder dergleichen an entsprechenden Mitgliedern gesammelte Sprachdaten in Textdaten umgewandelt werden, eine Spracherkennungsrate verbessert werden und kann der Austausch von Gesprochenem genau aufgezeichnet werden.
  • Die Textdatenausgabeeinheit 103 gibt die aus der Spracherkennungseinheit 102 erfassten Textdaten an eine Anzeigevorrichtung aus, die mit dem Betriebsevaluierungssystem 10 und dergleichen verbunden ist. Hier werden aus der Textdatenausgabeeinheit 103 ausgegebene Textdaten in 2 exemplifiziert. 2 ist ein Diagramm, das ein Beispiel von Textdaten zeigt, in welchen eine Unterhaltung in einer Ausführungsform der vorliegenden Erfindung visualisiert ist. 2 zeigt eine Unterhaltung, die zwischen einem Bediener A und einem Dienst-Manager durchgeführt wird. Wie in 2 gezeigt, beinhalten Textdaten eine Zeit, einen Sprecher und einen Sprechinhalt. Gemäß aus der Textdatenausgabeeinheit 103 ausgegebenen Textdaten kann eine zwischen dem Bediener A und dem Dienst-Manager ausgetauschte Unterhaltung visualisiert werden und kann der Austausch einer Sprechinhalts-Sequenz visuell als Text erkannt werden. Daher ist es möglich, zu überprüfen, ob der Unterhaltungstyp (Dreiwege-Kommunikation etc.) angemessen ist, ob ein Mitglied, der eine Anweisung erteilen muss, angemessenen Inhalt gesendet hat hinsichtlich eines einem Partner zu kommunizierenden Materials, dem das Material kommuniziert werden sollte, ob einem Partner zu liefernder Inhalt gesendet worden ist, und dergleichen. Beispiele von Typen von Unterhaltung beinhalten Dreiwege-Kommunikation und Zweiwege-Kommunikation. Zusätzlich ist es unter Bezugnahme auf Zeitinformation möglich, zu überprüfen, ob eine Anweisung erteilt worden ist zu einer angemessenen Zeit, und ob eine Unterhaltung in einem angemessenen Tempo durchgeführt worden ist.
  • Hier, obwohl nicht gezeigt, kann beispielsweise die Spracherkennungseinheit 102 die Lautstärke von einer Stimme analysieren und ausgeben, basierend auf der Größe der Amplitude von Sprachdaten und somit überprüfen, ob eine Unterhaltung mit einer angemessenen Lautstärke an Stimme durchgeführt wird. Zusätzlich kann die Spracherkennungseinheit 102 eine Sprechgeschwindigkeit, den Ton der Stimme, eine Weise des Sprechens und dergleichen analysieren und Ausgeben durchführen und kann somit objektiv überprüfen, ob ein Sprechen, das für einen Zuhörer leicht zu verstehen ist, mit einer ruhigen Stimme produziert wird.
  • In der Konversationsanalyse-Wörterbuch-DB 104 wird beispielsweise in einem Dreiwege-Kommunikationsbeispiel ein Wortaustauschmuster (nachfolgend als Unterhaltungsmuster bezeichnet) in einer Unterhaltung wie etwa „Herr/Frau X1, bitte veranlassen sie X2, zu X3en“ (Senden), „Veranlasse X2, zu X3“ (Wiederholen) und „Bitte“ (Prüfen) registriert. Alternativ wird ein Zweiwege-Kommunikation-Unterhaltungsmuster wie etwa „Herr/Frau X, bitte veranlassen Sie X2, zu X3“ senden und „Veranlasse X2, zu X3“ (Wiederholen) registriert. Zusätzlich kann in der Konversationsanalyse-Wörterbuch-DB 104 eine Reihe von Austauschmustern, in denen Sprachinhalt, der das Auftreten eines Ereignisses wie „XXX wird detektiert“ und „-Alarm ausgelöst“ angibt, hinzugefügt wird, bevor eine Zweiwege-Kommunikation und Dreiwege-Kommunikation hinzugefügt wird, registriert werden.
  • Zusätzlich werden in der Konversationsanalyse-Wörterbuch-DB 104 beispielsweise Schlüsselworte, die ein Werküberwachungs-Zielobjekt (Druckhalter) während Betriebstraining und Ereignisse (niedriger Wasserpegel und hoher Druck), die sich auf ein solches Objekt beziehen, ein Betriebsziel-Subjekt (Pumpe, Ventil) und ein Betriebsverfahren (Starten und Stoppen, Öffnen/Schließen) und eine Betriebsmenge (ein Grad an Ventilöffnung etc.) angeben, registriert.
  • Die Unterhaltungsextraktionseinheit 105 analysiert aus der Spracherkennungseinheit 102 ausgegebene Textdaten unter Bezugnahme auf die Konversationsanalyse-Wörterbuch-DB 104 und prüft, ob ein vorbestimmter Unterhaltungstyp zwischen einem Sprecher und einem Hörer etabliert wird. Beispielsweise bestimmt die Unterhaltungsextraktionseinheit 105, ob ein Wortaustausch zwischen Bedienern zu einem Unterhaltungsmuster passt, das in der Konversationsanalyse-Wörterbuch-DB 104 registriert ist, und wenn sie zueinander passen, wird bestimmt, dass ein vorbestimmter Unterhaltungstyp zwischen Bedienern etabliert worden ist. Wenn ein Wortaustausch in etwa ähnlich einem Unterhaltungsmuster ist, selbst falls es nicht komplett zum Unterhaltungsmuster passt, kann die Unterhaltungsextraktionseinheit 105 bestimmen, dass ein vorbestimmter Unterhaltungstyp an diesem Punkt etabliert worden ist. Wenn festgestellt wird, dass eine Unterhaltung etabliert wird, extrahiert die Unterhaltungsextraktionseinheit 105 Daten an diesem Punkt, an welchem bestimmt wird, dass eine Unterhaltung etabliert worden ist, aus Textdaten. Zusätzlich bestimmt beispielsweise die Unterhaltungsextraktionseinheit 105, ob eine Unterhaltung etabliert ist, anhand davon, ob Anweisungsinhalt einem Wiederholungsinhalt entspricht. Beispielsweise bestimmt in Beantwortung einer Anweisung „Bitte starte die Pumpe“, wenn der Bediener „Es ist ein Ventil“ wiederholt und „Stoppe die Pumpe“ wiederholt, selbst falls ein Format des Typs „senden“, „Wiederholen“ und „Prüfen“ folgt, bestimmt die Unterhaltungsextraktionseinheit 105, dass ein vorbestimmter Unterhaltungstyp nicht etabliert worden ist. Beispielsweise sind Unterhaltungsdaten von „13:10:10“ bis „13:10:40“, exemplifiziert in 2, Unterhaltungsdaten, welche durch die Unterhaltungsextraktionseinheit 105 extrahiert werden.
  • Zusätzlich vergleicht hinsichtlich der extrahierten Unterhaltungsdaten die Unterhaltungsextraktionseinheit 105 in der Unterhaltung enthaltene Wörter mit in der Konversationsanalyse-Wörterbuch-DB 104 registrierten Schlüsselwörtern und erkennt ein Ereignis, das im Werk aufgetreten ist, auf welches sich die Unterhaltung bezieht. Beispielsweise bestimmt im Beispiel von 2 die Unterhaltungsextraktionseinheit 105, dass die in 2 exemplifizierten Textdaten Unterhaltungsdaten sind und erkennt zusätzlich, dass die Unterhaltung eine Unterhaltung ist, die sich auf ein Ereignis bezieht, das anzeigt, dass ein Wasserpegel des Druckhalters niedrig ist, anhand von Unterhaltungsinhalt zum Startzeitpunkt der Unterhaltungsdaten und einem Überwachungszielsubjekt „Druckhalter“, das in der Konversationsanalyse-Wörterbuch-DB 104 registriert ist, und einem Wort „niedriger Wasserpegel“, das ein Ereignis, das sich darauf bezieht, angibt. Hinsichtlich der extrahierten Unterhaltungsdaten extrahiert die Unterhaltungsextraktionseinheit 105 in der Konversationsanalyse-Wörterbuch-DB 104 registrierte Wörter. Beispielsweise extrahiert im Beispiel von 2 die Unterhaltungsextraktionseinheit 105 „B-Füllpumpe“, „Füge hinzu“ und „Starte“ als sich auf das Betriebstraining für das Ereignis beziehende, spezifische Wörter. Die Unterhaltungsextraktionseinheit 105 extrahiert „Druckhalter“, „Wasserpegel“, und „Niedrig“, die vor „Bitte zusätzlich B-Füllpumpe starten“ erscheinen als vorhergehende und nachfolgende Worte. Die Unterhaltungsextraktionseinheit 105 zeichnet das extrahierte Wort „B-Füllpumpe“ und dergleichen, „13:10:10“, zu welchem das Ereignis startete, gemäß einer Unterhaltung, einer Zeit „13:10:30“, zu welcher eine Anweisung für das Ereignis startete, die Anzahl von Malen des Sprechens von „5“, andere Worte vor und nach „Start“ und „Druckhalter“ und „Wasserpegel“, und das erkannte Ereignis „Der Wasserpegel des Druckhalters sinkt“ in Assoziierung mit der Bestimmung davon, ob der bestimmte Typ von Unterhaltung etabliert ist, und seinen Etablierungsgrad (beispielsweise eine Ähnlichkeit zwischen der Struktur des Stils von Satz, der im Unterhaltungsmuster spezifiziert ist, und seine Reihenfolge des Erscheinens, und die Struktur des Stils, der in den Unterhaltungsdaten enthalten ist, und seine Reihenfolge des Erscheinens) in der Unterhaltungsextraktionsergebnis-DB 106 auf.
  • In der Unterhaltungsextraktionsergebnis-DB 106 werden Unterhaltungsdaten, die durch die Unterhaltungsextraktionseinheit 105 extrahiert werden, und der Etablierungsgrad von Unterhaltung, aus der Unterhaltung extrahierte spezifische Worte, eine Zeit, zu welcher das Ereignis startete, anhand einer Unterhaltung, die Anzahl von Malen des Sprechens, andere Worte davor und danach, und Daten wie etwa ein Ereignis, gespeichert.
  • Die Betriebs-/Werkdaten-Aufzeichnungseinheit 107 zeichnet Betriebsdaten und Werkdaten, die aus der Eingabeeinheit 101 erfasst werden, in der Betriebs-/Werkdaten-DB 108 auf.
  • In der Betriebs-/Werkdaten-DB 108 werden Betriebsdaten und Werkdaten gespeichert. Hier werden Betriebsdaten und Werkdaten exemplifiziert. 3 ist ein Diagramm, das ein Beispiel von Betriebs-/Werkdaten in einer Ausführungsform der vorliegenden Erfindung zeigt. 3(a) zeigt ein Beispiel von Betriebsdaten und 3(b) zeigt ein Beispiel von Werkdaten. Die Daten in 3(a) und 3(b) werden während eines sich auf Unterhaltungsdaten in 2 beziehendem Training aufgezeichnet. In den Betriebsdaten in 3(a) wird aufgezeichnet, dass ein Betrieb von „Starten“, „B Füllpumpe“ zu „13:10:40“ durchgeführt wird.
  • In den Werkdaten in 3(b) werden Zeitreihen-Wasserpegel-Messwerte von Druckhalter und Bestimmungsergebnis entsprechend den Messwerten aufgezeichnet. Gemäß dem Beispiel in 3(b) ist der zum Zeitpunkt von „13:10:02“ gemessene Wasserpegel „L1“ und ist sein Bestimmungsergebnis „Niedrig“. Der zur Zeit „13:10:40“, zu welchem die B-Füllpumpe gestartet wird, gemessene Wasserpegel ist „L2“ und sein Bestimmungsergebnis ist „Niedrig“. Der zur Zeit „13:13:40“ gemessene Wasserpegel, wenn 3 Minuten verstrichen sind, nachdem die B-Füllpumpe gestartet wird, ist „L3“ und es versteht sich, dass der Wasserpegel auf „Normal“ wiederhergestellt ist.
  • Die Korrelations-Analyseeinheit 109 analysiert Korrelationen zwischen Unterhaltungsdaten, Werkdaten und Betriebsdaten. Beispielsweise wird hinsichtlich einer gewissen Unterhaltung α eine Zeitperiode, in der die Unterhaltung durchgeführt wurde, (beispielsweise können mehrere Minuten vor und nach der Unterhaltung α enthalten sein) als eine Zeitperiode α1 eingestellt, und extrahiert die Eingabeeinheit 101 Zeitreihenwerte von Parametern (einen Wasserpegel, eine Temperatur, einen Druck, etc.), die sich auf das durch die Unterhaltungsdaten α in der Zeitperiode α1 angegebene Ereignis beziehen, und Informationen bei Mitteilungen (Alarme, etc.), die durch, das Werk bildende Vorrichtungen abgegeben werden, aus den Werkdaten. Die zu extrahierenden Parametertypen werden für jedes Ereignis vorbestimmt. Zusätzlich extrahiert die Korrelations-Analyseeinheit 109 Information über eine in der Zeitperiode α1 durchgeführte Operation, die in den Betriebsdaten enthalten ist. Dann ordnet hinsichtlich der Unterhaltungsdaten α die Korrelations-Analyseeinheit 109 eine Zeit, Lautsprecher und Sprechinhalt jedes Gesprochenen, das in den Unterhaltungsdaten α enthalten ist, und aus den Werkdaten und Betriebsdaten extrahierte Information auf derselben Zeitachse an und analysiert die zeitlichen Beziehungen zwischen dem Gesprochenen, dem Betrieb und Parameteränderung. Zusätzlich analysiert die Korrelations-Analyseeinheit 109, ob der in den Unterhaltungsdaten α enthaltene Anweisungsinhalt und der durch die Betriebsdaten angegebene Betrieb die richtige Beziehung aufweisen. Die Korrelations-Analyseeinheit 109 zeichnet die Unterhaltungsdaten, Betriebsdaten und Werkdaten, die sich auf die Unterhaltung α beziehen, in Assoziierung mit der Analyseergebnis-DB 110 auf.
  • Ein Beispiel von durch die Korrelations-Analyseeinheit 109 ermittelten Analyseergebnissen wird unter Bezugnahme auf 4 beschrieben. 4 ist ein Diagramm zum Erläutern der Analyse von Korrelationen in einer Ausführungsform der vorliegenden Erfindung.
  • 4 zeigt ein Beispiel, in welchem die Unterhaltungsdaten, Betriebsdaten und Werkdaten, die in 2 und 3 exemplifiziert sind, auf derselben Zeitachse angeordnet sind. Im Beispiel in 4 wird der Austausch in Unterhaltungsdaten nicht angezeigt. Diese Daten werden in der Analyseergebnis-DB 110 assoziiert und aufgezeichnet.
  • Die Korrelations-Analyseeinheit 109 berechnet beispielsweise eine Differenz zwischen einer Ereignisauftrittszeit und einer Unterhaltungsstartzeit (Unterhaltung startet 5 Sekunden, nachdem ein niedriger Wasserpegel auftritt), eine Differenz zwischen einer Unterhaltungsstartzeit und einer Zeit, zu der eine Operation durchgeführt wird (die Pumpe startet 30 Sekunden, nachdem die Unterhaltung startet), und eine Differenz zwischen einer Unterhaltungsstartzeit und einer Wasserpegel-Wiederherstellzeit des Ereignisses (der Wasserpegel wird X Sekunden, nachdem die Unterhaltung startet, wiederhergestellt). Die Korrelations-Analyseeinheit 109 analysiert beispielsweise eine Beziehung zwischen einer Zeitbeziehung einer Ereignisauftrittszeit, einer Unterhaltungsstartzeit und einer Zeit, zu welcher eine Operation durchgeführt wird, und Ereignisergebnissen. Beispielsweise im Beispiel von 4 analysiert die Korrelations-Analyseeinheit 109, dass eine Zeit ab dann, wenn ein Ereignis auftritt, bis eine Unterhaltung startet, 1 Sekunde beträgt, eine Zeit ab dann, wenn eine Unterhaltung startet, bis eine Operation durchgeführt wird, 30 Sekunden beträgt, eine Zeit ab dann, wenn ein Ereignis auftritt, bis eine Operation durchgeführt wird, 35 Sekunden beträgt und das Ereignisergebnis eine Beziehung mit „der Wasserpegel ist wiederhergestellt“ aufweist und das Analyseergebnis in Assoziierung mit einem Ereignis von „der Wasserpegel des Druckhalters sank“ in der Analyseergebnis-DB 110 aufzeichnet.
  • Die Korrelations-Analyseeinheit 109 analysiert den in den in 2 exemplifizierten Unterhaltungsdaten beinhalteten Anweisungsinhalt von „Bitte starte zusätzlich B-Füllpumpe“ und eine durch die in 3(a) exemplifizierten Betriebsdaten angegebene Operation, die „Starte B-Füllpumpe“ angibt, die richtige Beziehung (den Anweisungsinhalt und die Betriebspassung“ aufweisen, und zeichnet die Analyseergebnisse in der Analyseergebnis-DB 110 auf.
  • Nachdem die Korrelation zwischen Unterhaltungsdaten, Betriebsdaten und Werkdaten analysiert ist, stellt die Korrelations-Analyseeinheit 109 Verbesserungsplan-Information, die Analyseergebnis-Evaluierungen und Verbesserungspläne angibt, basierend auf Korrelationen zwischen Unterhaltungsdaten, Betriebsdaten und Werkdaten während guten Trainings, gespeichert in der guten Trainings-Daten-DB 5 ein. In der guten Trainings-Daten-DB 5 werden Unterhaltungsdaten, Betriebsdaten und Werkdaten, wenn eine beispielhafte Unterhaltung und Operation für jedes Ereignis durchgeführt werden, aufgezeichnet. In der guten Trainings-Daten-DB 5, beispielsweise in Assoziierung mit einem Ereignis von „der Wasserpegel des Druckhalters sank“ werden eine Zeit ab dann, wenn ein Ereignis auftritt, bis die Unterhaltung startet, von 1 Sekunde, einer Zeit ab dann, wenn eine Unterhaltung startet, bis eine Operation durchgeführt wird, von 20 Sekunden, eine Zeit ab dann, wenn ein Ereignis auftrat, bis eine Operation durchgeführt wird, 25 Sekunden und hinsichtlich Ereignisergebnissen Ereignisse, die eine Beziehung mit „Wasserpegel wiederhergestellt“ angeben, aufgezeichnet. Dann evaluiert beispielsweise die Korrelations-Analyseeinheit 109, dass es kein Problem für eine Zeit von 1 Sekunde ab dann, wenn ein Ereignis auftritt, bis eine Unterhaltung startet, gibt, und Ereignisergebnisse von „Wasserpegel wiederhergestellt“. Andererseits evaluiert die Korrelations-Analyseeinheit 109, dass eine Zeit ab dann, wenn eine Unterhaltung startet, bis eine Operation startet, lang ist, basierend auf der Tatsache, dass eine Zeit ab dann, wenn eine Unterhaltung startet, bis eine Operation durchgeführt wird, und eine Zeit ab dann, wenn ein Ereignis auftritt, bis eine Operation durchgeführt wird, beide 10 Sekunden sind und eine beispielhafte Operation verzögert wird. Zusätzlich kann die Korrelations-Analyseeinheit 109 Evaluierungsziel-Unterhaltungsdaten mit beispielhaften Unterhaltungsdaten vergleichen und den Grund für eine verzögerte Zeit ab dann, wenn eine Unterhaltung startet, bis eine Operation startet, analysieren. Wenn beispielsweise eine Zeit ab dann, wenn eine Unterhaltung startet, bis eine Anweisung erteilt wird, länger als diejenige von beispielhaften Unterhaltungsdaten ist, evaluiert die Korrelations-Analyseeinheit 109, dass „die Zeit ab dann, wenn eine Unterhaltung startet, bis eine Anweisung erteilt wird, lang ist“ und stellt Information, die angibt, „Verkürze eine Zeit ab dann, wenn eine Umgehung startet, bis eine Anweisung erteilt wird“ für einen Dienst-Manager ein, als einen vorgeschlagenen Verbesserungsplan. Zusätzlich, wenn beispielsweise eine Zeit ab dann, wenn die Überprüfung durchgeführt wird (im Beispiel von 2 „Ja, das ist richtig“), bis eine Operation durchgeführt wird, lang ist, evaluiert es die Korrelations-Analyseeinheit 109 entsprechend und stellt Verbesserungsplan-Information, die angibt, „Verkürze eine Zeit ab dann, wenn Prüfung durchgeführt wird, bis eine Operation durchgeführt wird“ für einen Bediener ein. Zur Evaluierung kann beispielsweise die Korrelations-Analyseeinheit 109 die Stufe einer Reihe von Austäuschen analysieren, die Zeit erfordern, basierend auf dem in der Konversationsanalyse-Wörterbuch-DB 104 registrierten Unterhaltungsmuster. Zusätzlich können beispielsweise Evaluierungsergebnisse anhand von Mustern registriert werden und können Verbesserungsplan-Informationen für jedes Muster vorbestimmt werden. Beispielsweise wird ein Verbesserungsplan „Kürze Zeit ab dann, wenn die Prüfung durchgeführt wird, bis eine Operation durchgeführt wird“ für eine Evaluierungsergebnismuster „Zeit ab dann, wenn eine Unterhaltung startet, bis eine Anweisung erteilt wird, ist lang“ bestimmt wird.
  • Beispielsweise vergleicht die Korrelations-Analyseeinheit 109 die Anzahl von Malen des Sprechens in Evaluierungziel-Unterhaltung mit Anzahl von Malen des Sprechens in beispielhaften Unterhaltungsdaten und bestimmt, ob es zwischen ihnen eine Differenz gibt. Wenn beispielsweise die Anzahl von Malen des Sprechens in Evaluierungsziel-Unterhaltungsdaten größer ist, wird es evaluiert, dass „die Anzahl von Malen des Sprechens groß ist“, und wird eine Verbesserungsplan-Information eingestellt, die „Lasst uns den Inhalt der Unterhaltung ansehen“ angibt. Wenn beispielsweise die Anzahl von Malen des Sprechens in beispielhaften Unterhaltungsdaten groß ist und die beispielhaften Unterhaltungsdaten eine Unterhaltung enthalten, die sich auf andere Parameter bezieht (wie etwa Temperatur, Druck und eine Ventilöffnungs-/Schließbedingung, bevor „Niedriger Wasserpegel“ detektiert wird, detektiert die Korrelations-Analyseeinheit 109 einen Teil der Unterhaltung, in welchen in den Evaluierungsziel-Unterhaltungsdaten nicht erhaltene Schlüsselwörter enthalten sind, und eine Zeitperiode, in der die Unterhaltung durchgeführt wird, basierend auf Schlüsselworten wie etwa einer „Temperatur“, die nicht in spezifischen Worten („Pumpe“, „Addiere“, „Start“) gefunden wird, die aus den Evaluierungsziel-Unterhaltungsdaten extrahiert werden, und Worte davor und danach) „Druckhalter“, „Wasserpegel“, „Niedrig“), und evaluiert, dass die Unterhaltung fehlt und stellt eine Verbesserungsplan-Information ein, um die Unterhaltung zu einer angemessenen Zeit durchzuführen. Die Korrelations-Analyseeinheit 109 zeichnet die Evaluierungsergebnisse auf und stellt Verbesserungsplan-Information in Assoziierung mit den Analyseergebnissen in der Analyseergebnis-DB 110 ein.
  • Die Evaluierungsausgabeeinheit 111 gibt das Evaluierungsergebnis aus der Korrelations-Analyseeinheit 109 aus. Spezifisch liest die Evaluierungsausgabeeinheit 111 die Unterhaltungsdaten, Betriebsdaten und Werkdaten und ihre Analyseergebnisse, Evaluierungsergebnisse und Verbesserungsplan-Information, die mit einem in der Analyseergebnis-DB 110 aufgezeichneten gewissen Ereignis assoziiert sind, und gibt sie an eine mit dem BetriebsEvaluierungssystem verbundene Anzeigevorrichtung aus. Das Ausgabebeispiel der Evaluierungsausgabeeinheit 111 ist in 5 gezeigt.
  • 5 ist ein Diagramm, das ein Beispiel eines Betriebs-Evaluierungsergebnisses in einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 5 ist ein Graph, der einen Übergang eines Wertes eines Parameters Y (beispielsweise Wasserpegel), für den eine gewisse Stabilität erforderlich ist, zeigt. 5 zeigt einen Graph eines Ergebnisses, das erhalten wird, wenn ein Bediener eine Unterhaltung und eine Operation während gewissem Betriebstraining durchführt und einen Graph des Parameters Y, wenn eine beispielhafte Unterhaltung und Operation durchgeführt werden. Bis zur Zeit t0 zeichnen zwei Graphen dieselbe Trajektorie und als Ergebnis einer vorbestimmten Operation, die vor der Zeit t0 durchgeführt wird, zeichnen zwei Graphen unterschiedliche Trajektorien zur Zeit t0 und später. Der durchgezogene Liniengraph gibt das Ergebnis einer durch einen Bediener während des Trainings durchgeführten Operation an und der gepunktete Liniengraph zeigt das Ergebnis gemäß einer beispielhaften Operation. Der Kreis gibt eine Zeit an, zu welcher ein Bediener während des Trainings eine Unterhaltung, die sich auf das Ereignis bezog, startete, und der Stern gibt eine Zeit an, zu welcher eine Unterhaltung in einer beispielhaften Operation startete. Die Graphen in 5 zeigen eine Differenz bei Ergebnissen, die erzeugt werden, wenn beispielsweise ein erfahrener Bediener ein Handbuch vorab liest und zwischen den Zeilen des Handbuchs liest, die nächste Operation früh prüft und vorbereitet und die Operation durchführt, während ein unerfahrener Bediener eine Unterhaltung gerade vor der Operation startet. Obwohl frühes Prüfen und Vorbereitungen in der Vergangenheit empfohlen worden sind, kann es schwierig sein, sicherzustellen, dass Überprüfen und Vorbereitungen früh durchgeführt werden müssen. Entsprechend dem Ausgabeergebnis der Evaluierungsausgabeeinheit 111 ist es möglich, quantitativ sicherzustellen, wie früh Prüfen und dergleichen durchgeführt werden sollte.
  • Zusätzlich, wie oben beschrieben, vergleicht die Korrelations-Analyseeinheit 109 Unterhaltungsdaten und dergleichen von einem Bediener mit beispielhaften Unterhaltungsdaten und dergleichen und führt Evaluierung durch und stellt Verbesserungsplan-Information ein. In 5 ist der Satz „Hinsichtlich Parametern, die stabilisiert werden müssen, mit einer Unterhaltung zwischen einem Dienst-Manager und einem Bediener zum Zeitpunkt des Kreises durchgeführt, bitte führen Sie die Unterhaltung zum Zeitpunkt des Sterns beim nächsten Mal durch“ Verbesserungsplan-Information, welche für das Training, das in der Analyseergebnis-DB 110 aufgezeichnet ist, eingestellt wird.
  • Die Evaluierungsausgabeeinheit 111 erzeugt Graphen, die in 5 exemplifiziert sind, basierend auf Unterhaltungsdaten, Betriebsdaten und Werkdaten, die sich auf ein gewisses Trainingsereignis beziehen, das in der Analyseergebnis-DB 110 aufgezeichnet ist, und Unterhaltungsdaten, Betriebsdaten und Werkdaten, die sich auf dasselbe Trainingsereignis beziehen und in der guten Trainings-Daten-DB 5 registriert sind. Die Evaluierungsausgabeeinheit 111 liest Verbesserungsplan-Information, die in der Analyseergebnis-DB 110 aufgezeichnet ist, ein, erzeugt Hinweisinformation für das nächste Mal, wie in 5 exemplifiziert, und gibt sie an die Anzeigevorrichtung aus. Durch Untersuchen der Evaluierungsergebnisse können der Bediener und der Dienst-Manager Verbesserungspunkte bei der Unterhaltung sicherstellen, wenn dasselbe Ereignis das nächste Mal verarbeitet wird.
  • Beispielsweise kann eine Konfiguration, in der, wenn der Kreis oder dergleichen im Graphen angeklickt wird, Unterhaltungsdaten während des Trainings, exemplifiziert in 2, angezeigt werden, und wenn der Stern oder dergleichen im Graphen angeklickt wird, beispielhafte Unterhaltungsdaten angezeigt werden, verwendet werden. Zusätzlich, zusammen mit einer Verbesserung der Planinformation, kann ein Bestimmungsergebnis, welches angibt, ob ein vorbestimmter Typ von Unterhaltung etabliert ist, angezeigt werden. Falls beispielsweise eine Dreiwege-Kommunikation etabliert wird, zeigt die Evaluierungsausgabeeinheit 111 „Unterhaltung ist in dem Typ von Dreiwege-Kommunikation möglich“ an, und falls eine Dreiwege-Kommunikation unvollständig ist, kann der Inhalt von „Lass es uns wiederholen und prüfen“ angezeigt werden und kann „Der Grad der Etablierung in der Unterhaltung beträgt 60%“ angezeigt werden.
  • Als Nächstes wird ein Ablauf von Prozessen eines Betriebskenntnis-Evaluierungsverfahrens gemäß der vorliegenden Ausführungsform beschrieben.
  • 6 ist ein Flussdiagramm, das ein Beispiel eines Betriebs-Evaluierungsverfahrens gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Zuerst simuliert die Simulatorvorrichtung 3 den Werkstatus, wenn ein Ereignis auftritt, anhand eines gewissen Trainings-Szenarios. In einem Raum, in welchem ein Betriebstraining durchgeführt wird, nimmt jedes Mitglied eines aus einem Dienst-Manager und einem Bediener aufgebauten Betriebsteams an einem Training teil, in welchem eine Unterhaltung und ein Betrieb durchgeführt werden, um das durch die Simulatorvorrichtung 3 simulierte Ereignis unter Verwendung eines PCs oder dergleichen zu handhaben. Die Mikrofone 2a und 2b sammeln eine Unterhaltung währen des Trainings und geben sie an das Betriebsevaluierungssystem 10 aus. Im Betriebsevaluierungssystem 10 erfasst die Eingabeeinheit 101 Sprachdaten der gesammelten Unterhaltung (Schritt S11). Die Eingabeeinheit 101 gibt die Sprachdaten an die Spracherkennungseinheit 102 aus. Die Spracherkennungseinheit 102 wandelt die Sprachdaten in Textdaten um, indem sie eine Spracherkennungsfunktion verwendet (Schritt S12). Zusätzlich assoziiert die Spracherkennungseinheit 102 jedes in den Textdaten enthaltene Sprechen mit einer Zeit, zu welcher das Sprechen durchgeführt wurde, und Sprecher-Identifikationsinformation. Die Spracherkennungseinheit 102 gibt Textdaten, zu welchen Zeitinformation und Sprecher-Identifikationsinformation hinzugefügt sind, an die Textdatenausgabeeinheit 103 und die Unterhaltungsextraktionseinheit 105 aus.
  • Die Textdatenausgabeeinheit 103 gibt die Textdaten, zu denen Zeitinformation und dergleichen hinzugefügt sind, an die Anzeigevorrichtung aus. Die Anzeigevorrichtung zeigt Textdaten, die einen in 2 exemplifizierten Zeitreihenwort-Austausch enthalten, an.
  • Die Unterhaltungsextraktionseinheit 105 extrahiert ein Bündel von Unterhaltungen aus den aus der Spracherkennungseinheit 102 erfassten Textdaten. Um die Unterhaltung zu extrahieren, wird Bezug genommen auf in der Unterhaltungsanalyse-Wörterbuch-DB 104 registrierten Unterhaltungsmuster. Beispielsweise werden in der Unterhaltungsanalyse-Wörterbuch-DB 104, basierend auf Dreiwege-Kommunikation, Zweiwege-Kommunikation und anderen bestimmten Unterhaltungstypen zum Verbessern der Genauigkeit der Übertragung von Information innerhalb des Teams Wortaustauschmuster registriert. Die Unterhaltungsextraktionseinheit 105 sucht nach Textdaten für einen Teil von Wortaustausch anhand des Musters und extrahiert eine Reihe von Wortaustäuschen, die zum Muster passen, (oder dem Muster nahe sind) als Unterhaltungsdaten (Schritt S14). Zusätzlich extrahiert die Unterhaltungsextraktionseinheit 105 spezifische Worte, eine Unterhaltungsstartzeit, die Anzahl von Malen des Sprechens, andere Worte davor und danach, ein Ereignis und dergleichen aus den extrahierten Unterhaltungsdaten, basierend auf in der Unterhaltungsanalyse-Wörterbuch-DB 104 registrierten Schlüsselworten. Die Unterhaltungsextraktionseinheit 105 zeichnet die extrahierten Unterhaltungsdaten, spezifische Worte und dergleichen in der Unterhaltungsextraktionsergebnis-DB 106 auf (Schritt S15).
  • Zusätzlich bestimmt die Unterhaltungsextraktionseinheit 105 beispielsweise, ob eine Dreiwege-Kommunikation etabliert wird, basierend auf den extrahierten Unterhaltungsdaten, und zeichnet ihr Bestimmungsergebnis und den Grad der Etablierung der Unterhaltung in Assoziierung mit den Unterhaltungsdaten in der Unterhaltungsextraktionsergebnis-DB 106 auf.
  • Andererseits speichert die Simulatorvorrichtung 3 Betriebsdaten, in welchen während des Trainings durchgeführte Operationen zusammen mit einer Zeit und Werksdaten, in welche Information, die den Werkstatus angibt, zusammen mit einer Zeit aufgezeichnet sind, nochmal aufgezeichnet sind und gibt diese Daten an das Betriebsevaluierungssystem 10 aus. Im Betriebsevaluierungssystem 10 erfasst die Eingabeeinheit 101 Werkdaten und Betriebsdaten (Schritt S16). Die Eingabeeinheit 101 gibt die Werksdaten und Betriebsdaten an die Betriebs-/Werkdaten-Aufzeichnungseinheit 107 aus. Die Betriebs-/Werkdaten-Aufzeichnungseinheit 107 zeichnet diese Daten in der Betriebs-/Werkdaten-DB 108 auf (Schritt S17).
  • Als Nächstes erfasst die Korrelations-Analyseeinheit 109 Unterhaltungsdaten, Betriebsdaten und Werkdaten, wenn die Unterhaltung und Operation günstiger Weise für das Ereignis durchgeführt werden, das ein Subjekt des Evaluierungszieltrainings ist, aus der guten Trainings-Daten-DB 5 (Schritt S18). Die Korrelations-Analyseeinheit 109 analysiert Korrelationen zwischen Unterhaltungsdaten, die in der Unterhaltungsextraktionsergebnis-DB 106 aufgezeichnet sind, und Betriebsdaten und Werkdaten, die in der Betriebs-/Werkdaten-DB 108 aufgezeichnet sind, wie in 4 beschrieben. Die Korrelations-Analyseeinheit 109 vergleicht Korrelationen der Unterhaltung, der Operation und dergleichen, basierend auf den Analyseergebnissen, mit guten Unterhaltungsdaten und dergleichen, evaluiert die Unterhaltung und den Betrieb in dem Evaluierungsziel-Training (Schritt S19), und stellt Verbesserungsplan-Information ein. Die Korrelations-Analyseeinheit 109 zeichnet Analyseergebnisse, Evaluierungsergebnisse und dergleichen in der Analyseergebnis-DB 110 auf.
  • Als Nächstes liest die Evaluierungsausgabeeinheit 111 in der Analyseergebnis-DB 110 aufgezeichnete Informationen und erzeugt in 5 exemplifizierte Bilddaten und gibt die Analyse- und Evaluierungsergebnisse und dergleichen aus (Schritt S20) .
  • Basierend auf dem Evaluierungsergebnis im Schritt S20, wenn Unterhaltungsdaten und dergleichen des Bedieners nicht beispielhaften Korrelationsdaten unterlegen sind, die in der guten Trainings-Daten-DB 5 registriert sind, und exzellenten Inhalt enthalten, kann ein Satz von Unterhaltungsdaten, Betriebsdaten und Werkdaten des Bedieners zu dieser Zeit an die Betriebs-Evaluierungsergebnis-Verwaltungsvorrichtung transferiert werden und in der guten Trainings-Daten-DB 5 als neue beispielhafte Daten registriert werden.
  • Werksbetriebs-Training wird allgemein unter Berücksichtigung von Übereinstimmung (compliance) von Operationen, Mengen von Variationen bei Parametern und dergleichen evaluiert und auf einer Korrelation zwischen dem Betrieb und der Unterhaltung basierende Evaluierung wird nicht durchgeführt. Andererseits ist es gemäß der vorliegenden Ausführungsform möglich, die Unterhaltung des Bedieners, die während des Betriebstrainings durchgeführt wird, zu visualisieren, durch Anwenden einer Spracherkennungstechnik auf einen Betriebstrainings-Simulator. Zusätzlich ist es möglich, den Effekt der während des Betriebstrainings durchgeführten Unterhaltung an dem Werksbetrieb (Operation und Operationsergebnisse) zu analysieren und zu visualisieren. Daher wird der Effekt der Unterhaltung im Werksbetrieb, der in der Vergangenheit nicht berücksichtigt worden ist, erkannt, werden eine Unterhaltungszeit und Sendeinhalt der Unterhaltung, die einen genaueren Betrieb ermöglichen, untersucht, und ist es möglich, fehlerhafte Operationen zu verhindern, einschließlich Fehler zu verhindern und die Betriebsgenauigkeit zu verbessern.
  • Gemäß der vorliegenden Ausführungsform, wenn die Unterhaltung und der Betrieb des Bedieners mit beispielhafter Unterhaltung und Operation verglichen werden, ist es beispielsweise möglich, sicherzustellen, wie die Unterhaltungszeit, Unterhaltungsinhalt und dergleichen zu verbessern sind. Wie in den Evaluierungsergebnissen in 5 exemplifiziert, wenn die Beziehung zwischen der beispielhaften Unterhaltung und dem Betrieb visualisiert wird, ist es möglich, stillschweigendes Erfahrungswissen von erfahrenen Bedienern zu teilen und ist es möglich, die Fähigkeiten anderer Bediener zu verbessern und die Team-Leistungsfähigkeit zu verbessern.
  • Basierend auf den Analyseergebnissen und Evaluierungsergebnissen gemäß der vorliegenden Ausführungsform können Parameterprüfelemente und Unterhaltungszeit und Unterhaltungsinhalt Ratschläge in Betriebshandbüchern widergespiegelt werden, und kann eine Rückkopplung, in der eine Nachricht, die zu einer Unterhaltung zu einer angemessenen Zeit aufruft, auf Monitoren in einem zentralen Steuerraum angezeigt werden, in welchem der Betrieb des Werks tatsächlich durchgeführt wird, durchgeführt werden. Daher ist es möglich, die Betriebsgenauigkeit zu verbessern.
  • 7 ist ein Diagramm, das ein Beispiel einer Hardware-Konfiguration eines Betriebs-Evaluierungssystems in einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Ein Computer 900 beinhaltet eine CPU 901, eine Hauptspeichervorrichtung 902, eine Hilfsspeichervorrichtung 903, eine Eingabe-/Ausgabe-Schnittstelle 904 und eine Kommunikations-Schnittstelle 905.
  • Das oben beschriebene Betriebsevaluierungssystem 10 ist im Computer 900 montiert. Dann werden Funktionen der Eingabeeinheit 101, der Spracherkennungseinheit 102, der Textdatenausgabeeinheit 103, der Unterhaltungsextraktionseinheit 105, der Betriebs-/Werkdaten-Aufzeichnungseinheit 107, der Korrelations-Analyseeinheit 109 und der Evaluierungsausgabeeinheit 111, die oben beschrieben sind, in der Hilfsspeichervorrichtung 903 in Form eines Programms gespeichert. Die CPU 901 liest das Programm aus der Hilfsspeichervorrichtung 903, lädt es in die Hauptspeichervorrichtung 902 und führt den obigen Prozess gemäß dem Programm aus. Die CPU 901 sichert einen Speicherbereich in der Hauptspeichervorrichtung 902 entsprechend dem Programm. Zusätzlich sichert die CPU 901 einen Speicherbereich, in welchem Daten, die prozessiert werden, in der Hilfsspeicher-Vorrichtung 903 entsprechend dem Programm gespeichert werden, beispielsweise können die Konversationsanalyse-Wörterbuch-DB 104, die Unterhaltungsextraktionsergebnis-DB 106, die Betriebs-/Werkdaten-DB 108 und die Analyseergebnis-DB 110 in der Hilfsspeicher-Vorrichtung 903 gespeichert werden.
  • Ein Programm zum Implementieren aller oder einiger Funktionen des Betriebsevaluierungssystems 10 wird auf einem computerlesbaren Aufzeichnungsmedium aufgezeichnet, ein Computersystem liest das auf dem Aufzeichnungsmedium aufgezeichnete Programm und führt es aus und somit können Prozesse durch Funktionseinheiten durchgeführt werden. Das „Computersystem“ beinhaltet hier ein BS und Hardware, wie etwa eine Peripherie-Vorrichtung. Das „Computersystem“ beinhaltet auch eine Homepage-Bereitstellumgebung oder eine Anzeigeumgebung, falls ein WWW-System verwendet wird. Das „computerlesbare Aufzeichnungsmedium“ bezieht sich auf ein tragbares Medium wie eine CD, eine DVD und ein USB, und eine Speichervorrichtung, wie etwa eine in ein Computersystem eingebaute Festplatte. Wenn dieses Programm an einen Computer 900 über eine Kommunikationsleitung distributiert wird, kann der Computer 900, der die Distribution empfangen hat, das Programm in die Hauptspeichervorrichtung 902 laden und den Prozess ausführen. Zusätzlich kann das Programm ein Programm zum Implementieren einiger der oben beschriebenen Funktionen sein oder die oben beschriebenen Funktionen können in einer Kombination mit einem bereits im Computersystem aufgezeichneten Programm implementiert werden.
  • Das Betriebsevaluierungssystem 10 kann eine Vielzahl von Computern 900 enthalten. Die Konversationsanalyse-Wörterbuch-DB 104, die Unterhaltungsextraktionsergebnis-DB 106, die Betriebs-/Werkdaten-DB 108 und die Analyseergebnis-DB 110 können in einer vom Computer 900 getrennten externen Speichervorrichtung gespeichert werden.
  • Zusätzlich ist es möglich, angemessene Komponenten in der oben beschriebenen Ausführungsform durch bekannte Komponenten zu ersetzen, ohne vom Schutzumfang und Geist der vorliegenden Erfindung abzuweichen. Zusätzlich ist der technische Umfang der Erfindung nicht auf die obige Ausführungsform beschränkt und es können verschiedene Modifikationen vorgenommen werden, ohne vom Schutzumfang und Geist der vorliegenden Erfindung abzuweichen.
  • Beispielsweise, während ein Beispiel, in welchem Unterhaltung und Betriebsdaten in einer Betriebstrainings-Umgebung gesammelt werden, in der obigen Ausführungsform beschrieben worden sind, kann eine Ausführungsform, in der Unterhaltungsdaten, Betriebsdaten und Werkdaten, die in einer tatsächlichen Werkbetriebsumgebung aufgezeichnet und erzeugt werden, aufgezeichnet und gespeichert werden, und diese Daten an dem Betriebsevaluierungssystem 10 eingegeben werden und später evaluiert werden, verwendet werden. Zusätzlich können beispielsweise einige oder alle der Funktionen des Betriebsevaluierungssystems 10 in die Simulatorvorrichtung 3 inkorporiert und montiert werden.
  • Einrichtungen, auf welche das Betriebsevaluierungssystem 10 angewendet wird, sind nicht auf jene zum Betrieb von Werken wie etwa einem Atomkraftwerk und einem Chemiewerk beschränkt und das System kann auch an einem Ort verwendet werden, an welchem eine Aufgabe durchgeführt wird, während Informationsübertragung durchgeführt wird, von einer Vielzahl von Mitgliedern, beispielsweise einem Produktionsbetrieb, einem Qualitätsprüfbetrieb, und einem Transportbetrieb, wie etwa Produkt-Ein/Ausführen in Fabriken und dergleichen.
  • Das Werk-Betriebstraining ist ein Beispiel einer Aufgabe und der Dienst-Manager und der Bediener sind Beispiele von Mitgliedern. Die Eingabeeinheit 101 ist ein Beispiel einer Sprachdaten-Erfassungseinheit und einer Aufgabendaten-Erfassungseinheit. Die Betriebsdaten sind ein Beispiel von Daten, die eine aufgabenbezogene Aktion angeben und die Werkdaten sind ein Beispiel von Daten, die den Aufgabenstatus angeben. Die Unterhaltungsextraktionseinheit 105 ist ein Beispiel der Extraktionseinheit und die Korrelations-Analyseeinheit 109 ist ein Beispiel der Analyseeinheit.
  • Industrielle Anwendbarkeit
  • Gemäß dem Evaluierungssystem, Evaluierungsverfahren und Programm, die oben beschrieben sind, ist es möglich, die Beziehung zwischen dem Betrieb und Unterhaltung des Bedieners im Werk zu klären und zu evaluieren, ob eine angemessene Unterhaltung durchgeführt worden ist.
  • Bezugszeichenliste
  • 1
    Betriebs-Trainingssystem
    2a, 2b
    Mikrofon
    3
    Simulatorvorrichtung
    4
    Betriebsevaluierungsergebnis-Verwaltungseinheit
    5
    Gute Trainingsdaten-DB
    10
    Betriebsevaluierungssystem
    101
    Eingabeeinheit
    102
    Spracherkennungseinheit
    103
    Textdatenausgabeeinheit
    104
    Konversationsanalyse-Wörterbuch-DB
    105
    Unterhaltungsextraktionseinheit
    106
    Unterhaltungsextraktionsergebnis-DB
    107
    Betriebs-/Werkdaten-Aufzeichnungseinheit
    108
    Betriebs-/Werkdaten-DB
    109
    Korrelations-Analyseeinheit
    110
    Analyseergebnis-DB
    111
    Evaluierungsausgabeeinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2017158021 A [0002]

Claims (10)

  1. Evaluierungssystem, umfassend: eine Sprachdaten-Erfassungseinheit, die konfiguriert ist, Sprachdaten aus Gesprochenem eines in einer Aufgabe engagierten Mitglieds zu erfassen; eine Spracherkennungseinheit, die konfiguriert ist, einen Inhalt des Gesprochenen aus den Sprachdaten zu erkennen und den Inhalt in Textdaten umzuwandeln; eine Aufgaben-Datenerfassungseinheit, die konfiguriert ist, Daten, die eine sich auf die Aufgabe des Mitglieds beziehende Aktion angeben und Daten, die einen Aufgabenstatus angeben, zu erfassen; eine Extraktionseinheit, die konfiguriert ist, Unterhaltungsdaten, die sich auf die Aufgabe beziehen, aus den Textdaten zu extrahieren, basierend auf dem Inhalt des durch die Spracherkennungseinheit erkannten Gesprochenen; und eine Analyseeinheit, die konfiguriert ist, Korrelationen zwischen den Unterhaltungsdaten, welche durch die Extraktionseinheit extrahiert werden, den die Aktion angebenden Daten und den, den Aufgabenstatus angebenden Daten zu analysieren.
  2. Evaluierungssystem gemäß Anspruch 1, wobei die Analyseeinheit Korrelationen zwischen den analysierten Unterhaltungsdaten, den die Aktion angebenden Daten und den den Aufgabenstatus angebenden Daten evaluiert, basierend auf Daten, die eine starke Korrelation zwischen der Unterhaltung, der Aktion und dem Aufgabenstatus angeben.
  3. Evaluierungssystem gemäß Anspruch 1 oder 2, weiter umfassend: eine Evaluierungsergebnis-Ausgabeeinheit, die konfiguriert ist, Information auszugeben, die eine Beziehung zwischen den Zeiten, zu welchen sich auf eine Aufgabe beziehende Unterhaltungen durchgeführt worden sind, und Ergebnissen der Aufgabe für das Evaluierungsergebnis aus der Analyseeinheit angeben.
  4. Evaluierungssystem gemäß einem der Ansprüche 1 bis 3, wobei die Analyseeinheit zeitliche Beziehungen zwischen Zeiten, zu welchen Unterhaltungen, die sich auf eine Aufgabe beziehen, durchgeführt worden sind, und Zeiten, zu welchen Aktionen durchgeführt worden sind, und Beziehungen zwischen Zeiten, zu welchen Unterhaltungen, die sich auf die Aufgabe beziehen, durchgeführt worden sind, und Ergebnisse der Aufgabe analysiert.
  5. Evaluierungssystem gemäß einem der Ansprüche 1 bis 4, wobei die Analyseeinheit analysiert, ob Inhalt der Unterhaltungsdaten und der Aktion die richtige Beziehung aufweisen.
  6. Evaluierungssystem gemäß einem der Ansprüche 1 bis 5, wobei die Extraktionseinheit bestimmt, ob ein vorbestimmter Typ von Unterhaltung für die Unterhaltungsdaten etabliert wird.
  7. Evaluierungssystem gemäß einem der Ansprüche 1 bis 6, weiter umfassend eine Textdaten-Ausgabeeinheit, die konfiguriert ist, Inhalt der durch die Spracherkennungseinheit erkannten Sprache zusammen mit Identifikationsinformationen des Mitglieds, das die Sprache getätigt hat, und Information zu einer Zeit, zu welcher das Sprechen durchgeführt wurde, auszugeben.
  8. Evaluierungssystem gemäß einem der Ansprüche 1 bis 7, wobei das Evaluierungssystem ein System zum Evaluieren von Werkbetriebskenntnissen ist, wobei die Sprachdaten-Erfassungseinheit Sprachdaten von Unterhaltungen, die während Operationen durch eine Vielzahl vom Mitgliedern durchgeführt worden sind, die Operationen im Werk durchgeführt haben, erfasst, wobei die Aufgabendaten-Erfassungseinheit Information über Operationen, die durch die Mitglieder während der Operation des Werks durchgeführt werden, und Information, die einen Werkstatus während des Betriebs angibt, erfasst, und wobei die Analyseeinheit Korrelationen zwischen den Unterhaltungen und den Operationen, die sich auf ein Ereignis bezogen, das beim Betrieb des Werks gehandhabt wurde, und dem Werkstatus analysiert.
  9. Evaluierungsverfahren, umfassend: einen Schritt des Erfassens von Sprachdaten aus dem Gesprochenen eines in einer Aufgabe eingebundenen Mitglieds, einen Schritt des Erkennens von Inhalt des Gesprochenen aus den Sprachdaten und Umwandeln des Inhalts in Textdaten, einen Schritt des Erfassens von Daten, die eine Aktion angeben, die sich auf die Aufgabe des Mitglieds bezieht, und Daten, die den Aufgabenstatus angeben, einen Schritt des Extrahierens von Unterhaltungsdaten, die sich auf die Aufgabe beziehen, aus den Textdaten, basierend auf dem erkannten Inhalt des Gesprochenen, und einen Schritt des Analysierens von Korrelation zwischen extrahierten Unterhaltungsdaten, den die Aktion angebenden Daten, und den den Aufgabenstatus angebenden Daten.
  10. Programm, das einen Computer eines Evaluierungssystems veranlasst, durchzuführen: eine Funktion des Erfassens von Sprachdaten aus Gesprochenem eines in einer Ausgabe engagierten Mitglieds; eine Funktion des Erkennens von Inhalt des Gesprochenen aus den Sprachdaten und Umwandeln des Inhalts in Textdaten; eine Funktion des Erfassens von Daten, die eine sich auf die Aufgabe des Mitglieds beziehende Aktion angeben, und einen Aufgabenstatus angebenden Daten; eine Funktion des Extrahierens von Unterhaltungsdaten, welche sich auf die Aufgabe beziehen, aus den Textdaten, basierend auf dem erkannten Inhalt des Sprechens; und eine Funktion des Analysierens von Korrelationen zwischen den extrahierten Unterhaltungsdaten, den die Aktion angebenden Daten und den, den Aufgabenstatus angebenden Daten.
DE112018004216.2T 2017-08-18 2018-08-15 Evaluierungssystem, Evaluierungsverfahren und Programm Pending DE112018004216T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-158021 2017-08-18
JP2017158021A JP7042573B2 (ja) 2017-08-18 2017-08-18 評価システム、評価方法及びプログラム
PCT/JP2018/030344 WO2019035465A1 (ja) 2017-08-18 2018-08-15 評価システム、評価方法及びプログラム

Publications (1)

Publication Number Publication Date
DE112018004216T5 true DE112018004216T5 (de) 2020-05-28

Family

ID=65361938

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018004216.2T Pending DE112018004216T5 (de) 2017-08-18 2018-08-15 Evaluierungssystem, Evaluierungsverfahren und Programm

Country Status (4)

Country Link
US (1) US11380318B2 (de)
JP (1) JP7042573B2 (de)
DE (1) DE112018004216T5 (de)
WO (1) WO2019035465A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055119B1 (en) * 2020-02-26 2021-07-06 International Business Machines Corporation Feedback responsive interface
US11934986B2 (en) 2020-03-23 2024-03-19 Mitsubishi Electric Corporation Plant operation support apparatus and plant operation support method
JP2022019125A (ja) * 2020-07-17 2022-01-27 株式会社東芝 運転訓練評価システムおよび運転訓練評価方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158021A (ja) 2016-03-01 2017-09-07 オリンパス株式会社 情報端末装置、撮像装置、画像情報処理システム及び画像情報処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3320142B2 (ja) * 1993-05-18 2002-09-03 株式会社東芝 運転訓練支援装置
JPH0969008A (ja) 1995-08-31 1997-03-11 Toshiba Corp 操作状況監視装置
JPH11328243A (ja) 1998-05-18 1999-11-30 Toshiba Corp プラント設計支援システム
US20020054130A1 (en) * 2000-10-16 2002-05-09 Abbott Kenneth H. Dynamically displaying current status of tasks
JP2004102116A (ja) 2002-09-12 2004-04-02 Toshiba Corp 動画音声分析評価システム
JP2004333550A (ja) 2003-04-30 2004-11-25 Tokyo Electric Power Co Inc:The 訓練支援システム
JP2005222227A (ja) 2004-02-04 2005-08-18 Toshiba Corp ナレッジマネジメント支援システム、ナレッジマネジメント支援方法及びナレッジマネジメント支援プログラム
JP4911939B2 (ja) 2005-09-15 2012-04-04 中国電力株式会社 訓練状況記録装置およびプラント操作訓練装置
JP5331289B2 (ja) * 2005-10-11 2013-10-30 株式会社日立製作所 センサノードを利用した作業管理支援方法および作業管理支援システム
JP4921904B2 (ja) 2006-09-21 2012-04-25 株式会社東芝 プラント防災訓練装置
JP5349194B2 (ja) 2009-07-31 2013-11-20 株式会社東芝 プラント運転監視制御装置の動作検証試験装置及び方法
US9170993B2 (en) * 2013-01-29 2015-10-27 Hewlett-Packard Development Company, L.P. Identifying tasks and commitments using natural language processing and machine learning
US9699312B2 (en) * 2013-11-13 2017-07-04 Envision Telephony, Inc. Systems and methods for desktop data recording for customer agent interactions
US10909490B2 (en) * 2014-10-15 2021-02-02 Vocollect, Inc. Systems and methods for worker resource management
US9904669B2 (en) * 2016-01-13 2018-02-27 International Business Machines Corporation Adaptive learning of actionable statements in natural language conversation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158021A (ja) 2016-03-01 2017-09-07 オリンパス株式会社 情報端末装置、撮像装置、画像情報処理システム及び画像情報処理方法

Also Published As

Publication number Publication date
US20200135195A1 (en) 2020-04-30
WO2019035465A1 (ja) 2019-02-21
US11380318B2 (en) 2022-07-05
JP2019036205A (ja) 2019-03-07
JP7042573B2 (ja) 2022-03-28

Similar Documents

Publication Publication Date Title
DE102005027378B3 (de) Dynamische Priorisierung von Prüfschritten in der Werkstattdiagnose
CN108154304A (zh) 具有教学质量评估功能的服务器
CN110533970A (zh) 一种安全培训教育系统、方法及商业模式
O’Connor Using grounded theory coding mechanisms to analyze case study and focus group data in the context of software process research
DE112018004216T5 (de) Evaluierungssystem, Evaluierungsverfahren und Programm
CN109460727A (zh) 一种基于人体行为识别的考场监控系统及方法
EP1307816A1 (de) System zur ermittlung von fehlerursachen
DE112020000004T5 (de) Informationsbereitstellungssystem und Informationsbereitstellungsverfahren
DE102015225144A1 (de) System und Verfahren zur Diagnose von zumindest einer wartungsbedürftigen Komponente eines Geräts und/oder Anlage
EP2962296B1 (de) Wortwahlbasierte sprachanalyse und sprachanalyseeinrichtung
DE112020000003T5 (de) Informationsbereitstellungssystem und Informationsbereitstellungsverfahren
EP1574983A2 (de) Verfahren und System zum Erfassen der Ergebnisse eines psychologischen Tests
DE102011086352A1 (de) Verfahren und Diagnosesystem zur Unterstützung der geführten Fehlersuche in technischen Systemen
CN117745141A (zh) 一种电力职业技能鉴定实操的评价系统及方法
CN116307861A (zh) 一种监察员培训测评系统
EP3340250B1 (de) Bauteilidentifikation bei der fehlerbehandlung von medizinischen geräten
DE69022783T2 (de) Verfahren zur Unterstützung des Benutzers eines Rechnersystems und Vorrichtung zur Durchführung des besagten Verfahrens.
EP3696757A1 (de) Verfahren und system zur automatischen bewertung von errichterunternehmen für feuerlöschanlagen
Sirkis et al. Using statistical process control to understand variation in computer-assisted personal interviewing data
DE102019107352A1 (de) Verfahren und System zur automatischen Bewertung von Errichterunternehmen für Feuerlöschanlagen
CN115330238A (zh) 一种医院等级评审用评估方法及系统
DE102023200300A1 (de) Training eines Konversationssystems
WO2024165265A1 (de) Training eines konversationssystems durch video/audio-analyse
Valle et al. A framework for applying process mining techniques in software process assessments
Douglas Capturing and managing decision making rationale

Legal Events

Date Code Title Description
R012 Request for examination validly filed