JP6692565B1 - FT diagram generation device, troubleshooting flow diagram generation device and program - Google Patents

FT diagram generation device, troubleshooting flow diagram generation device and program Download PDF

Info

Publication number
JP6692565B1
JP6692565B1 JP2019060514A JP2019060514A JP6692565B1 JP 6692565 B1 JP6692565 B1 JP 6692565B1 JP 2019060514 A JP2019060514 A JP 2019060514A JP 2019060514 A JP2019060514 A JP 2019060514A JP 6692565 B1 JP6692565 B1 JP 6692565B1
Authority
JP
Japan
Prior art keywords
event
trouble
unit
causal relationship
generation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060514A
Other languages
Japanese (ja)
Other versions
JP2020160867A (en
Inventor
誠 野▲崎▼
誠 野▲崎▼
鬼木 秀隆
秀隆 鬼木
潤 中島
潤 中島
真司 高橋
真司 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2019060514A priority Critical patent/JP6692565B1/en
Application granted granted Critical
Publication of JP6692565B1 publication Critical patent/JP6692565B1/en
Publication of JP2020160867A publication Critical patent/JP2020160867A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】トラブル事例から直接的にFT図を生成するFT図生成装置およびプログラムを提供する。【解決手段】FT図生成装置A1は、作業機械に関する複数のトラブル事例300bから作業機械に関するFT図を生成する。FT図生成装置A1は、複数のトラブル事例300bから事象を抽出する事象抽出部3と、トラブル事例300bごとの事象同士の第1因果関係を抽出する第1因果関係抽出部4と、抽出された第1因果関係に対応する事象をトップダウン的に連結して事象群を生成する連結部5と、複数の事象群間における同様の事象同士を統合することにより事象群をツリー状に形成する統合部8と、を備える。第1因果関係抽出部4は、トラブル事例300bが入力されると、トラブル事例300bごとの事象同士の第1因果関係を抽出するように教師データを用いて機械学習された学習済み第1ニューラルネットワーク(第1NN)40を有する。【選択図】図3PROBLEM TO BE SOLVED: To provide an FT diagram generation device and a program for directly generating an FT diagram from a trouble case. An FT diagram generation device A1 generates an FT diagram related to a work machine from a plurality of trouble cases 300b related to the work machine. The FT diagram generation device A1 is extracted by an event extraction unit 3 that extracts an event from a plurality of trouble cases 300b, and a first causal relationship extraction unit 4 that extracts a first causal relationship between events for each trouble case 300b. A connecting unit 5 that connects events corresponding to the first causal relationship in a top-down manner to generate an event group, and an integration that forms similar event groups among a plurality of event groups into a tree shape. And a section 8. When the trouble case 300b is input, the first causal relationship extracting unit 4 is a learned first neural network machine-learned using teacher data so as to extract the first causal relationship between events in each trouble case 300b. (First NN) 40 is included. [Selection diagram] Fig. 3

Description

作業機械のトラブル事例に基づいて、FT図を生成するFT図生成装置およびそれを備えたトラブルシューティング用フロー図生成装置ならびにコンピュータをFT図生成装置もしくはトラブルシューティング用フロー図生成装置またはその両方として機能させるプログラムに関する。   An FT diagram generation device that generates an FT diagram based on a trouble case of a work machine, a troubleshooting flow diagram generation device including the FT diagram, and a computer function as the FT diagram generation device and / or the troubleshooting flow diagram generation device. Regarding programs that let you.

作業機械等に生じた事故や故障を解析する手法としてFTA(Fault Tree Analysis)が知られている。FTAは、故障木解析とも言われている。FTAは、トップ事象に関連する事象をトップダウン的にツリー構造に表現するFT図を用いる。トップ事象には、例えば、作業機械に生じた事故や故障が相当する。FT図では、トップ事象に関連する事象のうち1番下位の事象が基本事象とされ、トップ事象でも基本事象でもない事象が中間事象とされる。FT図では、1つの事象に対して直接的に関連する事象が複数存在する場合、すわなち、1次事象、2次事象…n次事象が並列的に複数存在する場合がある。   FTA (Fault Tree Analysis) is known as a method for analyzing accidents and failures that occur in work machines and the like. FTA is also called failure tree analysis. FTA uses an FT diagram that expresses events related to top events in a top-down tree structure. The top event corresponds to, for example, an accident or a failure that has occurred in the work machine. In the FT diagram, the lowest event among the events related to the top event is the basic event, and the event that is neither the top event nor the basic event is the intermediate event. In the FT diagram, when there are a plurality of events directly related to one event, that is, there may be a plurality of primary events, secondary events, ... N-order events in parallel.

FT図を作成するための資料としては、作業機械のサービスマンが作成した資料が使用されている。作業機械に事故や故障が生じた場合、サービスマンは、作業機械になんらかの処置を行うことにより解決する。サービスマンは、通常、このようなトラブル事例を報告書などによって記録しており、その記録(以下、「トラブル事例」という)が蓄積されていく。   As the material for creating the FT diagram, the material created by the service person of the work machine is used. When an accident or failure occurs in the work machine, the service person solves it by taking some action on the work machine. The service person usually records such trouble cases in a report or the like, and the records (hereinafter referred to as "trouble cases") are accumulated.

ところで、これら複数のトラブル事例をもとにFT図を作成することは、時間を要するし面倒である。したがって、例えば、特許文献1および特許文献2に開示のプログラムのように、FT図作成を支援するプログラムが開発されてきた。   By the way, it is time-consuming and troublesome to create an FT diagram based on these plural trouble cases. Therefore, for example, programs that support FT diagram creation have been developed, such as the programs disclosed in Patent Documents 1 and 2.

特許文献1に開示のプログラムでは、技術分野別に用語群が予め記憶されており、FT図作成者は、用語群のリストから該当する事象をトップダウン的に次々と選択していくことによりFT図を作成することができる。   In the program disclosed in Patent Document 1, term groups are stored in advance for each technical field, and the FT diagram creator selects the corresponding phenomenon from the list of term groups one after another by top-down selecting the FT diagram. Can be created.

ただし、これら特許文献1および特許文献2に開示のプログラムでは、予め作業者によって、FT図作成のための用語群のデータがトラブル事例から作成されていなければならない。すなわち、作業者は、表計算ソフト等を用いて手作業により、トラブル事例からトップ事象、中間事象および基本事象ならびにそれらの因果関係を抽出するとともに予めデータ化しておかなければならない。これらの作業は、非常に手間であり、時間を要するので問題であった。   However, in the programs disclosed in Patent Document 1 and Patent Document 2, data of a term group for creating an FT diagram must be created in advance by an operator from a trouble case. That is, the operator must manually extract the top event, the intermediate event, the basic event, and their causal relationship from the trouble case by using a spreadsheet software or the like, and make the data in advance. These operations are very troublesome and time-consuming, which is a problem.

ところで、作業機械に生じた事故や故障に対して、未熟なサービスマンは、通常どのような処置をすればよいか容易に判断できない。また、このような未熟なサービスマンに対して、熟練のサービスマンが指導をすることは、時間および労力を要する。そこで、上記FT図を発展させて、作業機械に生じた事象に対して行うべき処置を参照可能なトラブルシューティング用フロー図が作成されることが好ましい。しかしながら、このようなトラブルシューティング用フロー図を作成することは、非常に手間であり、時間を要するので問題であった。   By the way, an inexperienced service person usually cannot easily determine what kind of action should be taken with respect to an accident or failure that occurs in the work machine. In addition, it takes time and labor for a skilled serviceman to provide guidance to such an inexperienced serviceman. Therefore, it is preferable to develop the above FT diagram to create a troubleshooting flow diagram that can refer to the action to be taken for the event that occurred in the work machine. However, creating such a troubleshooting flow chart is very troublesome and time-consuming, which is a problem.

特開2001−195433号公報JP, 2001-195433, A 特開2013−073384号公報JP, 2013-073384, A

そこで、本発明が解決しようとする課題は、トラブル事例から直接的にFT図を生成することができるFT図生成装置およびトラブルシューティング用フロー図生成装置ならびにプログラムを提供することにある。   Therefore, the problem to be solved by the present invention is to provide an FT diagram generation device and a troubleshooting flow diagram generation device and a program that can directly generate an FT diagram from a trouble case.

上記課題を解決するために本発明に係るFT図生成装置は、
作業機械に関する複数のトラブル事例から前記作業機械に関するFT図を生成するFT図生成装置であって、
前記複数のトラブル事例から事象を抽出する事象抽出部と、
前記トラブル事例が入力されると前記トラブル事例ごとの前記事象同士の第1因果関係を抽出するように第1教師データを用いて機械学習された学習済み第1ニューラルネットワークを有し、前記第1因果関係を抽出する第1因果関係抽出部と、
抽出された前記第1因果関係に対応する前記事象をトップダウン的に連結して事象群を生成する連結部と、
複数の前記事象群間における同様の前記事象同士を統合することにより前記複数の事象群をツリー状に形成する統合部と
前記複数のトラブル事例を単語ごとに分割する形態素解析部と、
単語ごとに分割された前記複数のトラブル事例を学習用データとしてニューラルネットワークを用いて教師なし学習され、単語が入力されると、当該入力された単語の意味に対応する分散表現ベクトルを出力する学習済み第2ニューラルネットワークと、
単語ごとに分割された前記トラブル事例を、前記学習済み第2ニューラルネットワークによって分散表現ベクトル化する単語ベクトル化部と、
前記抽出された事象を、当該事象に含まれている単語ごとの分散表現ベクトルに基づいて、前記事象ごとの分散表現ベクトルに変換する文章ベクトル化部と、
前記文章ベクトル化部によって分散表現ベクトル化された前記事象同士のコサイン類似度に基づいて、前記事象同士の類似度を算出する類似度算出部と、を備え、
前記統合部は、所定以上の類似度が算出された前記事象同士を統合することを特徴とする。
In order to solve the above problems, an FT diagram generation device according to the present invention is
An FT diagram generation device for generating an FT diagram relating to the working machine from a plurality of trouble cases relating to the working machine,
An event extraction unit that extracts an event from the plurality of trouble cases,
A learned first neural network machine-learned using first teacher data so as to extract a first causal relationship between the events for each of the trouble cases when the trouble case is input; A first causal relationship extraction unit that extracts one causal relationship;
A connecting unit that connects the extracted events corresponding to the first causal relationship in a top-down manner to generate an event group;
An integrating unit that forms the plurality of event groups in a tree shape by integrating the same events among the plurality of event groups ,
A morphological analysis unit that divides the plurality of trouble cases for each word,
Learning in which unsupervised learning is performed by using a neural network with the plurality of trouble cases divided for each word as learning data, and when a word is input, learning that outputs a distributed expression vector corresponding to the meaning of the input word Completed second neural network,
A word vectorization unit that converts the trouble case divided into words into a distributed representation vector by the learned second neural network;
The extracted event, based on the distributed expression vector for each word contained in the event, a sentence vectorization unit that converts the distributed expression vector for each event,
A similarity calculation unit that calculates the similarity between the events based on the cosine similarity between the events that are distributed representation vectorized by the sentence vectorization unit,
The integration unit may integrate the events for which a degree of similarity equal to or higher than a predetermined value is calculated .

上記FT図生成装置は、好ましくは、
前記入力された単語の意味に対応する分散表現ベクトルが、前記入力された単語がN−gram分割されて抽出されたサブワードの分散表現ベクトルの和または平均である。
The FT diagram generation device is preferably
The distributed expression vector corresponding to the meaning of the input word is the sum or average of the distributed expression vectors of the subwords extracted by the N-gram division of the input word.

上記FT図生成装置は、例えば、
前記事象抽出部が、前記トラブル事例が入力されると、当該トラブル事例に含まれている前記事象を抽出するように第2教師データを用いて機械学習された学習済み第3ニューラルネットワークを有する。
The FT diagram generation device is, for example,
When the trouble case is input, the event extracting unit creates a learned third neural network machine-learned using the second teacher data so as to extract the event included in the trouble case. Have.

上記課題を解決するために本発明に係るトラブルシューティング用フロー図生成装置は、
作業機械に関するトラブルシューティング用フロー図生成装置であって、
前記作業機械に関する複数のトラブル事例から前記作業機械に関するFT図を生成するFT図生成装置を備え、
前記FT図生成装置は、
前記複数のトラブル事例から事象を抽出する事象抽出部と、
前記トラブル事例が入力されると前記トラブル事例ごとの前記事象同士の第1因果関係を抽出するように第1教師データを用いて機械学習された学習済み第1ニューラルネットワークを有し、前記第1因果関係を抽出する第1因果関係抽出部と、
抽出された前記第1因果関係に対応する前記事象をトップダウン的に連結して事象群を生成する連結部と、
複数の前記事象群間における同様の前記事象同士を統合することにより前記複数の事象群をツリー状に形成する統合部と、を有し、
前記フロー図生成装置は、さらに、
前記複数のトラブル事例に含まれている前記事象に対して行われた処置を抽出する処置抽出部と、
前記トラブル事例が入力されると前記トラブル事例ごとの前記処置と当該処置に対応する前記事象との第2因果関係を抽出するように第3教師データを用いて機械学習された学習済み第4ニューラルネットワークを有し、前記第2因果関係を抽出する第2因果関係抽出部と、を備え、
前記連結部が、さらに、前記第2因果関係に基づいて、前記事象群中の前記事象に前記処置をトップダウン的に連結し、
前記統合部が、さらに、複数の前記事象群間における同様の前記処置を統合することを特徴とする。
In order to solve the above-mentioned problems, a troubleshooting flow diagram generation device according to the present invention,
A flow chart generation device for troubleshooting a work machine,
An FT diagram generation device for generating an FT diagram relating to the working machine from a plurality of trouble cases relating to the working machine;
The FT diagram generator is
An event extraction unit that extracts an event from the plurality of trouble cases,
A learned first neural network machine-learned using first teacher data so as to extract a first causal relationship between the events for each of the trouble cases when the trouble case is input; A first causal relationship extraction unit that extracts one causal relationship;
A connecting unit that connects the extracted events corresponding to the first causal relationship in a top-down manner to generate an event group;
An integrating unit that forms the plurality of event groups in a tree shape by integrating the same events among the plurality of event groups,
The flow diagram generation device further includes
A treatment extraction unit that extracts a treatment performed on the event included in the plurality of trouble cases,
When the trouble case is input, the learned fourth machine-learned using the third teacher data so as to extract the second causal relationship between the action for each trouble case and the event corresponding to the action. A second causal relationship extracting unit that has a neural network and extracts the second causal relationship;
The connection unit further connects the treatment to the events in the event group in a top-down manner based on the second causal relationship,
It is characterized in that the integration unit further integrates similar treatments among the plurality of event groups.

上記フロー図生成装置は、例えば、
前記処置抽出部が、前記トラブル事例が入力されると、当該トラブル事例に含まれている前記処置を抽出するように第4教師データを用いて機械学習された学習済み第5ニューラルネットワークを有する。
The flow diagram generation device, for example,
When the trouble case is input, the treatment extraction unit has a learned fifth neural network machine-learned using the fourth teacher data so as to extract the treatment included in the trouble case.

上記課題を解決するために本発明に係るプログラムは、
コンピュータを上記いずれかの生成装置として機能させる。
In order to solve the above problems, the program according to the present invention is
The computer is caused to function as any one of the above generation devices.

本発明に係るFT図生成装置は、トラブル事例から直接的にFT図を生成することができる。また、本発明に係るFT図生成装置を備えたフロー図生成装置は、トラブル事例から直接的にトラブルシューティング用フロー図を生成することができる。   The FT diagram generation device according to the present invention can directly generate an FT diagram from a trouble case. Further, the flow diagram generation device including the FT diagram generation device according to the present invention can directly generate a troubleshooting flow diagram from a trouble case.

本発明のFT図生成装置の一実施形態の概略構成を示すブロック図である。It is a block diagram showing a schematic structure of one embodiment of an FT figure generation device of the present invention. 報告書の一例を示す図である。It is a figure which shows an example of a report. 図1のFT図生成装置の機能ブロック図である。FIG. 2 is a functional block diagram of the FT diagram generation device of FIG. 1. AおよびBは生成された事象群の一例を示し、Cは事象が統合されツリー形状にされた事象群の一例を示す。A and B show an example of the generated event group, and C shows an example of the event group in which the events are integrated into a tree shape. 図1のFT図生成装置の処理動作を示すフロー図である。It is a flowchart which shows the processing operation of the FT figure production | generation apparatus of FIG. 図1のFT図生成装置によって生成されたFT図の一例である。2 is an example of an FT diagram generated by the FT diagram generation device of FIG. 1. 本発明のフロー図生成装置の一実施形態の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of one Embodiment of the flowchart generation apparatus of this invention. 図7のフロー図生成装置の機能ブロック図である。FIG. 8 is a functional block diagram of the flow chart generation device in FIG. 7. 図7のフロー図生成装置の処理動作を示すフロー図である。It is a flowchart which shows the process operation of the flowchart generator of FIG. 図7のフロー図生成装置によって生成されたフロー図の一例である。8 is an example of a flow chart generated by the flow chart generation device of FIG. 7.

<第1実施形態>
<FT図生成装置>
以下、図を参照しつつ、本発明のFT図生成装置A1の一実施形態について説明する。なお、本実施形態における作業機械は、フォークリフトであるが、単なる一例であってこれに限定されない。
<First Embodiment>
<FT diagram generator>
Hereinafter, an embodiment of an FT diagram generation device A1 of the present invention will be described with reference to the drawings. Although the working machine in the present embodiment is a forklift, it is merely an example and the working machine is not limited to this.

図1は、本実施形態の概略を示す全体図である。コンピュータCは、FT図生成プログラムP1によって、報告書300に記載されている複数のトラブル事例300b(図2参照)が入力されるとFT図を生成するFT図生成装置として機能するように構成されている。   FIG. 1 is an overall view showing the outline of this embodiment. The computer C is configured to function as an FT diagram generation device that generates an FT diagram when a plurality of trouble cases 300b (see FIG. 2) described in the report 300 are input by the FT diagram generation program P1. ing.

コンピュータCは、入力部C1と、制御部C2と、メモリC3と、記憶部C4と、出力部C5と、を備える。記憶部C4は、ハードディスクなどからなり、OSとFT図生成プログラムP1を記憶している。入力部C1は、キーボード、スキャナなどからなり、複数の報告書300に記載されたトラブル事例300bをコンピュータCに入力する。制御部C2は、FT図生成プログラムP1を動作させる。出力部C5は、モニタ、プリンタなどからなり、入力されたトラブル事例300bの内容、FT図生成装置の動作結果などを出力する。   The computer C includes an input unit C1, a control unit C2, a memory C3, a storage unit C4, and an output unit C5. The storage unit C4 includes a hard disk or the like, and stores the OS and the FT diagram generation program P1. The input unit C1 includes a keyboard, a scanner, and the like, and inputs the trouble case 300b described in the plurality of reports 300 to the computer C. The control unit C2 operates the FT diagram generation program P1. The output unit C5 is composed of a monitor, a printer, and the like, and outputs the contents of the input trouble case 300b, the operation result of the FT diagram generation device, and the like.

図2は、報告書300の一例を示す。報告書300には、日付、件名、顧客名、担当者名、機種/型式および不具合内容といった項目とともにその内容が記載されている。不具合内容欄には、フォークリフトに生じた各事象とともに、担当者によって行われた処置が記録されている。本明細書におけるトラブル事例300bとは、不具合内容欄に記載されている文章をいう。なお、トラブル事例300bは、各担当者によって各事象が箇条書きで書かれていたり、各事例が接続詞や句読点で連結されていたりする。   FIG. 2 shows an example of the report 300. In the report 300, the contents are described along with items such as date, subject, customer name, person in charge, model / model, and contents of failure. In the failure content column, the actions taken by the person in charge are recorded along with each event that occurred in the forklift. The trouble case 300b in the present specification refers to a sentence described in the trouble content column. In the trouble case 300b, each person may write each event in a bulleted list, or connect each case with a conjunction or a punctuation mark.

図2の報告書300に記載されたトラブル事例300bにおける各事象および処置は、次のとおりである。
・トップ事象:エンジンが掛からなかった。
・中間事象1(1次事象):吸気系に異常があった。
・中間事象2(2次事象):吸気ホースが潰れていた。
・基本事象:エアクリーナが目詰まりしていた。
・処置:エアクリーナ清掃/フィルタ交換をした。
The respective events and actions in the trouble case 300b described in the report 300 of FIG. 2 are as follows.
・ Top event: The engine did not start.
-Intermediate event 1 (primary event): There was an abnormality in the intake system.
-Intermediate event 2 (secondary event): The intake hose was crushed.
・ Basic event: The air cleaner was clogged.
・ Remedy: Air cleaner was cleaned / filter was replaced.

図3は、FT図生成装置A1のブロック図である。FT図生成装置A1は、形態素解析部1と、単語ベクトル化部2と、事象抽出部3と、第1因果関係抽出部4と、連結部5と、文章ベクトル化部6と、類似度算出部7と、統合部8と、を備える。   FIG. 3 is a block diagram of the FT diagram generation apparatus A1. The FT diagram generation device A1 includes a morphological analysis unit 1, a word vectorization unit 2, an event extraction unit 3, a first causal relationship extraction unit 4, a connection unit 5, a sentence vectorization unit 6, and similarity calculation. The unit 7 and the integration unit 8 are provided.

形態素解析部1は、トラブル事例300bが入力されると、形態素解析する。これにより、トラブル事例300bは、単語ごとにスペースを置いて分割され、分かち書き処理される。例えば、「エンジンが掛からなかった」という文章は、「エンジン」、「が」、「掛から」、「なかっ」、「た」と分割される。形態素解析するためのツールとして、例えば、「Mecab」を使用してもよい。また、予め作成されたフォークリフト用のコーパスを形態素解析ツールとして使用してもよい。これにより、トラブル事例300b中の各名詞が適切に抽出されるので好ましい。   When the trouble case 300b is input, the morpheme analysis unit 1 performs morpheme analysis. As a result, the trouble case 300b is divided with a space for each word, and is divided into words. For example, the sentence "the engine was not started" is divided into "engine", "ga", "kakekara", "not", and "ta". As a tool for morphological analysis, for example, "Mecab" may be used. Alternatively, a corpus for a forklift created in advance may be used as a morphological analysis tool. This is preferable because each noun in the trouble case 300b is appropriately extracted.

単語ベクトル化部2は、学習済み第2ニューラルネットワーク(以下、単に「第2NN」という)20を有する。第2NN20は、単語ごとに分割された複数のトラブル事例300bを学習用データとしてニューラルネットワークを用いて事前に教師なし学習されており、単語ごとに分割された複数のトラブル事例300bが入力されると、複数のトラブル事例300bに含まれている各単語同士の関連性に基づいて、この各単語の意味に対応する分散表現ベクトルを出力する。第2NN20は、同一の事象に出現する可能性(共起性)が高い単語、または同一の事象において近い位置に出現する可能性が高い単語といった関連性の高い単語がそれぞれ入力された場合に、類似する分散表現ベクトルが出力されるように事前学習されている。これは、類似する文脈で出現する単語は、意味的にも類似しているという分布仮説(Harrs, 1954, Rubenstein & Goodenough,1965)に基づく。単語ベクトル化部2として、例えば、ニューラルネットワーク技術に基づく「Word2Vec」、「Glove」、「Fasttext」などの言語モデルが使用されてもよい。分散表現およびWord2Vecについては「MIKOLOV, Tomas, et al. Distributed representations of words and phrases and their compositionality. In: Advances in neural information processing systems. 2013. p. 3111-3119.」などを参照することができる。Gloveについては「PENNINGTON, Jeffrey; SOCHER, Richard; MANNING, Christopher D. Glove: Global Vectors for Word Representation. In: EMNLP. 2014. p. 1532-1543.」などを参照することができる。Fasttextについては「JOULIN, Armand, et al. Bag of tricks for efficient text classification. arXiv preprint arXiv:1607.01759, 2016.」などを参照することができる。   The word vectorization unit 2 has a learned second neural network (hereinafter, simply referred to as “second NN”) 20. The second NN 20 is unsupervised in advance by using the neural network with the plurality of trouble cases 300b divided for each word as learning data, and when the plurality of trouble cases 300b divided for each word are input. , A distributed expression vector corresponding to the meaning of each word is output based on the relationship between the words included in the plurality of trouble cases 300b. The second NN20, when a highly relevant word such as a word that is likely to appear in the same event (co-occurrence) or a word that is likely to appear in a close position in the same event is input, It is pre-learned so that similar distributed expression vectors are output. This is based on the distribution hypothesis (Harrs, 1954, Rubenstein & Goodenough, 1965) that words that appear in similar contexts are also semantically similar. As the word vectorization unit 2, for example, a language model such as “Word2Vec”, “Glove”, “Fasttext” based on neural network technology may be used. For the distributed representation and Word2Vec, "MIKOLOV, Tomas, et al. Distributed representations of words and phrases and their compositionality. In: Advances in neural information processing systems. 2013. p. 3111-3119." Can be referred to. Regarding Grove, "PENNINGTON, Jeffrey; SOCHER, Richard; MANNING, Christopher D. Glove: Global Vectors for Word Representation. In: EMNLP. 2014. p. 1532-1543." Can be referred to. For Fasttext, "JOULIN, Armand, et al. Bag of tricks for efficient text classification. ArXiv preprint arXiv: 1607.01759, 2016." and the like can be referred to.

学習済み第2NN20は、各単語の分散表現ベクトルを出力する方法として、各単語に含まれるサブワードを考慮して分散表現ベクトルを生成することが好ましい。具体的には、単語ベクトル化部2は、入力された単語をN−gram分割してサブワードを抽出し、入力された単語の意味に対応する分散表現ベクトルを、サブワードの分散表現ベクトルの和または平均とすることが好ましい。サブワードは、例えば、単語「吸気ホース」の場合、「吸」、「吸気」、「気ホ」、「ホー」、「ース」、「ス」が該当する。これにより、第2NN20は、例えば、「吸気ホース」、「吸ホース」および「ホース」には、類似する分散表現ベクトルを出力するので、入力されるトラブル事例300bの表記上のゆれおよび未知語にも対応することができる。サブワードを考慮して分散表現ベクトルを生成するツールとして、例えば、「Fasttext」を用いてもよい。   As a method of outputting the distributed expression vector of each word, the learned second NN 20 preferably generates a distributed expression vector in consideration of subwords included in each word. Specifically, the word vectorization unit 2 divides the input word into N-grams to extract subwords, and determines the distributed expression vector corresponding to the meaning of the input word as the sum of the distributed expression vectors of the subwords or It is preferable to use an average. For example, in the case of the word "intake hose", the subword corresponds to "intake", "intake", "ki-ho", "ho", "su", and "su". As a result, the second NN 20 outputs, for example, similar distributed expression vectors to the “intake hose”, the “intake hose”, and the “hose”. Can also respond. For example, “Fasttext” may be used as a tool for generating a distributed expression vector in consideration of subwords.

事象抽出部3は、トラブル事例300bから事象を抽出する。事象抽出部3は、例えば、トラブル事例300bが入力されると、当該トラブル事例300bに含まれている事象を抽出するように教師データを用いて機械学習された学習済み第3ニューラルネットワーク(以下、単に「第3NN」という)30を有してもよい。この場合、教師データは、入力データが複数のトラブル事例300bであり、正解データがトラブル事例300bごとに含まれている事象である。この教師データが、本発明の「第2教師データ」に相当する。また、この場合、機械学習に使用される教師データは、単語ベクトル化部2によって予め分散表現ベクトル化されていることが好ましい。教師データに含まれている単語が、分散表現ベクトル化されていることにより、文脈情報を有するので機械学習において特徴を学習しやすいからである。第3NN30は、ディープラーニングを利用し、かつ、畳み込みニューラルネットワークもしくは再帰型ニューラルネットワークまたはその両方を利用したものであってもよい。また、第3NN30は、複数のニューラルネットワークから構成されアンサンブル学習されたものであってもよい。   The event extracting unit 3 extracts an event from the trouble case 300b. For example, when the trouble case 300b is input, the event extracting unit 3 uses a learned third neural network that has been machine-learned using teacher data so as to extract the event included in the trouble case 300b (hereinafter, (Hereinafter simply referred to as “third NN”) 30 may be included. In this case, the teacher data is an event in which the input data is a plurality of trouble cases 300b and the correct answer data is included in each trouble case 300b. This teacher data corresponds to the "second teacher data" of the present invention. Further, in this case, it is preferable that the teacher data used for machine learning be converted into a distributed expression vector in advance by the word vectorization unit 2. This is because the words included in the teacher data have the context information because they are distributed representation vectorization, so that the features can be easily learned in machine learning. The third NN 30 may use deep learning and may use a convolutional neural network, a recurrent neural network, or both. Further, the third NN 30 may be composed of a plurality of neural networks and subjected to ensemble learning.

第1因果関係抽出部4は、トラブル事例300bごとの事象同士の因果関係(以下、単に「第1因果関係」という)を抽出する。第1因果関係抽出部4は、トラブル事例300bが入力されると、第1因果関係を抽出するように教師データを用いて機械学習された学習済み第1ニューラルネットワーク(以下、単に「第1NN」という)40を有する。教師データは、入力データが各トラブル事例300bであり、正解データがトラブル事例300bごとに含まれている事象同士の因果関係である。この教師データが、本発明の「第1教師データ」に相当する。なお、第1因果関係には、第1因果関係を有する事象同士のいずれが上位事象または下位事象であるかといった従属関係も含まれている。また、使用される教師データは、単語ベクトル化部2によって予め分散表現ベクトル化されている方が、機械学習の精度、効率の観点から好ましい。第1NN40は、ディープラーニングを利用し、かつ、畳み込みニューラルネットワークもしくは再帰型ニューラルネットワークまたはその両方を利用したものであってもよい。また、第1NN40は、複数のニューラルネットワークから構成されアンサンブル学習されたものであってもよい。   The first causal relationship extracting unit 4 extracts a causal relationship between events in each trouble case 300b (hereinafter, simply referred to as "first causal relationship"). When the trouble case 300b is input, the first causal relationship extraction unit 4 performs a machine-learned first neural network (hereinafter simply referred to as “first NN”) that has been machine-learned using the teacher data to extract the first causal relationship. 40). The teacher data is a causal relationship between events in which the input data is each trouble case 300b and the correct answer data is included in each trouble case 300b. This teacher data corresponds to the "first teacher data" of the present invention. Note that the first causal relationship also includes a subordinate relationship such as which of the events having the first causal relationship is a higher event or a lower event. In addition, it is preferable that the used teacher data is distributed representation vectorized in advance by the word vectorization unit 2 from the viewpoint of accuracy and efficiency of machine learning. The first NN 40 may use deep learning and may use a convolutional neural network, a recurrent neural network, or both. The first NN 40 may be composed of a plurality of neural networks and have been ensemble-learned.

連結部5は、事象抽出部3によって抽出された第1因果関係に対応する事象同士をトップダウン的に連結して事象群Eを生成する。   The connection unit 5 connects the events corresponding to the first causal relationship extracted by the event extraction unit 3 in a top-down manner to generate an event group E.

図4Aに示すように、連結部5は、例えば、図2の報告書300に係るトラブル事例300bの場合、各事象を連結線によって連結して事象群Eaを生成する。   As shown in FIG. 4A, for example, in the case of the trouble case 300b related to the report 300 in FIG. 2, the connection unit 5 connects each event with a connection line to generate an event group Ea.

文章ベクトル化部6は、類似度算出部7が事象ごとの類似度を算出することができるように、事象抽出部3が抽出した事象を、当該事象に含まれている単語ごとの分散表現ベクトルに基づいて、事象ごとの分散表現ベクトルに変換する。文章ベクトル化部6は、事象を分散表現ベクトル化する手法として、事象に含まれている単語の分散表現ベクトルの平均を事象自体の特徴ベクトルとしてもよい。または、文章ベクトル化部6は、より精度よく事象を分散表現ベクトル化する手法として、SCDV(Sparse Composite Document Vectors)を用いた特徴ベクトル平均を用いてもよい。SCDVについては、「Dheeraj Mekala et al.: SCDV : Sparse Composite Document Vectors using soft clustering over distributional representations, Proc of EMNLP, 2017」を参照することができる。   The sentence vectorization unit 6 defines the event extracted by the event extraction unit 3 as a distributed expression vector for each word included in the event so that the similarity calculation unit 7 can calculate the similarity for each event. Based on the above, it is converted into a distributed expression vector for each event. The sentence vectorization unit 6 may use the average of the distributed expression vectors of the words included in the event as the feature vector of the event itself, as a method of converting the event into the distributed expression vector. Alternatively, the text vectorization unit 6 may use feature vector averaging using SCDV (Sparse Composite Document Vectors) as a method of converting the event into a distributed representation vector with higher accuracy. Regarding SCDV, “Dheeraj Mekala et al .: SCDV: Sparse Composite Document Vectors using soft clustering over distributional representations, Proc of EMNLP, 2017” can be referred to.

類似度算出部7は、文章ベクトル化部6によって分散表現ベクトル化された事象同士のコサイン類似度に基づいて、事象同士の類似度を算出する。コサイン類似度とは、ベクトル空間モデルにおいて、文書同士を比較する際に用いられる類似度計算手法である。コサイン類似度がベクトル同士の成す角度の近さを表現するので、事象同士は、コサイン類似度が1に近ければより類似しており、0に近ければより類似していないことになる。   The similarity calculation unit 7 calculates the similarity between the events based on the cosine similarity between the events that is distributed representation vectorized by the sentence vectorization unit 6. The cosine similarity is a similarity calculation method used when comparing documents in a vector space model. Since the cosine similarity expresses the closeness of the angle formed by the vectors, the events are more similar when the cosine similarity is close to 1, and are not so similar when the cosine similarity is close to 0.

統合部8は、複数の事象群E間における同様の事象を統合することにより事象群Eをツリー状に形成する。統合部8は、例えば、図4AおよびBに示すように、連結部5によって事象群EaおよびEbが生成されている場合、事象群EaおよびEbに含まれている「エンジンが掛からない」という同様の事象を統合することにより、図4Cに示すように、事象群Eaおよび事象群Ebをツリー状の事象群Ecに形成する。   The integration unit 8 integrates similar events among the plurality of event groups E to form the event group E in a tree shape. For example, as shown in FIGS. 4A and 4B, when the event groups Ea and Eb are generated by the connection unit 5, the integration unit 8 includes the same “not to start engine” included in the event groups Ea and Eb. 4C, the event group Ea and the event group Eb are formed into a tree-shaped event group Ec by integrating the events of FIG.

統合部8は、ある事象同士の類似度が所定以上の類似度であった場合、この事象同士を同様の事象であると判断して統合する。   When the similarity between certain events is equal to or higher than a predetermined level, the integration unit 8 determines that the events are similar and integrates them.

次に、図5のフロー図を参照して、FT図生成装置A1の処理動作について説明する。   Next, the processing operation of the FT diagram generation apparatus A1 will be described with reference to the flowchart of FIG.

まず、形態素解析部1が、複数のトラブル事例300bを形態素解析し、単語ごとに分割する(S500)。   First, the morpheme analysis unit 1 morphologically analyzes a plurality of trouble cases 300b and divides them into words (S500).

次いで、単語ベクトル化部2が、トラブル事例300bに含まれている単語を分散表現ベクトル化する(S501)。   Next, the word vectorization unit 2 converts the words included in the trouble case 300b into a distributed expression vector (S501).

次いで、事象抽出部3が、単語ごとに分散表現ベクトル化されたトラブル事例300bから事象を抽出する(S502)。   Next, the event extraction unit 3 extracts an event from the trouble case 300b that is distributed expression vectorized for each word (S502).

次いで、第1因果関係抽出部4が単語ごとに分散表現ベクトル化されたトラブル事例300bから第1因果関係を抽出する(S503)。   Next, the first causal relationship extracting unit 4 extracts the first causal relationship from the trouble case 300b in which the distributed expression vector is converted for each word (S503).

次いで、連結部5が第1因果関係に基づいて、抽出された事象同士を連結し、事象群Eを生成する(S504)。   Next, the connection unit 5 connects the extracted events to each other based on the first causal relationship to generate the event group E (S504).

次いで、文章ベクトル化部6が、抽出された事象を、その含まれている単語ごとの分散表現ベクトルに基づいて、事象ごとの分散表現ベクトルに変換する(S505)。   Next, the sentence vectorization unit 6 converts the extracted event into a distributed expression vector for each event based on the included distributed expression vector for each word (S505).

次いで、類似度算出部7が、事象ごとの分散表現ベクトル同士のコサイン類似度に基づいて、事象同士の類似度を算出する(S506)。   Next, the similarity calculation unit 7 calculates the similarity between the events based on the cosine similarity between the distributed expression vectors for each event (S506).

次いで、統合部8が、所定以上の類似度が算出された事象同士を同様の事象と判定し、この事象同士を統合して、関連する事象群Eをツリー状に形成する(S507)。   Next, the integration unit 8 determines that the events for which the degree of similarity is equal to or greater than a predetermined value are calculated as similar events, integrates the events, and forms the related event group E in a tree shape (S507).

図6は、FT図生成装置A1によって生成されたFT図400の一例を示す。以上のように、FT図生成装置A1は、複数のトラブル事例から直接的にFT図400を生成することができる。   FIG. 6 shows an example of the FT diagram 400 generated by the FT diagram generation device A1. As described above, the FT diagram generation device A1 can directly generate the FT diagram 400 from a plurality of trouble cases.

<第2実施形態>
<トラブルシューティング用フロー図生成装置>
次に、本発明に係るFT図生成装置A1を備えたトラブルシューティング用フロー図生成装置(以下、単に「フロー図生成装置」という)A2の一実施形態について、図7〜図10を参照して説明する。なお、コンピュータCおよびフロー図生成装置A2が備えているFT図生成装置A1の各構成については、既に説明したものであるので詳細な説明を省略する。
<Second Embodiment>
<Troubleshooting flow diagram generator>
Next, with reference to FIGS. 7 to 10, one embodiment of a troubleshooting flow diagram generation device (hereinafter, simply referred to as “flow diagram generation device”) A2 including the FT diagram generation device A1 according to the present invention will be described. explain. It should be noted that the respective configurations of the FT diagram generation device A1 included in the computer C and the flow diagram generation device A2 have already been described, and thus detailed description thereof will be omitted.

図7に示すように、本実施形態に係るコンピュータCは、フロー図生成プログラムP2によって、トラブル事例300bが入力されるとトラブルシューティング用フロー図を生成するトラブルシューティング用フロー図生成装置として機能するように構成されている。   As illustrated in FIG. 7, the computer C according to the present embodiment functions as a troubleshooting flow diagram generation device that generates a troubleshooting flow diagram when the trouble case 300b is input by the flow diagram generation program P2. Is configured.

図8に示すように、フロー図生成装置A2は、FT図生成装置A1と、処置抽出部9と、第2因果関係抽出部10と、を備える。   As shown in FIG. 8, the flow chart generation device A2 includes an FT diagram generation device A1, a treatment extraction unit 9, and a second causal relationship extraction unit 10.

まず、第1実施形態と同様の手法で、形態素解析部1が、複数のトラブル事例300bを形態素解析して単語ごとに分割し(S800)、単語ベクトル化部2が、それら単語をそれぞれ分散表現ベクトル化する(S801)。次いで、第1実施形態と同様の手法で、単語ごとに分散表現ベクトル化されたトラブル事例300bから、事象抽出部3が事象を抽出し(S802)、第1因果関係抽出部4が第1因果関係を抽出する(S803)。   First, in the same manner as in the first embodiment, the morpheme analysis unit 1 morphologically analyzes a plurality of trouble cases 300b and divides each of the words into words (S800), and the word vectorization unit 2 expresses each of those words in a distributed expression. Vectorize (S801). Then, by the same method as in the first embodiment, the event extracting unit 3 extracts an event from the trouble case 300b in which the distributed expression vector is converted for each word (S802), and the first causal relationship extracting unit 4 causes the first causal relationship extracting unit 4 to extract the event. The relationship is extracted (S803).

次いで、処置抽出部9は、単語ごとに分散表現ベクトル化されたトラブル事例300bから処置を抽出する(S804)。処置抽出部9は、例えば、トラブル事例300bが入力されると、当該トラブル事例300bに含まれている処置を抽出するように教師データを用いて機械学習された学習済み第5ニューラルネットワーク(以下、単に「第5NN」という)90を有してもよい。この場合、教師データは、入力データが複数のトラブル事例300bであり、正解データがトラブル事例300bごとに含まれている処置である。この教師データが、本発明の「第4教師データ」に相当する。また、この場合、機械学習に使用される教師データは、単語ベクトル化部2によって予め分散表現ベクトル化されていることが好ましい。第5NN90は、ディープラーニングを利用し、かつ、畳み込みニューラルネットワークもしくは再帰型ニューラルネットワークまたはその両方を利用したものであってもよい。また、第5NN90は、複数のニューラルネットワークから構成されアンサンブル学習されたものであってもよい。   Next, the treatment extraction unit 9 extracts the treatment from the trouble case 300b that is distributed expression vectorized for each word (S804). For example, when the trouble case 300b is input, the treatment extracting unit 9 uses the learned fifth neural network that has been machine-learned using the teacher data to extract the treatment included in the trouble case 300b (hereinafter, (Hereinafter simply referred to as “fifth NN”) 90. In this case, the teacher data is a procedure in which the input data is a plurality of trouble cases 300b and the correct answer data is included in each trouble case 300b. This teacher data corresponds to the "fourth teacher data" of the present invention. Further, in this case, it is preferable that the teacher data used for machine learning be converted into a distributed expression vector in advance by the word vectorization unit 2. The fifth NN 90 may use deep learning and may use a convolutional neural network, a recurrent neural network, or both. The fifth NN 90 may be composed of a plurality of neural networks and have been ensemble-learned.

次いで、第2因果関係抽出部10は、単語ごとに分散表現ベクトル化されたトラブル事例300bから、トラブル事例300bごとの処置と当該処置に対応する事象との因果関係(以下、「第2因果関係」という)を抽出する(S805)。第2因果関係抽出部10は、トラブル事例300bが入力されると、第2因果関係を抽出するように教師データを用いて機械学習された学習済み第4ニューラルネットワーク(以下、単に「第4NN」という)100を有する。教師データは、入力データが各トラブル事例300bであり、正解データがトラブル事例300bごとに含まれている処置と当該処置に対応する事象との因果関係である。この教師データが、本発明の「第3教師データ」に相当する。また、使用される教師データは、単語ベクトル化部2によって予め分散表現ベクトル化されている方が、機械学習の精度、効率の観点から好ましい。第4NN100は、ディープラーニングを利用し、かつ、畳み込みニューラルネットワークもしくは再帰型ニューラルネットワークまたはその両方を利用したものであってもよい。また、第4NN100は、複数のニューラルネットワークから構成されアンサンブル学習されたものであってもよい。   Then, the second causal relationship extraction unit 10 determines, from the trouble case 300b that is distributed expression vectorized for each word, the causal relationship between the action for each trouble case 300b and the event corresponding to the action (hereinafter, referred to as "second causal relation" Is called) (S805). When the trouble case 300b is input, the second causal relationship extracting unit 10 performs a machine-learned fourth neural network (hereinafter simply referred to as “fourth NN”) that has been machine-learned so as to extract the second causal relationship. Say) 100. The teacher data is a causal relationship between the action in which the input data is each trouble case 300b and the correct answer data is included in each trouble case 300b and the event corresponding to the action. This teacher data corresponds to the "third teacher data" of the present invention. In addition, it is preferable that the used teacher data is distributed representation vectorized in advance by the word vectorization unit 2 from the viewpoint of accuracy and efficiency of machine learning. The fourth NN 100 may use deep learning and may use a convolutional neural network, a recurrent neural network, or both. Further, the fourth NN 100 may be composed of a plurality of neural networks and subjected to ensemble learning.

次いで、連結部5は、第1因果関係に基づいて、抽出された事象同士を連結するとともに(S806)、第2因果関係に基づいて、事象群E中の事象に処置をトップダウン的に連結し(S807)、処置が連結された事象群Eを生成する。   Next, the connection unit 5 connects the extracted events to each other based on the first causal relationship (S806), and connects the treatment to the events in the event group E in a top-down manner based on the second causal relationship. Then (S807), the event group E in which the treatments are linked is generated.

次いで、文章ベクトル化部6が、抽出された事象および処置を、その含まれている単語ごとの分散表現ベクトルに基づいて、事象ごとまたは処置ごとの分散表現ベクトルに変換する(S808)。   Next, the sentence vectorization unit 6 converts the extracted event and procedure into a distributed expression vector for each event or procedure based on the included distributed expression vector for each word (S808).

次いで、類似度算出部7は、事象ごとの分散表現ベクトル同士のコサイン類似度に基づいて、事象同士の類似度を算出するとともに、処置ごとの分散表現ベクトル同士のコサイン類似度に基づいて、処置同士の類似度を算出する(S809)。   Next, the similarity calculation unit 7 calculates the similarity between the events based on the cosine similarity between the distributed expression vectors for each event, and the treatment based on the cosine similarity between the distributed expression vectors for each procedure. The degree of similarity between them is calculated (S809).

統合部8は、所定以上の類似度が算出された事象同士および処置同士を同様の事象または同様の処置と判定し、同様の事象同士および処置同士を統合して、関連する事象群Eをツリー状に形成する(S810)。   The integration unit 8 determines that the events and the treatments for which the degree of similarity is equal to or higher than a predetermined value are calculated as the same event or the similar treatment, integrates the similar events and the treatments, and creates a related event group E as a tree. It is formed into a shape (S810).

図10は、フロー図生成装置A2により生成されたトラブルシューティング用フロー図500の一例を示す。以上のように、フロー図生成装置A2は、トラブル事例300bから直接的にトラブルシューティング用フロー図500を生成することができる。   FIG. 10 shows an example of a troubleshooting flow chart 500 generated by the flow chart generation apparatus A2. As described above, the flow diagram generation apparatus A2 can directly generate the troubleshooting flow diagram 500 from the trouble case 300b.

以上、本発明に係るFT図生成装置A1およびフロー図生成装置A2の実施形態について説明したが、本発明は上記実施形態に限定されるものではない。   Although the embodiments of the FT diagram generation apparatus A1 and the flow chart generation apparatus A2 according to the present invention have been described above, the present invention is not limited to the above embodiments.

FT図生成装置A1およびフロー図生成装置A2は、それぞれ生成したFT図、フロー図を編集する編集部を備えていてもよい。   The FT diagram generation device A1 and the flow diagram generation device A2 may each include an editing unit that edits the generated FT diagram and flow diagram.

1 形態素解析部
2 単語ベクトル化部
20 学習済み第2ニューラルネットワーク
3 事象抽出部
30 学習済み第3ニューラルネットワーク
4 第1因果関係抽出部
40 学習済み第1ニューラルネットワーク
5 連結部
6 文章ベクトル化部
7 類似度算出部
8 統合部
9 処置抽出部
90 学習済み第5ニューラルネットワーク
10 第2因果関係抽出部
100 学習済み第4ニューラルネットワーク
300 報告書
300b トラブル事例
400 FT図
500 トラブルシューティング用フロー図
C コンピュータ
A1 FT図生成装置
A2 トラブルシューティング用フロー図生成装置
1 Morphological Analysis Section 2 Word Vectorization Section 20 Learned Second Neural Network 3 Event Extraction Section 30 Learned Third Neural Network 4 First Causal Relationship Extraction Section 40 Learned First Neural Network 5 Connecting Section 6 Text Vectorization Section 7 Similarity calculation section 8 Integration section 9 Treatment extraction section 90 Learned fifth neural network 10 Second causal relationship extraction section 100 Learned fourth neural network 300 Report 300b Trouble case 400 FT diagram 500 Troubleshooting flowchart C Computer A1 FT diagram generator A2 Troubleshooting flow diagram generator

Claims (6)

作業機械に関する複数のトラブル事例から前記作業機械に関するFT図を生成するFT図生成装置であって、
前記複数のトラブル事例から事象を抽出する事象抽出部と、
前記トラブル事例が入力されると前記トラブル事例ごとの前記事象同士の第1因果関係を抽出するように第1教師データを用いて機械学習された学習済み第1ニューラルネットワークを有し、前記第1因果関係を抽出する第1因果関係抽出部と、
抽出された前記第1因果関係に対応する前記事象をトップダウン的に連結して事象群を生成する連結部と、
複数の前記事象群間における同様の前記事象同士を統合することにより前記複数の事象群をツリー状に形成する統合部と
前記複数のトラブル事例を単語ごとに分割する形態素解析部と、
単語ごとに分割された前記複数のトラブル事例を学習用データとしてニューラルネットワークを用いて教師なし学習され、単語が入力されると、当該入力された単語の意味に対応する分散表現ベクトルを出力する学習済み第2ニューラルネットワークと、
単語ごとに分割された前記トラブル事例を、前記学習済み第2ニューラルネットワークによって分散表現ベクトル化する単語ベクトル化部と、
前記抽出された事象を、当該事象に含まれている単語ごとの分散表現ベクトルに基づいて、前記事象ごとの分散表現ベクトルに変換する文章ベクトル化部と、
前記文章ベクトル化部によって分散表現ベクトル化された前記事象同士のコサイン類似度に基づいて、前記事象同士の類似度を算出する類似度算出部と、を備え、
前記統合部は、所定以上の類似度が算出された前記事象同士を統合する
ことを特徴とするFT図生成装置。
An FT diagram generation device for generating an FT diagram relating to the working machine from a plurality of trouble cases relating to the working machine,
An event extraction unit that extracts an event from the plurality of trouble cases,
A learned first neural network machine-learned using first teacher data so as to extract a first causal relationship between the events for each of the trouble cases when the trouble case is input; A first causal relationship extraction unit that extracts one causal relationship;
A connecting unit that connects the extracted events corresponding to the first causal relationship in a top-down manner to generate an event group;
An integrating unit that forms the plurality of event groups in a tree shape by integrating the same events among the plurality of event groups ,
A morphological analysis unit that divides the plurality of trouble cases for each word,
Learning in which unsupervised learning is performed by using a neural network with the plurality of trouble cases divided for each word as learning data, and when a word is input, learning that outputs a distributed expression vector corresponding to the meaning of the input word Completed second neural network,
A word vectorization unit that converts the trouble case divided into words into a distributed representation vector by the learned second neural network;
The extracted event, based on the distributed expression vector for each word contained in the event, a sentence vectorization unit that converts the distributed expression vector for each event,
A similarity calculation unit that calculates the similarity between the events based on the cosine similarity between the events that are distributed representation vectorized by the sentence vectorization unit,
The FT diagram generation device is characterized in that the integration unit integrates the events for which a degree of similarity equal to or greater than a predetermined value is calculated .
前記入力された単語の意味に対応する分散表現ベクトルは、前記入力された単語がN−gram分割されて抽出されたサブワードの分散表現ベクトルの和または平均である
ことを特徴とする請求項に記載のFT図生成装置。
Distributed representation vector corresponding to the meaning of the word that was the input to claim 1, wherein the words that are the input is a sum or average of the variance representation vectors subword extracted are N-gram division The described FT diagram generation device.
前記事象抽出部は、前記トラブル事例が入力されると、当該トラブル事例に含まれている前記事象を抽出するように第2教師データを用いて機械学習された学習済み第3ニューラルネットワークを有する
ことを特徴とする請求項1または2に記載のFT図生成装置。
When the trouble case is input, the event extraction unit creates a learned third neural network machine-learned using the second teacher data so as to extract the event included in the trouble case. The FT diagram generation device according to claim 1 or 2 , further comprising:
作業機械に関するトラブルシューティング用フロー図生成装置であって、
前記作業機械に関する複数のトラブル事例から前記作業機械に関するFT図を生成するFT図生成装置を備え、
前記FT図生成装置は、
前記複数のトラブル事例から事象を抽出する事象抽出部と、
前記トラブル事例が入力されると前記トラブル事例ごとの前記事象同士の第1因果関係を抽出するように第1教師データを用いて機械学習された学習済み第1ニューラルネットワークを有し、前記第1因果関係を抽出する第1因果関係抽出部と、
抽出された前記第1因果関係に対応する前記事象をトップダウン的に連結して事象群を生成する連結部と、
複数の前記事象群間における同様の前記事象同士を統合することにより前記複数の事象群をツリー状に形成する統合部と、を有し、
前記フロー図生成装置は、さらに、
前記複数のトラブル事例に含まれている前記事象に対して行われた処置を抽出する処置抽出部と、
前記トラブル事例が入力されると前記トラブル事例ごとの前記処置と当該処置に対応する前記事象との第2因果関係を抽出するように第3教師データを用いて機械学習された学習済み第4ニューラルネットワークを有し、前記第2因果関係を抽出する第2因果関係抽出部と、を備え、
前記連結部は、さらに、前記第2因果関係に基づいて、前記事象群中の前記事象に前記処置をトップダウン的に連結し、
前記統合部は、さらに、複数の前記事象群間における同様の前記処置を統合する
ことを特徴とするフロー図生成装置。
A flow chart generation device for troubleshooting a work machine,
An FT diagram generation device for generating an FT diagram relating to the working machine from a plurality of trouble cases relating to the working machine;
The FT diagram generator is
An event extraction unit that extracts an event from the plurality of trouble cases,
A learned first neural network machine-learned using first teacher data so as to extract a first causal relationship between the events for each of the trouble cases when the trouble case is input; A first causal relationship extraction unit that extracts one causal relationship;
A connecting unit that connects the extracted events corresponding to the first causal relationship in a top-down manner to generate an event group;
An integrating unit that forms the plurality of event groups in a tree shape by integrating the same events among the plurality of event groups,
The flow diagram generation device further includes
A treatment extraction unit that extracts a treatment performed on the event included in the plurality of trouble cases,
When the trouble case is input, the learned fourth machine-learned using the third teacher data so as to extract the second causal relationship between the action for each trouble case and the event corresponding to the action. A second causal relationship extracting unit that has a neural network and extracts the second causal relationship;
The connection unit further connects the treatment to the events in the event group in a top-down manner based on the second causal relationship,
The flow diagram generation apparatus, wherein the integration unit further integrates the same treatments among a plurality of the event groups.
前記処置抽出部は、前記トラブル事例が入力されると、当該トラブル事例に含まれている前記処置を抽出するように第4教師データを用いて機械学習された学習済み第5ニューラルネットワークを有する
ことを特徴とする請求項に記載のフロー図生成装置。
The treatment extraction unit has a learned fifth neural network machine-learned using the fourth teacher data so as to extract the treatment included in the trouble case when the trouble case is input. The flow diagram generation device according to claim 4 .
コンピュータを請求項1〜のいずれか1項に記載の生成装置として機能させるためのプログラム。 Program for functioning as a generator according to the computer in any one of claims 1-5.
JP2019060514A 2019-03-27 2019-03-27 FT diagram generation device, troubleshooting flow diagram generation device and program Active JP6692565B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019060514A JP6692565B1 (en) 2019-03-27 2019-03-27 FT diagram generation device, troubleshooting flow diagram generation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060514A JP6692565B1 (en) 2019-03-27 2019-03-27 FT diagram generation device, troubleshooting flow diagram generation device and program

Publications (2)

Publication Number Publication Date
JP6692565B1 true JP6692565B1 (en) 2020-05-13
JP2020160867A JP2020160867A (en) 2020-10-01

Family

ID=70549737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060514A Active JP6692565B1 (en) 2019-03-27 2019-03-27 FT diagram generation device, troubleshooting flow diagram generation device and program

Country Status (1)

Country Link
JP (1) JP6692565B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102265945B1 (en) * 2020-11-23 2021-06-17 주식회사 엠로 Method and apparatus for classifying item based on machine learning
KR102265946B1 (en) * 2020-11-23 2021-06-17 주식회사 엠로 Method and apparatus for providing information about similar items based on machine learning
JP2022122029A (en) * 2021-02-09 2022-08-22 株式会社東芝 Data processing device, data processing method, and data processing program
JP2024005871A (en) * 2022-06-30 2024-01-17 株式会社日立製作所 Processor system and failure diagnosis method

Also Published As

Publication number Publication date
JP2020160867A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP6692565B1 (en) FT diagram generation device, troubleshooting flow diagram generation device and program
Agrawal et al. Unsupervised emotion detection from text using semantic and syntactic relations
Lin et al. A PDTB-styled end-to-end discourse parser
Barros et al. NATSUM: Narrative abstractive summarization through cross-document timeline generation
JP6667701B1 (en) FT diagram update device, troubleshooting flow diagram update device and program
JP5963328B2 (en) Generating device, generating method, and program
US10452779B2 (en) System for knowledge acquisition
Schmitz et al. Open language learning for information extraction
Chen et al. Improving automated documentation to code traceability by combining retrieval techniques
Salloum et al. ADAM: Analyzer for dialectal Arabic morphology
Gao et al. Mining business contracts for service exceptions
US10540444B2 (en) Text mining a dataset of electronic documents to discover terms of interest
Vo et al. Extracting temporal and causal relations based on event networks
JP2015194831A (en) Fault phenomenon information analysis device and fault phenomenon information analysis method
Wities et al. A consolidated open knowledge representation for multiple texts
Skersys et al. An approach for extracting business vocabularies from business process models
Sharma et al. Extracting high-level functional design from software requirements
JP2009301134A (en) Ft diagram creation program, ft diagram creation apparatus, recording medium, and ft diagram creation method
KR101501124B1 (en) Method of executing semantic models for FMEA documents
Dey et al. A framework to integrate unstructured and structured data for enterprise analytics
Ciemniewska et al. Supporting use-case reviews
Dixit et al. Extracting semantics from maintenance records
JP5242722B2 (en) Representative sentence extraction device and program
Fischbach Why and How to Extract Conditional Statements From Natural Language Requirements
Janssens Natural language processing in requirements elicitation and requirements analysis: a systematic literature review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200410

R150 Certificate of patent or registration of utility model

Ref document number: 6692565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150