JP7247021B2 - Information processing device, prediction discrimination system, and prediction discrimination method - Google Patents

Information processing device, prediction discrimination system, and prediction discrimination method Download PDF

Info

Publication number
JP7247021B2
JP7247021B2 JP2019099053A JP2019099053A JP7247021B2 JP 7247021 B2 JP7247021 B2 JP 7247021B2 JP 2019099053 A JP2019099053 A JP 2019099053A JP 2019099053 A JP2019099053 A JP 2019099053A JP 7247021 B2 JP7247021 B2 JP 7247021B2
Authority
JP
Japan
Prior art keywords
unit
model
causal
evaluation
causal model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019099053A
Other languages
Japanese (ja)
Other versions
JP2020194320A (en
Inventor
修一 西納
真彰 前田
祐市 桜井
徹 矢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019099053A priority Critical patent/JP7247021B2/en
Priority to CN202010283149.0A priority patent/CN112016689B/en
Publication of JP2020194320A publication Critical patent/JP2020194320A/en
Application granted granted Critical
Publication of JP7247021B2 publication Critical patent/JP7247021B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • Operations Research (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、因果モデルの構築およびその応用技術に関する。 The present invention relates to construction of a causal model and its application technology.

製造現場においては、生産効率向上のために、製造装置の故障を予測して事前にメンテナンスを行うことや、不良品の発生原因を早期に判別して対策を打つことが必要とされる。 In order to improve production efficiency at manufacturing sites, it is necessary to predict failures of manufacturing equipment and carry out maintenance in advance, and to determine the cause of defective products at an early stage and take countermeasures.

こうした予測・判別のためのモデルは、回帰分析や判別分析などの統計的手法、ニューラルネットワークなどの機械学習の手法を用いて構築することが可能である。これらの手法では、入力変数として、製造装置やラインの設定パラメータ、センシングデータなどを受け取り、目的変数である判別結果・予測結果を出力するが、その判断根拠を明確化すべく、入力変数・目的変数間の関係性を表した因果モデルを構築し、これを活用して予測・判別を行うことが考えられている。 Such prediction/discrimination models can be constructed using statistical methods such as regression analysis and discriminant analysis, and machine learning methods such as neural networks. In these methods, setting parameters of manufacturing equipment and lines, sensing data, etc. are received as input variables, and discrimination results and prediction results, which are objective variables, are output. It is considered to build a causal model that expresses the interrelationship and use it to perform prediction and discrimination.

因果モデルの自動推定にはSGS(Spirts, Glymour and Scheines)アルゴリズムやパス解析などの手法が一般に知られており、データへの適合度が最大となるように因果モデルを自動推定することが可能である。ただし、データ数が少ない場合などは誤った因果モデルを推定することがある。そこで、製造現場に適用する際には、予め製造現場もしくはその構成要素に詳しい人(以降、ドメイン知識保有者)の判断をもとにモデルを修正する必要がある。こうしたモデルの自動推定とその結果に対する編集の機構は特許文献1などでも示されている。 Techniques such as the SGS (Spirts, Glymour and Scheines) algorithm and path analysis are generally known for automatic estimation of a causal model, and it is possible to automatically estimate a causal model that maximizes the degree of fit to the data. be. However, when the number of data is small, an incorrect causal model may be estimated. Therefore, when applying it to a manufacturing site, it is necessary to modify the model in advance based on the judgment of a person who is familiar with the manufacturing site or its components (hereinafter referred to as domain knowledge holder). A mechanism for automatic model estimation and editing of the results is also disclosed in Patent Document 1 and the like.

特開2008-217711号公報Japanese Patent Application Laid-Open No. 2008-217711

しかしながら因果モデルの推定において、グラフ構造の推定そのものではなく、予測や判別といった応用を重視するとき、グラフ全体のデータへの適合度を指標として因果モデルを選択することは最良ではない。これはモデル全体のデータへの適合度が、必ずしも特定の目的変数について予測や判別の性能(以下、応用性指標)とは対応しないためである。応用性を高めるには、例えば、モデルにおいて目的変数と相関のない変数集合に関する部分グラフよりも目的変数に相関のある変数集合の部分グラフを重視する必要がある。 However, in causal model estimation, when emphasis is placed on applications such as prediction and discrimination rather than graph structure estimation itself, it is not the best to select a causal model based on the degree of fit of the entire graph to the data. This is because the goodness of fit of the entire model to data does not necessarily correspond to the performance of prediction or discrimination (hereinafter referred to as applicability index) for a specific objective variable. In order to improve applicability, for example, it is necessary to emphasize subgraphs of variable sets that are correlated with the objective variable rather than subgraphs of variable sets that are uncorrelated with the objective variable in the model.

そこで本発明では、応用性の高い因果モデルの推定が可能な技術を提供することを目的とする。 Accordingly, an object of the present invention is to provide a technology capable of estimating a highly applicable causal model.

本発明の一態様にかかる情報処理装置は、判別対象から得られた説明変数および目的変数を含む計測データを入力して、前記説明変数と前記目的変数との間の関係性を示す一または複数の因果モデルを推定する因果モデル推定部と、前記目的変数についての予測または判別の性能を示す指標を用いて前記一または複数の因果モデルを評価し、当該評価の結果が所定の条件を満たす因果モデルを出力する評価部と、前記評価部が出力した因果モデルと前記評価の結果とを表示部に出力する編集部と、を備えることを特徴とする情報処理装置として構成される。 An information processing apparatus according to an aspect of the present invention inputs measurement data including an explanatory variable and an objective variable obtained from a determination target, and indicates one or more relationships between the explanatory variable and the objective variable. and a causal model estimator for estimating the causal model, and the one or more causal models are evaluated using an index indicating prediction or discrimination performance for the objective variable, and the result of the evaluation satisfies a predetermined condition. An information processing apparatus comprising: an evaluation unit that outputs a model; and an editing unit that outputs the causal model output by the evaluation unit and the result of the evaluation to a display unit.

本発明の一態様によれば、応用性の高い因果モデルが推定可能となる。 According to one aspect of the present invention, a highly applicable causal model can be estimated.

実施例1における予測判別装置の概略構成図Schematic configuration diagram of prediction discrimination device in embodiment 1 実施例1における予測判別装置の処理フローProcessing Flow of Prediction Discrimination Apparatus in Embodiment 1 実施例1におけるデータ形式Data format in Example 1 実施例1における因果モデルの仮説のセットA set of hypotheses for the causal model in Example 1 実施例1におけるモデル評価部102の概略構成図Schematic configuration diagram of the model evaluation unit 102 in the first embodiment 実施例1における推定パラメータの例Example of estimated parameters in Example 1 実施例1におけるユーザ表示編集部103の例Example of user display editing unit 103 in embodiment 1 実施例2における概略構成図Schematic diagram of embodiment 2 実施例2における概略構成図Schematic diagram of embodiment 2 実施例3におけるデータ形式Data format in Example 3

以下、図面を参照して本発明の実施形態を説明する。以下の記載および図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施する事が可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。 Embodiments of the present invention will be described below with reference to the drawings. The following description and drawings are examples for explaining the present invention, and are appropriately omitted and simplified for clarity of explanation. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.

図面において示す各構成要素の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each component shown in the drawings may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. As such, the present invention is not necessarily limited to the locations, sizes, shapes, extents, etc., disclosed in the drawings.

以下の説明では、「テーブル」、「リスト」等の表現にて各種情報を説明することがあるが、各種情報は、これら以外のデータ構造で表現されていてもよい。データ構造に依存しないことを示すために「XXテーブル」、「XXリスト」等を「XX情報」と呼ぶことがある。識別情報について説明する際に、「識別情報」、「識別子」、「名」、「ID」、「番号」等の表現を用いるが、これらについてはお互いに置換が可能である。 In the following description, various types of information may be described using expressions such as “table” and “list”, but various types of information may be expressed in data structures other than these. "XX table", "XX list", etc. are sometimes referred to as "XX information" to indicate that they do not depend on the data structure. When describing identification information, expressions such as “identification information”, “identifier”, “name”, “ID”, and “number” are used, but these can be replaced with each other.

同一あるいは同様な機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of components having the same or similar functions, they may be described with the same reference numerals and different suffixes. However, if there is no need to distinguish between these multiple constituent elements, the subscripts may be omitted in the description.

また、以下の説明では、プログラムを実行して行う処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU、GPU)によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)および/またはインターフェースデバイス(例えば通信ポート)等を用いながら行うため、処理の主体がプロセッサとされてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、計算機、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であれば良く、特定の処理を行う専用回路(例えばFPGAやASIC)を含んでいてもよい。 Also, in the following description, there are cases where processing performed by executing a program is described, but the program is executed by a processor (for example, CPU, GPU) to appropriately perform the specified processing using storage resources ( For example, a memory) and/or an interface device (for example, a communication port) or the like is used, so processing may be performed by a processor. Similarly, a main body of processing executed by executing a program may be a controller having a processor, a device, a system, a computer, or a node. The subject of the processing performed by executing the program may be an arithmetic unit, and may include a dedicated circuit (for example, FPGA or ASIC) that performs specific processing.

プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。 A program may be installed on a device, such as a computer, from a program source. The program source may be, for example, a program distribution server or a computer-readable storage medium. When the program source is a program distribution server, the program distribution server may include a processor and storage resources for storing the distribution target program, and the processor of the program distribution server may distribute the distribution target program to other computers. Also, in the following description, two or more programs may be implemented as one program, and one program may be implemented as two or more programs.

ここでは、製造現場で用いられる機器、装置、工具の一例である切削加工機の磨耗が検知された環境にある場合を例に挙げるが、これに限らず、様々な対象物を検知対象、判別対象として適用することができる。また、以下では、図3に示すように、切削加工機が被削材を加工する都度、予測判別装置100は、当該切削加工機から繰り返し送信された5変数((1)製造ID、(2)材質、(3)振動、(4)加工種別、(5)加工異常の有無)を含む計測データを受信し、当該計測データをデータ蓄積部111に記憶しているものとする。図3では、予測判別装置100は、製造IDが「ID-09」、「ID-05」等の様々な数や種類の切削加工機から計測データを受信し、蓄積していることを示している。また、例えば、「ID-09」から受信した計測データは、「鋼」を材質とする被削材を加工し、その時の振動が「小」(所定の閾値未満)、加工種別が「Type-A」(金属切削)であり、加工異常がなかったことを示している。さらに、予測判別装置100は、上記計測データから、上記(1)~(4)を計測して、(5)加工異常の有無を判別するモデルを作成したいとする。このとき(1)~(4)が説明変数であり、(5)が目的変数である。 Here, the case where wear is detected in a cutting machine, which is an example of equipment, devices, and tools used in manufacturing sites, is taken as an example, but not limited to this, various objects can be detected and discriminated. It can be applied as a target. Further, hereinafter, as shown in FIG. 3, each time the cutting machine processes a work material, the prediction discriminating device 100 repeats five variables ((1) production ID, (2 ) material, (3) vibration, (4) processing type, and (5) presence or absence of processing abnormality) are received and stored in the data storage unit 111 . FIG. 3 shows that the predictive discriminator 100 receives and accumulates measurement data from various types and numbers of cutting machines with production IDs such as "ID-09" and "ID-05". there is Also, for example, the measurement data received from "ID-09" is for machining a work material made of "steel", the vibration at that time is "small" (less than a predetermined threshold), and the machining type is "Type- A” (metal cutting), indicating that there was no processing abnormality. Further, the predictive discriminating device 100 wants to create a model for discriminating (5) the presence or absence of machining abnormality by measuring the above (1) to (4) from the above measurement data. At this time, (1) to (4) are the explanatory variables, and (5) is the objective variable.

図1に示すように、予測判別装置100は、データ蓄積部111と、因果モデル推定部101と、モデル評価部102と、ユーザ表示編集部103とを有して構成される。 As shown in FIG. 1, the prediction discrimination device 100 includes a data storage unit 111, a causal model estimation unit 101, a model evaluation unit 102, and a user display editing unit 103.

データ蓄積部111は、ハードウェアとしては、例えば、HDD(hard Disk Drive)やSSD(Solid State Drive)等の一般的な記憶装置から構成され、上記計測データを記憶する。 The data storage unit 111 is configured by, for example, general storage devices such as HDD (hard disk drive) and SSD (Solid State Drive) as hardware, and stores the measurement data.

因果モデル推定部101は、データ蓄積部111から計測データを読み出し、1または複数の因果モデルを推定する。モデル評価部102は、因果モデル推定部101が生成した因果モデルの中から、目的変数についての予測や判別についての性能を示す応用性指標が所定の基準値以上である高指標の因果モデルをユーザに提示する候補として評価する。 The causal model estimation unit 101 reads the measurement data from the data storage unit 111 and estimates one or more causal models. The model evaluation unit 102 selects, from among the causal models generated by the causal model estimating unit 101, a high-index causal model whose applicability index indicating performance in prediction and discrimination of the objective variable is equal to or higher than a predetermined reference value. Evaluate as a candidate to be presented to

ユーザ表示編集部103は、因果モデル推定部101が推定した因果モデルの構造と、モデル評価部102が応用性指標を用いて性能を評価した結果を、LCD(Liquid Crystal Display)等のハードウェアとしては一般的な表示装置である表示部112に出力し、ユーザに提示する。因果モデル推定部101、モデル評価部102、ユーザ表示編集部103が行う具体的な処理については後述する。 The user display editing unit 103 converts the structure of the causal model estimated by the causal model estimating unit 101 and the results of performance evaluation using the applicability index by the model evaluating unit 102 into hardware such as an LCD (Liquid Crystal Display). is output to the display unit 112, which is a general display device, and presented to the user. Specific processing performed by the causal model estimation unit 101, the model evaluation unit 102, and the user display editing unit 103 will be described later.

予測判別装置100は、ハードウェアとしては、例えば、PC(Personal Computer)やサーバ等の一般的な情報処理装置により構成される。また、因果モデル推定部101、モデル評価部102、ユーザ表示編集部103は、プログラムの実行により実現される。例えば、予測判別装置100のCPU(Central Processing Unit)が、ROM(Read Only Memory)からプログラムを読み出して実行することにより、因果モデル推定部101、モデル評価部102、ユーザ表示編集部103の機能が実現される。上記プログラムは、USB(Universal Serial Bus)メモリ等の記憶媒体から読み出されたり、ネットワークを介した他のコンピュータからダウンロードする等して、予測判別装置100に提供されてもよい。なお、本実施例では、表示部112は、予測判別装置100ではない外部に設けられている場合を例示しているが、予測判別装置100が表示部112を有していてもよい。 As hardware, the predictive discriminator 100 is configured by, for example, a general information processing device such as a PC (Personal Computer) or a server. Further, the causal model estimation unit 101, the model evaluation unit 102, and the user display editing unit 103 are implemented by executing programs. For example, the CPU (Central Processing Unit) of the prediction discrimination device 100 reads out and executes a program from a ROM (Read Only Memory), so that the functions of the causal model estimation unit 101, the model evaluation unit 102, and the user display editing unit 103 are Realized. The program may be read from a storage medium such as a USB (Universal Serial Bus) memory, downloaded from another computer via a network, or otherwise provided to the predictive discriminator 100 . In this embodiment, the display unit 112 is provided outside the predictive discriminator 100, but the predictive discriminator 100 may have the display unit 112. FIG.

続いて、本実施例における処理を、図2のフローチャートに沿って説明する。 Next, processing in this embodiment will be described along the flowchart of FIG.

step201:
因果モデル推定部101は、データ蓄積部111から計測データを読み出して取得する。
step201:
The causal model estimation unit 101 reads and acquires the measurement data from the data accumulation unit 111 .

step202:
因果モデル推定部101は、データ蓄積部111から読み出した計測データを入力データとして、因果モデルを推定する。この際、一または複数のモデルを仮説として生成する。因果モデルは変数間の関係性を明示したモデルであり、変数に対応するノードを用意して関係のあるものをリンクで結んだグラフ構造として可視化されるものと定義することができる。具体的にはベイジアンネットワークやマルコフネットワークなどを用いることができる。また、因果モデルの推定手法としては例えばSGS(Spirtes, Glymour and Scheines)アルゴリズムを用いることができる。例えばSGSであれば、特定ノード間における独立性検定の閾値を操作して異なる因果モデルを得ることが出来る。またMDL(Minimum Description Length)等の指標を最大化するモデルを得たうえで、リンクの有無をランダムに変更することで、複数の仮説を生成しても良い。この結果、例えば、図4に示すような因果モデルのセットが推定される。図4では、一例として、(a)~(d)の4つの因果モデルが推定されたことを示している。
step202:
The causal model estimation unit 101 estimates a causal model using measurement data read from the data storage unit 111 as input data. At this time, one or more models are generated as hypotheses. A causal model is a model that clearly shows the relationships between variables, and can be defined as a graph structure in which nodes corresponding to variables are prepared and related items are linked by links. Specifically, a Bayesian network, a Markov network, or the like can be used. Also, as a causal model estimation method, for example, the SGS (Spirtes, Glymour and Scheines) algorithm can be used. For example, SGS allows different causal models to be obtained by manipulating the threshold of independence test between specific nodes. Also, after obtaining a model that maximizes an index such as MDL (Minimum Description Length), multiple hypotheses may be generated by randomly changing the presence or absence of links. As a result, for example, a set of causal models as shown in FIG. 4 is estimated. In FIG. 4, as an example, four causal models (a) to (d) are estimated.

step203:
モデル評価部102は、step1で生成された一または複数の因果モデルを、応用性指標を用いて評価し、ユーザに提示する候補とする。
step203:
The model evaluation unit 102 evaluates one or a plurality of causal models generated in step 1 using the applicability index, and sets them as candidates to be presented to the user.

モデル評価部102の構成を図5に示す。図5に示すように、モデル評価部102は、データ分割部201と、学習部202と、テスト部203と、統合評価部204とを有して構成される。 The configuration of the model evaluation unit 102 is shown in FIG. As shown in FIG. 5, the model evaluation unit 102 includes a data division unit 201, a learning unit 202, a test unit 203, and an integrated evaluation unit 204.

データ蓄積部111から与えられた入力データをそのまま評価用のデータとして入力した場合、因果モデルの推定に用いたデータと評価に用いるデータが重複し、かつ一度の評価しか行えないため、頑健な評価ができない。そこで、データ分割部201は、入力データを学習データとテストデータに分割し、学習部202では学習データを用いて学習を行い、テスト部203ではテストデータを用いたテストを行う。これをデータの分割の方法を変えながら繰り返し、統合評価部204は、学習データおよびテストデータのそれぞれについて評価を行い、これらのデータを統合した全体の評価を行う。この構成によって、頑健な評価が可能となる。 If the input data given from the data accumulation unit 111 is input as it is as data for evaluation, the data used for estimating the causal model overlaps with the data used for evaluation, and only one evaluation can be performed, so robust evaluation can't Therefore, the data dividing unit 201 divides the input data into learning data and test data, the learning unit 202 performs learning using the learning data, and the testing unit 203 performs testing using the test data. This is repeated while changing the method of dividing the data, and the integrated evaluation unit 204 evaluates each of the learning data and the test data, and performs an overall evaluation integrating these data. This configuration enables robust evaluation.

ここで学習部202では、モデルの構造は保存したままで、分割の方法を変えたデータを因果モデルに入力し、そのパラメータを推定しなおす。例えば、学習部202は、図6に示すようなパラメータを計算できる。ここでは、一例として、因果モデルはベイジアンネットワークで表現され、パラメータは確率として求まるものとしている。また、図6では、一例として、図4(a)に示した因果モデルについてのパラメータを推定する場合を示している。図6では、製造ID、材質、加工種別、振動、加工異常をそれぞれA、B、C、D、Eとして、推定されたパラメータである確率P(A)、P(B|A)、P(C|A)、P(D|B)、P(E|B,C)の分布を表で示している。パラメータの推定には、一般的に、最尤推定やEAP(Expected A Posteriori)推定を用いることができる。最尤推定によってパラメータP(A)を推定する場合であれば、データにおいて出現するA(製造ID)のそれぞれの出現回数を求めて、その総和で割ることで求められる。例えばID-05が15回、ID-09が15回それぞれ出現する場合、総和は30であり、それぞれの確率P(A)は15/30=0.5となる。学習部202は、このような推定を、step1で生成されたすべての因果モデルについて実行する。 Here, in the learning unit 202, while the structure of the model is preserved, the data obtained by changing the division method is input to the causal model, and the parameters are re-estimated. For example, the learner 202 can calculate parameters as shown in FIG. Here, as an example, the causal model is represented by a Bayesian network, and parameters are obtained as probabilities. In addition, FIG. 6 shows, as an example, the case of estimating parameters for the causal model shown in FIG. 4(a). In FIG. 6, the estimated parameter probabilities P(A), P(B|A), P( C|A), P(D|B), and P(E|B,C) distributions are tabulated. Maximum likelihood estimation and EAP (Expected A Posteriori) estimation can generally be used for parameter estimation. In the case of estimating the parameter P(A) by maximum likelihood estimation, it is obtained by obtaining the number of appearances of each A (manufacturing ID) appearing in the data and dividing by the total sum. For example, if ID-05 appears 15 times and ID-09 appears 15 times, the sum is 30 and the probability P(A) of each is 15/30=0.5. The learning unit 202 executes such estimation for all causal models generated in step1.

さらに、テスト部203では、学習部202で推定されたパラメータを用いて、テストデータの入力変数(この場合は加工異常を除いた4変数)から目的変数(この場合は加工異常)を予測するテストを実施する。推定されたパラメータを用いて、目的変数の予測を行う手法としては、グラフ構造が大きい場合でも効率的な推定が可能であるジョインツリー・アルゴリズムなどが知られている。 Furthermore, in the test unit 203, using the parameters estimated by the learning unit 202, a test for predicting the target variable (in this case, machining abnormality) from the test data input variables (in this case, four variables excluding machining abnormality) to implement. As a technique for predicting an objective variable using estimated parameters, a join tree algorithm or the like is known, which enables efficient estimation even when the graph structure is large.

統合評価部204では、例えば応用性指標として判別精度指標の一つであるAccuracyやf-measureを用いて、因果モデルの評価を行うことができる。上記のデータ分割部201→学習部202→テスト部203→統合評価部204で行う処理の流れを、step202で生成された各モデルに対して実施する。最後に、統合評価部204は、応用性指標が最も高く、最良となる因果モデルを選択する。本実施例では、統合評価部204は、応用性指標が最良となる因果モデルを選択しているが、応用性指標が所定の条件として基準値を満たす高指標の一または複数の因果モデルを選択してもよい。これにより、一定の水準を満たす因果モデルを候補として選択することができる。当該基準値は、計測データの種類や要求される評価精度に応じて定めればよい。 The integrated evaluation unit 204 can evaluate the causal model using Accuracy and f-measure, which are one of the discrimination accuracy indexes, as applicability indexes, for example. The above process flow of data division unit 201→learning unit 202→testing unit 203→integration evaluation unit 204 is executed for each model generated in step 202. FIG. Finally, integrated evaluation unit 204 selects the best causal model with the highest applicability index. In this embodiment, the integrated evaluation unit 204 selects the causal model with the best applicability index, but selects one or more causal models with high applicability indices that satisfy a reference value as a predetermined condition. You may As a result, a causal model that satisfies a certain level can be selected as a candidate. The reference value may be determined according to the type of measurement data and required evaluation accuracy.

Step204:
ユーザ表示編集部103は、統合評価部204が選択した因果モデルの構造と応用性指標による性能評価を提示する。例えば図7に示すように、ユーザ表示編集部103は、因果モデル701と評価結果702を表示部112に表示する。図7では、ユーザ表示編集部103が、図4(a)に示した因果モデルのモデル名と応用性指標の値(精度:60%)を表示部112に表示していることを示している。
Step 204:
The user display editing unit 103 presents the structure of the causal model selected by the integrated evaluation unit 204 and the performance evaluation based on the applicability index. For example, as shown in FIG. 7, the user display editing unit 103 displays a causal model 701 and an evaluation result 702 on the display unit 112. FIG. FIG. 7 shows that the user display editing unit 103 displays the model name and applicability index value (accuracy: 60%) of the causal model shown in FIG. 4(a) on the display unit 112. .

Step205:
ここで、ドメイン知識保有者であるユーザが、表示された因果モデルの構造をチェックして、編集の必要がないと判断し、編集を終了する場合、予測判別装置100は、表示部112あるいはキーボードやマウス等の予測判別装置100に接続された他の入力装置を介して、編集終了ボタン711の押下を受け付ける。ユーザ表示編集部103は、編集終了ボタン711の押下が受け付けられたか否かを判定し、編集終了ボタン711の押下が受け付けられたと判定した場合(Step205;Yes)、処理を終了させる。一方、ユーザ表示編集部103は、編集終了ボタン711の押下が受け付けられていないと判定した場合(Step205;No)、S206に進む。
Step 205:
Here, when the user who is the domain knowledge owner checks the structure of the displayed causal model and determines that there is no need to edit it, and ends the editing, the predictive discriminator 100 displays the display unit 112 or the keyboard Pressing of the edit end button 711 is accepted via another input device connected to the predictive discrimination device 100, such as a mouse. The user display editing unit 103 determines whether or not the press of the edit end button 711 has been accepted, and if it determines that the press of the edit end button 711 has been accepted (Step 205; Yes), ends the process. On the other hand, when the user display editing unit 103 determines that pressing of the edit end button 711 has not been accepted (Step 205; No), the process proceeds to S206.

Step206:
ユーザ表示編集部103は、編集終了ボタン711の押下が受け付けられていないと判定した場合(Step205;No)、編集の必要がある可能性があると判断し、そのまま待機する。ユーザ表示編集部103は、予測判別装置100が、ユーザから編集が必要であることを示す操作(例えば、リンクの削除ボタン712やリンクの追加ボタン713の押下)を受け付けたと判定した場合、表示されている因果モデル701のリンクを繋ぎ変えて構造を変更することができる。例えば、表示部112に表示された図4(a)に示す因果モデル701が、上記操作により、図4(b)のように編集される。
Step 206:
When the user display editing unit 103 determines that the pressing of the edit end button 711 has not been accepted (Step 205; No), it determines that there is a possibility that editing is necessary, and stands by as it is. When the user display editing unit 103 determines that the prediction discrimination device 100 has received an operation indicating that editing is necessary from the user (for example, pressing the link deletion button 712 or the link addition button 713), It is possible to change the structure by reconnecting the links of the causal model 701 that are present. For example, the causal model 701 shown in FIG. 4(a) displayed on the display unit 112 is edited as shown in FIG. 4(b) by the above operation.

ここで、ユーザへの表示や編集は、必ずしも図7に示したように行う必要はなく、テキストベースでの編集も考えられる。例えば、ユーザ表示編集部103が、「加工種別が材質に影響を与えると考えますか?」というような2択質問文を生成して表示部112に出力し、否定を意味する「いいえ」が入力されたと判定した場合に、上記のように因果モデルを変更する方法が考えられる。 Here, display and editing for the user need not always be performed as shown in FIG. 7, and text-based editing is also conceivable. For example, the user display editing unit 103 generates a two-choice question such as "Do you think that the type of processing affects the material?" A possible method is to change the causal model as described above when it is determined that an input has been made.

その後、Step202に戻って、予測判別装置100は、以降の処理を繰り返し実行する。編集された後のStep202では、因果モデル推定部101は、ユーザにより編集された因果モデルをもとに新たにモデルの仮説を作成し、編集前のStep202で生成された仮説へと追加する。例えば、因果モデル推定部101は、ユーザによる変更を遵守して、他の変数間リンクの有無をランダムに変更するなどといった生成方法が考えられる。単に、因果モデル推定部101が、ユーザによる編集結果を、これまでの仮説のセットへと追加するだけでも良い。 After that, returning to Step 202, the predictive discriminator 100 repeats the subsequent processes. In Step 202 after editing, the causal model estimating unit 101 creates a new model hypothesis based on the causal model edited by the user, and adds it to the hypothesis generated in Step 202 before editing. For example, the causal model estimating unit 101 can consider a generation method such as randomly changing the presence/absence of links between other variables while complying with changes made by the user. The causal model estimating unit 101 may simply add the result of editing by the user to the previous set of hypotheses.

編集された後のStep203では、編集された後のStep202で作成されたモデルの仮説のセットについて、モデル評価部102が評価を実施する。ここで、モデル評価部102は、既に評価したモデルを記憶しておき、以前に評価していないモデルについてのみ評価を行うことで、評価にかかる手間を削減しても良い。 In Step 203 after editing, the model evaluation unit 102 evaluates the model hypothesis set created in Step 202 after editing. Here, the model evaluation unit 102 may store already evaluated models and evaluate only models that have not been evaluated before, thereby reducing the time and effort required for evaluation.

編集された後のStep204では、ユーザ表示編集部112は、編集された後のStep203での評価結果をもとに、ユーザの編集による応用性指標の変化をユーザへと提示する。例えば、ユーザ表示編集部112は、図7の編集履歴705のように、これまでの編集過程で作成・評価されたモデルの精度の推移を一覧表示する。図7では、ユーザ表示編集部112は、編集履歴705として、表示中の因果モデルを含めて過去5回の応用性指標による因果モデルの指標の変化を時系列に表示していることを示している。また、表示中の5回目の因果モデル701についての評価が、前回(4回目)の評価よりも低いため、ユーザが、編集履歴705のグラフにおいて4回目の評価値7051を選択すると、ユーザ表示編集部112は、当該回目における情報を表示するポップアップ画面706を表示する。ポップアップ画面706には、当該回目における因果モデル7061および評価結果7062が表示され、当該回目に戻る場合は、ボタン714を押下する。この場合、ユーザ表示編集部112は、当該回目の因果モデルおよび評価結果を、現在表示している因果モデルおよび評価結果から切り替えてメイン画面に表示する。過去のデータは、図2に示した処理を行う都度、データ蓄積部1011に記憶され、ユーザ表示編集部112が、図7を表示するタイミングで、その時点で記憶されている因果モデルおよび評価結果を履歴として表示すればよい。 At Step 204 after the editing, the user display editing unit 112 presents to the user changes in the applicability index due to the user's editing, based on the evaluation result at Step 203 after the editing. For example, the user display editing unit 112 displays a list of changes in accuracy of models created and evaluated in the past editing process, like an editing history 705 in FIG. FIG. 7 shows that the user display editing unit 112 displays, as an editing history 705, changes in the index of the causal model based on the applicability index of the past five times including the causal model being displayed in chronological order. there is In addition, since the evaluation for the fifth causal model 701 being displayed is lower than the previous (fourth) evaluation, when the user selects the fourth evaluation value 7051 in the graph of the editing history 705, the user display editing The unit 112 displays a pop-up screen 706 that displays the information for that round. A causal model 7061 and an evaluation result 7062 for the current round are displayed on the pop-up screen 706, and a button 714 is pressed to return to the current round. In this case, the user display editing unit 112 switches the currently displayed causal model and evaluation result from the currently displayed causal model and evaluation result to display them on the main screen. The past data is stored in the data storage unit 1011 each time the processing shown in FIG. should be displayed as a history.

このように、ユーザ表示編集部112は、現在表示されている因果モデル701に対して編集を行うだけでなく、過去のモデルに遡って編集をやり直すこともできる。 In this way, the user display editing unit 112 can not only edit the currently displayed causal model 701, but also go back to past models and re-edit them.

編集された後のStep205では、ユーザはこれまでの情報をもとに、自分の編集の正否を検討し、満足であれば編集を終了する。ユーザ表示編集部103は、上記Step205と同様、ユーザから、編集終了ボタン711の押下が受け付けられたと判定した場合(Step205;Yes)、処理を終了させる。一方、ユーザ表示編集部103は、編集終了ボタン711の押下が受け付けられていないと判定した場合(Step205;No)、S206に進む。 At Step 205 after the editing, the user examines the correctness of his own editing based on the information so far, and ends the editing if he is satisfied. If the user display editing unit 103 determines that the user presses the edit end button 711 (Step 205; Yes), the process ends, as in Step 205 above. On the other hand, when the user display editing unit 103 determines that pressing of the edit end button 711 has not been accepted (Step 205; No), the process proceeds to S206.

このように、所望の因果モデルが得られなかった場合でも、ドメイン知識保有者は、因果モデルの編集を容易に行うことができる。さらに、ドメイン知識保有者がどのように因果モデルを変更すべきか判断できない場合でも、過去の編集履歴を参照することにより、応用性の高い因果モデルへの編集が可能となり、より応用性の高いモデルを作成することができる。 Thus, even if a desired causal model cannot be obtained, the domain knowledge holder can easily edit the causal model. Furthermore, even if domain knowledge holders cannot decide how to change the causal model, by referring to the past editing history, it is possible to edit to a highly applicable causal model, making the model more applicable. can be created.

実施例2として、実施例1で作成したモデルをさらに、製造現場に適用可能とした例を図8、9に示す。実施例2における予測判別装置800は、モデル活用部104を有している点で、実施例1における予測判別装置100とは異なっている。また、予測判別装置800には、モデル活用部104から得られたデータを出力するための結果出力部113が接続され、計測データの出力元となる装置群114(装置114a、装置114b、装置114c)に接続されている。 As Example 2, FIGS. 8 and 9 show an example in which the model created in Example 1 is further applicable to a manufacturing site. The predictive discriminator 800 in the second embodiment differs from the predictive discriminator 100 in the first embodiment in that it has a model utilization unit 104 . In addition, the prediction discrimination device 800 is connected to a result output unit 113 for outputting the data obtained from the model utilization unit 104, and the device group 114 (device 114a, device 114b, device 114c) serving as an output source of the measurement data. )It is connected to the.

図8では、モデル活用部104が予測判別装置800に含まれる構成を示したが、例えば、図9に示すように、予測判別装置800(第2の装置)とは別の他の装置として構成してもよい。図9では、モデル活用部104がモデル活用装置902(第3の装置)に含まれるように構成されている。さらに、データ蓄積部111がモデル活用装置901(第1の装置)に含まれるように構成され、結果出力部113についても結果出力装置903(出力装置)に含まれるように構成されている。これらは、必要に応じて一または複数を予測判別装置800に含めることができる。図9のような構成とすることにより、モデルの評価と活用とを安定した環境で両立して実行することができる。例えば、モデル評価部102の処理とモデル活用部104の処理とが異なる装置で実行されるため、各装置における処理負荷を軽減することができ、より低スペックの装置でこれらの機能を実現することができる。また、表示部112と結果出力部113とが異なる別の装置として構成されるので、モデルの評価結果を編集するユーザとモデルを活用するユーザとがネットワークを介した異なる環境にある場合であっても本システムを適用することができる。 FIG. 8 shows a configuration in which the model utilization unit 104 is included in the prediction discrimination device 800, but for example, as shown in FIG. You may In FIG. 9, the model utilization unit 104 is configured to be included in a model utilization device 902 (third device). Furthermore, the data storage unit 111 is configured to be included in the model utilization device 901 (first device), and the result output unit 113 is also configured to be included in the result output device 903 (output device). One or more of these can be included in the predictive discriminator 800 as needed. With the configuration shown in FIG. 9, model evaluation and utilization can be performed in a stable environment. For example, since the processing of the model evaluation unit 102 and the processing of the model utilization unit 104 are executed by different devices, the processing load on each device can be reduced, and these functions can be realized by devices with lower specifications. can be done. Moreover, since the display unit 112 and the result output unit 113 are configured as separate devices, even if the user who edits the evaluation result of the model and the user who utilizes the model are in different environments via a network, can also apply this system.

以下では、実施例1のStep205の編集終了後に、ユーザ表示編集部112が、因果モデルをモデル活用部104に出力して活用される例を示している。 Below, an example is shown in which the user display editing unit 112 outputs the causal model to the model utilization unit 104 and utilizes it after finishing the editing in Step 205 of the first embodiment.

モデル活用部104では、装置群114から計測データを取得し、モデル評価部102から、統合評価部204が選択した応用性指標が所定の条件として基準値を満たす高指標の因果モデル(例えば、応用性指標が最良となる因果モデル)と、当該因果モデルの入力となった計測データに含まれる製造IDとを取得する。モデル活用部104は、装置群114から受け取った計測データの中から、上記製造IDと同じ製造IDのデータを抽出し、上記基準値を満たす因果モデル(例えば、最良となる因果モデル)とともに、結果出力部113に出力する。 The model utilization unit 104 acquires measurement data from the device group 114, and the applicability index selected by the integrated evaluation unit 204 from the model evaluation unit 102 satisfies a reference value as a predetermined condition. causal model with the best quality index) and the manufacturing ID included in the measurement data that is the input for the causal model. The model utilization unit 104 extracts data with the same manufacturing ID as the manufacturing ID from the measurement data received from the device group 114, and generates a causal model satisfying the reference value (for example, the best causal model) and a result Output to the output unit 113 .

結果出力部113では、モデル活用部104から受け取った因果モデルと製造IDとを含む結果を記憶装置に記憶したり、表示装置や音声出力装置等の出力装置にこれらの情報を提示する。これにより、評価が最も高い因果モデルを活用する因果モデルとして決定し、その因果モデルに入力して評価したときの計測データの内容を把握することができる。また、実施例1では、加工異常が判別された場合は、アラームをあげるなどの措置が考えられるが、本実施例では、結果出力部113が出力する製品IDにより、アラームがあがった製品を把握することができる。 The result output unit 113 stores the result including the causal model and the manufacturing ID received from the model utilization unit 104 in a storage device, and presents this information to an output device such as a display device or an audio output device. Thereby, it is possible to determine the causal model with the highest evaluation as the causal model to be utilized, and grasp the contents of the measurement data when inputting and evaluating the causal model. Also, in the first embodiment, when a processing abnormality is determined, measures such as raising an alarm can be considered, but in the present embodiment, the product for which the alarm is raised is grasped from the product ID output by the result output unit 113. can do.

さらに、因果モデルを活用している間についても、データ蓄積部111は装置群114から取得した計測データを蓄積しており、新たに蓄積した計測データを含めて因果モデル推定部101に入力し、モデルの再学習を行う。これにより、因果モデル推定部101は、随時蓄積される最新の計測データを用いて因果モデルを評価し、モデル活用部104は、新たな因果モデルを最も評価の高い因果モデルとして取得し、活用することができる。この場合、因果モデル推定部101は、学習パラメータの再推定だけを行うか、構造の再推定を含めて行うか、さらにはドメイン知識保有者による編集も行うかは、使用環境等に応じて定めればよい。 Furthermore, while the causal model is being used, the data accumulation unit 111 accumulates measurement data acquired from the device group 114, and inputs the newly accumulated measurement data to the causal model estimation unit 101, Retrain the model. As a result, the causal model estimating unit 101 evaluates the causal model using the latest measurement data accumulated as needed, and the model utilization unit 104 acquires and utilizes the new causal model as the highest evaluated causal model. be able to. In this case, the causal model estimating unit 101 determines whether only the learning parameters are re-estimated, whether the structure is re-estimated, or whether the domain knowledge owner also edits the data, depending on the usage environment. All you have to do is

実施例1および2では現在の状態の判別の例を示したが、同様に未来の予測を行うこともできる。例えば、計測データが、データ蓄積部111に図10に示すように時系列に蓄積されている場合を考える。図10では、時刻tn、tn-1、tn-2…というように、過去から現在までの計測データが記憶されていることを示している。学習部202は、このように蓄積された計測データを入力して、現在(例えば、tn-1時点)の説明変数からその後の時点(例えば、tn時点)の目的変数を予測する因果モデルを生成する。このように、目的変数を故障の有無とし、入力変数を故障発生時よりも過去のセンサや設定の値として学習を行えば、過去の状態から未来の状態を予測するモデルを構築可能である。 Although Examples 1 and 2 show an example of determination of the current state, prediction of the future can also be performed in the same manner. For example, consider a case where measurement data is accumulated in the data accumulation unit 111 in time series as shown in FIG. FIG. 10 shows that measurement data from the past to the present is stored such as times tn, tn-1, tn-2, and so on. The learning unit 202 inputs the measurement data accumulated in this way, and generates a causal model that predicts the objective variable at a later time (for example, at time tn) from the explanatory variables at present (for example, at time tn-1). do. In this way, if learning is performed using the presence or absence of a failure as the objective variable and past sensor and setting values from the time of failure as the input variables, it is possible to build a model that predicts the future state from the past state.

また、予測判別装置を用いて装置などの正常・異常を判別する場合、必ずしも異常のデータを必要としない。例えば装置の各種パラメータと特定箇所の振動値が計測でき、振動値が装置の異常に関連していることはわかっているとする。このとき、正常時の振動値のデータしか得られなくても、正常時の振動値を判別するモデルを作っておくことは可能である。活用時には、このモデルを用いて、振動値以外のデータから振動値を予測し、実際の振動値との差異を求め、差異が特定の閾値を超えたときに、異常な振動として検知することができる。 Further, when the predictive discriminator is used to discriminate whether a device is normal or abnormal, data on the abnormality is not necessarily required. For example, it is assumed that various parameters of the device and vibration values at specific locations can be measured, and that the vibration values are associated with abnormalities in the device. At this time, even if only the data of the vibration value in the normal state is obtained, it is possible to create a model for discriminating the vibration value in the normal state. When used, this model can be used to predict vibration values from data other than vibration values, find the difference from actual vibration values, and detect abnormal vibrations when the difference exceeds a specific threshold. can.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. In addition, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration. Further, each of the above configurations, functions, processing units, processing means, and the like may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. Moreover, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in recording devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.

100…予測判別装置、101…因果モデル推定部、102…モデル評価部、201…データ分割部、202…学習部、203…テスト部、204…統合評価部、103…ユーザ表示編集部、104…モデル活用部、111…データ蓄積部、112…表示部 100...Prediction discriminator, 101...Causal model estimation unit, 102...Model evaluation unit, 201...Data division unit, 202...Learning unit, 203...Test unit, 204...Integrated evaluation unit, 103...User display editing unit, 104... Model utilization part, 111... data accumulation part, 112... display part

Claims (3)

計測データを出力する判別対象から得られた説明変数と目的変数と製造IDとを含む前記計測データを入力して、前記説明変数と前記目的変数との間の関係性を示す一または複数の因果モデルを推定する因果モデル推定部と、
前記目的変数についての予測または判別の性能を示す指標を用いて前記一または複数の因果モデルを評価し、当該評価の結果が所定の条件を満たす因果モデルを出力する評価部と、
前記評価部が出力した因果モデルと前記評価の結果とを表示部に出力する編集部と、
前記評価部から、前記評価の結果が所定の条件を満たす因果モデルと、当該因果モデルの入力となった計測データに含まれる製造IDとを取得し、前記判別対象から取得した計測データの中から、前記製造IDと同じ製造IDのデータを抽出し、前記所定の条件を満たす因果モデルとともに、表示部に出力するモデル活用部と、
を備えることを特徴とする予測判別システム。
One or more causal factors indicating the relationship between the explanatory variable and the objective variable by inputting the measurement data including the explanatory variable, the objective variable, and the manufacturing ID obtained from the discrimination target that outputs the measured data a causal model estimator for estimating the model;
an evaluation unit that evaluates the one or more causal models using an index indicating prediction or discrimination performance for the objective variable, and outputs a causal model whose evaluation result satisfies a predetermined condition;
an editing unit that outputs the causal model output by the evaluation unit and the result of the evaluation to a display unit;
From the evaluation unit , a causal model whose evaluation result satisfies a predetermined condition and a manufacturing ID included in the measurement data that is input to the causal model are acquired from the measurement data acquired from the determination target. , a model utilization unit that extracts data of the same manufacturing ID as the manufacturing ID, and outputs the data together with the causal model that satisfies the predetermined condition to a display unit;
A predictive discrimination system comprising:
前記予測判別システムは、
前記判別対象から出力された計測データを蓄積する第1の装置と、
前記因果モデル推定部と前記評価部と前記編集部とを有した第2の装置と、
前記判別対象から出力された計測データを取得し、前記モデル活用部を有した第3の装置と、
前記編集部の出力先となる前記表示部を有する表示装置と、
前記モデル活用部の出力先となる出力装置とにより構成される、
ことを特徴とする請求項に記載の予測判別システム。
The predictive discrimination system is
a first device for accumulating measurement data output from the determination target;
a second device having the causal model estimation unit, the evaluation unit, and the editing unit;
a third device that acquires measurement data output from the determination target and has the model utilization unit;
a display device having the display unit serving as an output destination of the editing unit;
and an output device that serves as an output destination of the model utilization unit,
The predictive discrimination system according to claim 1 , characterized by:
プロセッサとメモリとを有したコンピュータにより行われる予測判別方法であって、 A prediction discrimination method performed by a computer having a processor and a memory,
前記プロセッサは、 The processor
計測データを出力する判別対象から得られた説明変数と目的変数と製造IDとを含む前記計測データを入力して、前記説明変数と前記目的変数との間の関係性を示す一または複数の因果モデルを推定し、 One or more causal factors indicating the relationship between the explanatory variable and the objective variable by inputting the measurement data including the explanatory variable, the objective variable, and the manufacturing ID obtained from the discrimination target that outputs the measured data Estimate the model,
前記目的変数についての予測または判別の性能を示す指標を用いて前記一または複数の因果モデルを評価し、当該評価の結果が所定の条件を満たす因果モデルを出力し、 Evaluating the one or more causal models using an index indicating predictive or discriminative performance for the objective variable, outputting a causal model whose evaluation result satisfies a predetermined condition;
出力した因果モデルと前記評価の結果とを表示し、 Displaying the output causal model and the result of the evaluation,
前記評価の結果が所定の条件を満たす因果モデルと、当該因果モデルの入力となった計測データに含まれる製造IDとを取得し、前記判別対象から取得した計測データの中から、前記製造IDと同じ製造IDのデータを抽出し、前記所定の条件を満たす因果モデルとともに、表示する、 A causal model whose result of the evaluation satisfies a predetermined condition and a production ID included in the measurement data that is input to the causal model are acquired, and the production ID and the production ID are extracted from the measurement data acquired from the discrimination target. extracting data with the same manufacturing ID and displaying them together with a causal model that satisfies said predetermined condition;
ことを特徴とする予測判別方法。 A prediction discrimination method characterized by:
JP2019099053A 2019-05-28 2019-05-28 Information processing device, prediction discrimination system, and prediction discrimination method Active JP7247021B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019099053A JP7247021B2 (en) 2019-05-28 2019-05-28 Information processing device, prediction discrimination system, and prediction discrimination method
CN202010283149.0A CN112016689B (en) 2019-05-28 2020-04-10 Information processing device, prediction discrimination system, and prediction discrimination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019099053A JP7247021B2 (en) 2019-05-28 2019-05-28 Information processing device, prediction discrimination system, and prediction discrimination method

Publications (2)

Publication Number Publication Date
JP2020194320A JP2020194320A (en) 2020-12-03
JP7247021B2 true JP7247021B2 (en) 2023-03-28

Family

ID=73506507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019099053A Active JP7247021B2 (en) 2019-05-28 2019-05-28 Information processing device, prediction discrimination system, and prediction discrimination method

Country Status (2)

Country Link
JP (1) JP7247021B2 (en)
CN (1) CN112016689B (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112311B (en) * 2021-05-12 2023-07-25 北京百度网讯科技有限公司 Method for training causal inference model and information prompting method and device
JP7409421B2 (en) * 2022-03-24 2024-01-09 いすゞ自動車株式会社 Model creation device and model creation method
WO2024004384A1 (en) * 2022-06-27 2024-01-04 ソニーグループ株式会社 Information processing device, information processing method, and computer program
WO2024053020A1 (en) * 2022-09-07 2024-03-14 株式会社日立製作所 System and method for estimating factor of difference between simulation result and actual result

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217711A (en) 2007-03-07 2008-09-18 Omron Corp Apparatus for deciding causal structure, control method therefor, and control program therefor
JP2009265713A (en) 2008-04-22 2009-11-12 Toyota Central R&D Labs Inc Model construction device and program
JP2017194730A (en) 2016-04-18 2017-10-26 株式会社日立製作所 Decision Support System and Decision Support Method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017939B2 (en) * 2006-06-22 2012-09-05 オムロン株式会社 Causal structure acquisition apparatus, causal structure acquisition method, causal structure acquisition program, and computer-readable recording medium recording the same
JP6354192B2 (en) * 2014-02-14 2018-07-11 オムロン株式会社 Causal network generation system
JP6247775B2 (en) * 2014-10-21 2017-12-13 株式会社日立製作所 Time series prediction apparatus and time series prediction method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217711A (en) 2007-03-07 2008-09-18 Omron Corp Apparatus for deciding causal structure, control method therefor, and control program therefor
JP2009265713A (en) 2008-04-22 2009-11-12 Toyota Central R&D Labs Inc Model construction device and program
JP2017194730A (en) 2016-04-18 2017-10-26 株式会社日立製作所 Decision Support System and Decision Support Method

Also Published As

Publication number Publication date
CN112016689A (en) 2020-12-01
CN112016689B (en) 2023-08-18
JP2020194320A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP7247021B2 (en) Information processing device, prediction discrimination system, and prediction discrimination method
US10423647B2 (en) Descriptive datacenter state comparison
US9753801B2 (en) Detection method and information processing device
JP6354755B2 (en) System analysis apparatus, system analysis method, and system analysis program
EP1733291B1 (en) Principle component analysis based fault classification
JP6327234B2 (en) Event analysis device, event analysis system, event analysis method, and event analysis program
JP6521096B2 (en) Display method, display device, and program
JP6183450B2 (en) System analysis apparatus and system analysis method
JP6489235B2 (en) System analysis method, system analysis apparatus, and program
JP2018180759A (en) System analysis system and system analysis method
JP6183449B2 (en) System analysis apparatus and system analysis method
JP2013175108A (en) Clustering device and clustering program
JP7493930B2 (en) Information processing method, information processing device, production system, program, and recording medium
JP6915693B2 (en) System analysis method, system analyzer, and program
JP2015060237A (en) Prediction model learning device, prediction model learning method, and computer program
CN117785539A (en) Log data analysis method, device, computer equipment and storage medium
US10157113B2 (en) Information processing device, analysis method, and recording medium
JP6973445B2 (en) Display method, display device, and program
JP6627258B2 (en) System model generation support device, system model generation support method, and program
WO2016163008A1 (en) Fault diagnostic device and fault diagnostic method
JP2021028751A (en) Failure sign diagnosis system and method for the same
JP2019047188A (en) Analysis management system and analysis management method
TWI824681B (en) Device management system, device failure cause estimation method, and memory medium for non-temporarily storing programs
JP2016170713A (en) Information processing apparatus, method, and program
JP2020204993A (en) Data evaluation system and data evaluation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R150 Certificate of patent or registration of utility model

Ref document number: 7247021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150